Deepfake: Khi AI được ứng dụng để lừa đảo

Trí tuệ nhân tạo AI (Artificial Intelligence) là một bước tiến của công nghệ, mô phỏng hình ảnh, suy nghĩ, khả năng học tập, cư xử… của con người. AI được ứng dụng nhiều trong đời sống để trợ giúp con người ở nhiều lĩnh vực như y tế, giao thông, tài chính ngân hàng, giải trí…

Không thể phủ nhận lợi ích của AI khi mang lại những tính năng vượt trội trong việc phát hiện, ngăn chặn rủi ro, hạn chế sử dụng sức lao động của con người, xoá bỏ khoảng cách ngôn ngữ…

Tuy nhiên, mọi việc đều có 2 mặt của vấn đề. AI đem lại lợi ích khi được ứng dụng vào mục đích tốt. Còn khi ứng dụng vào mục đích xấu, AI sẽ đưa các thủ đoạn lừa đảo lên một tầm cao mới mà người dùng không ngờ tới.

Theo đó, một trong những tính năng của AI là mô phỏng khi được ứng dụng trong công nghệ Deepfake để tạo ra các sản phẩm âm thanh, hình ảnh và video giống hệt với hình mẫu cho trước đã được kẻ xấu sử dụng để lừa đảo chiếm đoạt tài sản.

Cụ thể, các “hình mẫu cho trước” này được thu thập thông qua mạng xã hội, những hình ảnh được người dùng chia sẻ công khai. Thông qua công nghệ Deepfake, kẻ xấu tiến hành tạo ảnh động, tạo video giả mạo người dùng và có thể nói chuyện trực tuyến, gọi điện hình ảnh với khuôn mặt, âm điệu, giọng nói như “hình mẫu cho trước”.

Deepfake mô phỏng theo hình mẫu cho trước

Các hành vi lừa đảo được thực hiện khi kẻ xấu sử dụng việc mô phỏng qua Deepfake, gọi điện hình ảnh (gọi video) cho nạn nhân và giả mạo là người quen để vay tiền, nhờ chuyển tiền. Nội dung có thể xoay quanh việc con cái nhờ bố mẹ đóng học phí, bạn bè hay người thân vay tiền trong các tình huống khẩn cấp… đánh vào tâm lí nạn nhân để họ nhanh chóng chuyển tiền.

Các cuộc video này thường có chất lượng hình ảnh thấp, không rõ nét, tín hiệu chập chờn để nạn nhân khó phân biệt thật giả.

Việc lừa đảo qua Deepfake trong thời gian gần đây được ghi nhận trên nhiều tỉnh thành và được các cơ quan chức năng khuyến cáo tới người dân cần nâng cao cảnh giác.

Nếu như trước đây, khi bị lừa đảo qua tin nhắn, với cùng phương thức giả mạo người thân, đồng nghiệp, bạn bè để lừa đảo chiếm đoạt tài sản, người dân được khuyến cáo cần liên lạc lại với đối tượng vay tiền để tránh lừa đảo thì hiện nay chính việc “liên lạc lại” cũng là một phương thức lừa đảo khác thông qua công nghệ AI.

Việc các thủ đoạn lừa đảo ngày càng tinh vi đòi hỏi người dùng phải nâng cao hơn nữa cảnh giác trước các yêu cầu chuyển tiền gấp từ người thân, đồng nghiệp, bạn bè khi có dấu hiệu đáng ngờ.

Ông Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS) cho biết những công ty cung cấp phần mềm Deepfake cho rằng ứng dụng của họ không phải sinh ra với mục đích xấu, chỉ đơn thuần là ứng dụng phục vụ giải trí cho người dùng.

Tuy nhiên, khi được sử dụng vào mục đích xấu, Deepfake trong mắt người dùng hiện nay lại đa phần là những ấn tượng xấu liên quan đến lừa đảo.

Theo ông Vũ Ngọc Sơn, nếu để ý kỹ, người dùng có thể phát hiện ra những dấu hiệu của việc bị lừa đảo bằng Deepfake như chất lượng video thấp, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, khuôn mặt không quay ngang, giọng nói không trơn tru hoặc quá đều đều, không ngắt, nghỉ.