Thời gian gần đây, nhiều người dùng đã trở thành nạn nhân của các cuộc lừa đảo tiền bạc sử dụng Deepfake với cấp độ "siêu cấp" do được tích hợp công nghệ AI.
Lừa hàng chục triệu USD
Một chuyên gia an ninh mạng có tiếng của Việt Nam sáng 11-8 post một video clip dùng công nghệ giả mạo AI Deepfake được tạo ra bằng một tấm ảnh chân dung. Chuyên gia này muốn chứng minh cho cộng đồng mạng xã hội rằng công nghệ Deepfake khi được hỗ trợ bởi AI sẽ trở nên "siêu cấp". Nếu có được file (dữ liệu) giọng nói của một người đó thì video giả danh sẽ càng "thật hơn".
Công ty Chứng khoán VPS (VPS) đã đưa ra cảnh báo với khách hàng về hình thức lừa đảo mới Deepfake.Theo đó, thời gian gần đây, các tổ chức tài chính đã ghi nhận nhiều trường hợp kẻ gian sử dụng công nghệ lừa đảo Deepfake để giả dạng hình ảnh và giọng nói nhằm mục đích dẫn dụ, lừa đảo người bị hại mở các tài khoản ảo hoặc đánh cắp thông tin nhạy cảm, thông tin xác thực sinh trắc học. Từ các thông tin này, bọn xấu có thể tạo lập các tài khoản giả danh, có thể đánh lừa được các thủ tục xác thực sinh trắc học của các sàn giao dịch để vào gây rối. Các nhà nghiên cứu bảo mật của Công ty IBM (Mỹ) đã chứng minh rằng tội phạm công nghệ có thể sử dụng AI tạo sinh và công nghệ Deepfake âm thanh/hình ảnh để chiếm quyền điều khiển và thao túng các cuộc hội họp online bằng âm thanh hay các video.
Theo báo South China Morning Post, một vụ lừa đảo bằng Deepfake chấn động thế giới đã xảy ra tại Hồng Kông (Trung Quốc) cách đây vài tháng. Một nhân viên tài chính của Công ty Kỹ thuật Arup (Anh) đã bị lừa chuyển hơn 25 triệu USD cho những kẻ lừa đảo dùng Deepfake để dựng lên cả một cuộc gọi trực tuyến của giám đốc tài chính của công ty cùng một số nhân viên công ty. Ngay trong cuộc họp có đông người chứng kiến đó, nhân viên tài chính đã nhận được "lệnh" chuyển tiền từ chính "sếp" của mình, mà không biết đó là "sếp Deepfake". Cũng với thủ đoạn "cuộc gọi trực tuyến" bằng Deepfake, bọn tội phạm công nghệ đã lừa được một nữ nhân viên tài chính ở tỉnh Sơn Tây (Trung Quốc) chuyển cho chúng 1,86 triệu nhân dân tệ (khoảng 262.000 USD) do tuân lệnh của "sếp" gọi điện online cho mình.
Các chuyên gia cảnh báo những kẻ xấu không chỉ lợi dụng Deepfake để lừa đảo chiếm đoạt tài sản; mà giờ đây với sự "tiếp tay" của AI, chúng còn lợi dụng công nghệ mạo danh "siêu cấp" này cho nhiều mục đích khác. Trên thế giới đã xảy ra nhiều vụ Deepfake thao túng giá cổ phiếu; tung tin, hình ảnh, clip khiêu dâm giả mạo nạn nhân nhằm bôi nhọ uy tín, tống tiền…
Kiểm tra chéo bằng nhiều nguồn
Trung tâm Xử lý tin giả, Thông tin xấu độc Việt Nam (VAFC) thuộc Cục Phát thanh, Truyền hình và Thông tin điện tử (Bộ Thông tin và Truyền thông) hôm 9-8 đã phát đi cảnh báo: Tống tiền bằng Deepfake là hình thức lừa đảo mới nguy hiểm. Gần đây, trung tâm đã nhận được phản ánh từ ông Q.T.L. về việc các đối tượng xấu đã dùng Deepfake để cắt ghép ảnh chân dung và phát tán các hình ảnh nhạy cảm trong đó có hình ảnh ông này trên mạng xã hội nhằm bôi nhọ danh dự cá nhân. Sau đó, kẻ xấu đã liên lạc với ông, yêu cầu chuyển tiền vào ví điện tử và liên hệ qua email để xác nhận.
Công ty công nghệ Bkav cũng đã đưa ra cảnh báo ngay cả khi bạn thực hiện một cuộc gọi video, thấy mặt, nghe đúng giọng nói của người thân hay bạn bè thì cũng chưa chắc là thật. Bkav liên tục nhận được các báo cáo cũng như yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo tương tự. Theo các chuyên gia của Bkav, kẻ xấu sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook mà chúng đã âm thầm chiếm đoạt trước đó. Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi, nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện. Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm Nghiên cứu Mã độc (AntiMalware) của Bkav, cho biết: "Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều".
Các chuyên gia an ninh mạng lưu ý rằng mọi người trong kỷ nguyên AI phải chuẩn bị cho mình khả năng đối phó với những hành vi của bọn xấu lợi dụng công nghệ AI hữu ích này. Cách an toàn nhất là cẩn trọng với tất cả các thông tin chữ, hình ảnh, video, trên mạng, đặc biệt là mạng xã hội. Không chỉ đừng vội tin, mà còn không chia sẻ chúng cho tới khi có thể xác minh nguồn gốc chính thức và tính xác thực. Người dùng phải luôn cảnh giác những yêu cầu kết bạn từ người lạ trên mạng xã hội;
Với những tin nhắn, cuộc gọi nhờ vả, vay tiền, hay chào mời tham gia các "dự án" loại "việc nhẹ, lương cao"… Không nên quá tin vào các cuộc gọi video có mục đích xác thực danh tính, mà cần kiểm tra chéo bằng những kênh liên lạc khác. Nếu là bị lừa đảo này, người dùng hãy giữ lại tất cả bằng chứng liên quan (tin nhắn, email, hình ảnh, video...), liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.
Việt Nam nằm trong tốp đầu về số vụ lừa đảo
Báo cáo thường niên gần đây nhất của nhà cung cấp xác minh danh tính Sumsub cho thấy các trường hợp gian lận danh tính liên quan đến Deepfake đã tăng vọt trong khoảng thời gian từ năm 2022 đến 2023 tại nhiều quốc gia. Báo cáo đã phân tích hơn 2 triệu âm mưu lừa đảo tại 224 nước và vùng lãnh thổ. Trong một năm qua, số vụ lừa đảo Deepfake có AI là "đồng phạm" đã tăng vọt cao nhất tới 4.500% tại Philippines, Việt Nam 3.050%, Mỹ 3.000%, Bỉ 2.950%, Nhật Bản 2.800%...