Mặt trái của AI: Hacker lợi dụng OpenAI làm "vũ khí" tấn công mạng

Các đối tượng xấu đang lợi dụng AI để nâng cao năng lực tấn công mạng vào các hệ thống máy tính.

Theo cảnh báo mới từ hãng bảo mật Kaspersky, các tổ chức lẫn cá nhân cần chuẩn bị cho sự đối mặt với các cuộc tấn công mạng ngày càng tinh vi và khó phát hiện hơn bởi sự trỗi dậy của Dark AI tại khu vực châu Á - Thái Bình Dương (APAC).

Trong đó, ông Sergey Lozhkin - Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) phụ trách khu vực Trung Đông, Thổ Nhĩ Kỳ, châu Phi và APAC của Kaspersky cho biết, kể từ khi ChatGPT trở nên phổ biến toàn cầu vào năm 2023, Kaspersky ghi nhận sự gia tăng nhanh chóng trong việc ứng dụng AI vào nhiều mục đích - từ những tác vụ thông thường như việc tạo video cho đến các tác vụ kỹ thuật như phát hiện và phân tích mối đe dọa.

“Tuy nhiên, ở chiều ngược lại, các đối tượng xấu cũng đang lợi dụng AI để nâng cao năng lực tấn công của họ. Chúng ta đang bước vào kỷ nguyên mới của an ninh mạng và xã hội, nơi mà AI đóng vai trò là tấm khiên để phòng thủ, còn Dark AI bị biến thành vũ khí nguy hiểm trong các cuộc tấn công mạng”, ông Sergey cảnh báo.

"Dark AI" chỉ việc triển khai các mô hình ngôn ngữ lớn (LLMs) ở cấp độ cục bộ hoặc từ xa mà không bị giới hạn trong một hệ thống hoàn chỉnh hoặc nền tảng chatbot, nhằm phục vụ cho các mục đích xấu, phi đạo đức hoặc trái phép.

Ông Lozhkin chia sẻ rằng, phổ biến nhất của việc lạm dụng AI hiện nay là sự xuất hiện của các mô hình Black Hat GPT nổi lên từ giữa năm 2023. Đây là những mô hình AI được phát triển hoặc điều chỉnh đặc biệt để phục vụ các mục đích phi đạo đức, bất hợp pháp như: Tạo mã độc, soạn thảo email lừa đảo, tạo giọng nói và các video deepfake,...

Các Black Hat GPT có thể tồn tại dưới dạng mô hình AI hoàn chỉnh hoặc bán lẻ. Một số ví dụ điển hình được ghi nhận như WormGPT, DarkBard, FraudGPT và Xanthorox, đều được thiết kế nhằm phục vụ cho hoạt động tội phạm mạng, lừa đảo và tự động hóa độc hại.

Bên cạnh các hình thức lạm dụng AI quen thuộc, ông Lozhkin tiết lộ thêm, các chuyên gia của Kaspersky đang ghi nhận một xu hướng còn đáng lo ngại hơn. Đó là các nhóm tấn công mạng do quốc gia hoặc chính phủ hậu thuẫn bắt đầu tận dụng mô hình ngôn ngữ lớn (LLMs) trong các chiến dịch tấn công của mình.

“OpenAI gần đây công bố họ đã ngăn chặn hơn 20 chiến dịch ảnh hưởng ngầm và tấn công mạng có hành vi lợi dụng công cụ AI của họ. Chúng ta sẽ phải đối mặt với các đối tượng tấn công ngày càng tinh vi hơn trong việc vũ khí hóa AI, trở thành mối đe dọa trong các hệ sinh thái công cộng lẫn riêng tư”, ông Lozhkin nhận định.