Tin tặc có thể đọc được mọi nội dung bạn đã hỏi chatbot AI vì lý do này

Lỗ hổng bảo mật mới được tìm thấy trong chatbot AI phổ biến khiến tin tặc có thể biết được tất cả bí mật của bạn.

Các chuyên gia cảnh báo rằng việc lén theo dõi lưu lượng truy cập chatbot AI có thể thu thập được nhiều thông tin từ người dùng.

Cụ thể, nếu tin tặc có thể theo dõi lưu lượng truy cập internet giữa nạn nhân và trợ lý AI dựa trên đám mây mà họ sử dụng, chúng có thể dễ dàng nắm bắt được cuộc trò chuyện. Và nếu cuộc trò chuyện đó chứa thông tin nhạy cảm, thông tin đó cũng sẽ nằm trong tay kẻ tấn công.

Lời cảnh báo đến từ các nhà nghiên cứu tại Phòng thí nghiệm Nghiên cứu AI Phòng thủ thuộc Đại học Ben-Gurion ở Israel. Họ đã tìm ra cách triển khai các cuộc tấn công kênh phụ (side channel attack) nhằm vào các mục tiêu sử dụng các trợ lý mô hình ngôn ngữ lớn (LLM) phổ biến hiện nay, ngoại trừ Google Gemini. Trong đó có cả ChatGPT, công cụ mạnh mẽ nổi tiếng của OpenAI.

Trưởng phòng thí nghiệm Yisroel Mirsky nói với ArsTechnica rằng: "Hiện tại, bất kỳ ai cũng có thể đọc các cuộc trò chuyện riêng tư được gửi từ ChatGPT và các dịch vụ khác bằng cách theo dõi lưu lượng truy cập".

"Bao gồm những kẻ gian trên cùng một Wi-Fi hoặc LAN với khách hàng (ví dụ: cùng một quán cà phê) hoặc thậm chí là tin tặc trên internet. Cuộc tấn công xảy ra hoàn toàn trong bí mật, khiến OpenAI hoặc khách hàng của họ không hề hay biết. Mặc dù OpenAI mã hóa lưu lượng truy cập của họ để ngăn chặn những kiểu tấn công nghe lén này, nhưng nghiên cứu của chúng tôi cho thấy cách OpenAI sử dụng mã hóa bị lỗi, do đó nội dung của tin nhắn bị lộ ra ngoài".

Về cơ bản, để làm cho chatbot AI hoạt động nhanh nhất có thể, các nhà phát triển đã vô tình mở cửa cho những kẻ xấu lợi dụng và đánh cắp nội dung. Khi chatbot bắt đầu gửi lại phản hồi, nó không gửi tất cả cùng một lúc mà là các đoạn nhỏ dưới dạng các token để tăng tốc quá trình. Các token này có thể được mã hóa, nhưng vì chúng được gửi lần lượt ngay khi được tạo nên điều đó cho phép kẻ tấn công phân tích chúng.

Các nhà nghiên cứu đã phân tích kích thước, độ dài và nhiều yếu tố khác của token … và tinh chỉnh lại sau đó, giúp các phản hồi được giải mã giống hệt với những gì nạn nhân nhìn thấy.

Để chống lại cách tấn công này, các nhà nghiên cứu đề xuất các nhà phát triển thực hiện một trong hai điều: ngừng gửi từng token hoặc sửa tất cả chúng thành gói tin lớn nhất có thể, khiến việc phân tích trở nên bất khả thi.