Các chuyên gia bảo mật vừa phát hiện ra một lỗ hổng bảo mật đáng lo ngại trong ChatGPT, cho phép kẻ xấu khai thác API để thực hiện các cuộc tấn công DDoS quy mô lớn.
Nhà nghiên cứu Benjamin Flesch đã công bố chi tiết về lỗ hổng này trên GitHub. Theo đó, kẻ tấn công có thể lợi dụng cách API ChatGPT xử lý yêu cầu HTTP POST đến một endpoint cụ thể để gửi lượng lớn yêu cầu trùng lặp đến một trang web, từ đó làm quá tải máy chủ và gây ra tấn công từ chối dịch vụ (DDoS - Distributed Denial of Service).
Cụ thể, do không có giới hạn về số lượng liên kết người dùng có thể cung cấp thông qua tham số "URL", kẻ xấu có thể khai thác điểm yếu này để thêm cùng một URL nhiều lần tùy ý, biến API ChatGPT thành công cụ tấn công DDoS hiệu quả.
Lỗ hổng này đặt ra mối đe dọa nghiêm trọng đến an ninh mạng và cần được khắc phục ngay lập tức. Flesch đề xuất OpenAI nên áp đặt giới hạn nghiêm ngặt về số lượng URL người dùng có thể gửi qua hệ thống, đồng thời triển khai hệ thống kiểm tra và ngăn chặn các yêu cầu trùng lặp.
Đây không phải lần đầu tiên AI tạo sinh như ChatGPT bị phát hiện có lỗ hổng bảo mật. Sự việc lần này một lần nữa gióng lên hồi chuông cảnh báo về tầm quan trọng của việc bảo mật trong lĩnh vực AI đang phát triển nhanh chóng.
Mặc dù OpenAI chưa đưa ra thông báo chính thức, nhưng với những nỗ lực bảo mật gần đây như phát triển ChatGPT Operators, nhiều khả năng công ty đã và đang tích cực tìm cách khắc phục lỗ hổng này.
Trong lúc chờ đợi, cộng đồng mạng hy vọng OpenAI sẽ sớm có giải pháp ngăn chặn các cuộc tấn công tiềm ẩn, đồng thời kêu gọi người dùng nâng cao cảnh giác và tránh truy cập các liên kết đáng ngờ để bảo vệ bản thân.