Đây được xem là một trong những động thái của gã khổng lồ công nghệ Hàn Quốc nhằm tạo ra môi trường an toàn để sử dụng các công AI.
Chính sách hạn chế việc sử dụng công cụ AI được đưa ra sau khi Samsung phát hiện một số nhân viên công ty đã "rò rỉ mã nguồn nội bộ thông qua việc tải nó lên ChatGPT".
Không riêng gì Samsung mà một số công ty, tổ chức khác cũng hạn chế việc sử dụng các công cụ AI. Theo một báo cáo của CNN, JPMorgan và một số ngân hàng như Wells Fargo, Goldman Sachs, Deutsche Bank, Citigroup và Bank of America cũng đã cấm hoặc hạn chế việc sử dụng các công cụ AI.
Tương tự, các trường học ở Thành phố New York đã cấm các chatbot AI như ChatGPT vì lo ngại thông tin sai lệch và gian lận.
Trong bản ghi nhớ, Samsung cho biết mối quan tâm đến các nền tảng AI đã tăng lên đáng kể. Mặc dù hữu ích và mang lại hiệu quả cao nhưng công ty thừa nhận các công cụ AI vẫn ẩn chứa rất nhiều rủi ro về bảo mật.
Một báo cáo của NewsGuard gần đây đã tiết lộ rằng các nguồn ẩn danh đang sử dụng các công cụ AI như ChatGPT để tạo nhiều trang web tin tức giả, truyền bá thông tin sai lệch. Vì vậy, OpenAI khuyến nghị người dùng nên tránh chia sẻ "bất kỳ thông tin nhạy cảm nào trong các cuộc hội thoại".
Các công cụ AI đã trở nên phổ biến từ tháng 11 năm 2022 khi OpenAI (do Microsoft hậu thuẫn) ra mắt ChatGPT. Đúng như dự đoán, dịch vụ chatbot AI đã nhanh chóng làm mưa làm gió trong ngành công nghệ.
Theo The Verge, ChatGPT của OpenAI vẫn tiếp tục thu hút được sự yêu thích của người dùng như một công cụ để giải trí và làm việc. Tuy nhiên, tội phạm mạng cũng đang sử dụng các chatbot AI như ChatGPT để viết phần mềm độc hại, tạo email lừa đảo…