"Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân" - thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco – Mỹ đăng trên website hôm 30-5 (giờ Mỹ).
Bloomberg mô tả thông điệp trên được ký bởi 350 người là các lãnh đạo và chuyên gia đầu ngành AI, trong đó có cả ông Sam Altman - Giám đốc điều hành (CEO) OpenAI – "cha đẻ" ChatGPT.
Ngoài ra, còn có các lãnh đạo của Goolge DeepMind hay Anthropic … nhưng không có ai từ Meta - công ty đang theo đuổi lĩnh vực AI.
Việc đông đảo nhân vật được ví như giới "tinh hoa công nghệ" cùng nhau cảnh báo AI như đại dịch hay chiến tranh hạt nhân, diễn ra trong bối cảnh có nhiều lo ngại về AI.
Hơn 1.000 chuyên gia hàng đầu công nghệ, bao gồm cả tỉ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak hồi cuối tháng 3, cùng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong 6 tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.
Khoảng một tháng sau đó, CEO Google Sundar Pichai lên tiếng thừa nhận AI khiến ông mất ngủ nhiều đêm "vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy".
"Cho tới một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra" - ông Sundar Pichai nói.
CEO OpenAI cũng cho rằng AI có thể mang lại lợi ích to lớn nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó "ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị". Chính ông Sam Altman phải thừa nhận luôn có cảm giác lo lắng về AI và sốc vì ChatGPT quá phổ biến.
Các chuyên gia cũng đang lo ngại về một mô hình cao hơn là trí tuệ nhân tạo tổng hợp (AGI). AGI được đánh giá phức tạp hơn nhiều so với mô hình AI tạo sinh nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.