OpenAI kêu gọi kìm hãm trí tuệ nhân tạo

Đội ngũ đằng sau hệ thống ChatGPT cho biết, cần có một cơ quan giám sát để chống lại rủi ro của những AI “siêu thông minh”.

Trong một ghi chú ngắn đăng trên trang web của công ty, những người đồng sáng lập, ông Greg Brockman và ông Ilya Sutskever cùng giám đốc điều hành, ông Sam Altman, đã nhấn mạnh sự cần thiết của một cơ quan quản lý quốc tế chuyên “kiểm tra hệ thống, giám sát việc tuân thủ các tiêu chuẩn an toàn và đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật” nhằm giảm các “rủi ro” mà các hệ thống AI có thể gây ra.

“Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả bằng những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều; nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta cần phải hành động”, họ viết

Bộ ba kêu gọi “sự phối hợp” giữa các công ty làm việc trong lĩnh vực nghiên cứu AI, nhằm đảm bảo các mô hình trí tuệ nhân tạo phối hợp trơn tru với xã hội, đồng thời ưu tiên sự an toàn. Chẳng hạn, sự phối hợp đó có thể thông qua một dự án do chính phủ lãnh đạo, hoặc qua một thỏa thuận tập thể nhằm hạn chế sự phát triển về khả năng của AI.

OpenAI kêu gọi kìm hãm trí tuệ nhân tạo - 1

Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỷ, nhưng khi sự phát triển của AI tăng tốc đến chóng mặt, những rủi ro đó đã trở nên cụ thể hơn. Trung tâm An toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.

Trong khi một số người lo lắng về việc một AI mạnh mẽ sẽ hủy diệt hoàn toàn nhân loại, dù vô tình hay cố ý, CAIS cảnh báo những tác hại khác nguy hiểm hơn. Một thế giới mà các hệ thống AI được phép lao động nhiều hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”; hoặc một nhóm nhỏ những người kiểm soát các hệ thống mạnh mẽ có thể “biến AI thành một lực lượng tập trung hóa”, tạo một hệ thống đẳng cấp vĩnh cửu giữa kẻ trị vì và kẻ bị trị.

Các nhà lãnh đạo của OpenAI cho biết những rủi ro đó có nghĩa là “mọi người trên khắp thế giới nên cùng xác định các giới hạn cho các hệ thống AI”, nhưng họ cũng thừa nhận rằng họ “chưa biết cách thiết kế một cơ chế như vậy”. Tuy nhiên, họ tin rằng việc tiếp tục phát triển các hệ thống mạnh mẽ đáng để chúng ta mạo hiểm.

“Chúng tôi tin rằng, nó sẽ dẫn đến một thế giới tốt đẹp hơn nhiều so với những gì chúng ta có thể hình dung bây giờ”, họ viết. Mặt khác, họ cũng cảnh báo rằng việc tạm dừng phát triển cũng có thể nguy hiểm. “Bởi những mặt tích cực là rất lớn, chi phí để xây dựng AI giảm đi mỗi năm, số lượng người tham gia xây dựng nó đang tăng lên và nó vốn dĩ đã là một phần của con đường công nghệ mà chúng ta đang theo đuổi. Để ngăn chặn nó sẽ cần một chế độ giám sát toàn cầu và thậm chí điều đó cũng không đảm bảo sẽ triệt để. Vì vậy, chúng ta phải làm AI cho đúng”.