Các công cụ trí tuệ nhân tạo (AI) mang lại nhiều tiện ích trong mọi lĩnh vực, giúp tự động hóa quy trình sản xuất, phân tích số liệu nhanh chóng… Tuy nhiên, ông Nguyễn Linh, chuyên gia công nghệ, nhận định nhiều người dùng càng tin tưởng vào công cụ này để viết nội dung, tạo hình ảnh… gây ra tình trạng tin tức dần trở nên ảo hóa, thật giả lẫn lộn.
Nhân viên càng ngày càng kém tương tác
Theo ông Linh, sự tiến bộ của AI đang khiến việc sử dụng các công cụ AI như ChatGPT, Deepfake (chỉnh sửa hình ảnh, âm thanh, video theo ý muốn) hay Face Swap (hoán đổi khuôn mặt) của người thân, bạn bè hay đồng nghiệp như một trào lưu để giải trí hay bắt "trend" hơn là để phục vụ công việc, học tập. "Cách đây vài tháng, một người dùng ứng dụng ChatGPT để tóm tắt câu chuyện tình yêu dài hơn 80 trang của một tác giả nổi tiếng trong nước. Sau đó, người này dùng chính thông tin của ChatGPT để đăng tải trên Facebook nhưng không kiểm tra lại. Nhiều người đọc trên mạng phát hiện nội dung sai lệch 80%-90%" - ông Linh nói.
Bà Hồng Minh, quản lý bộ phận marketing của một công ty quảng cáo tại quận 1 (TP HCM), cho hay đa số nhân viên ở các khâu, từ bán hàng, hành chính, kế toán… của doanh nghiệp được học cách sử dụng AI nhưng họ không xác định lúc nào nên và không nên dùng AI để xử lý công việc. Từ đây sẽ dẫn đến tình trạng nhân viên dựa trên dữ liệu AI phân tích, tổng hợp trên mạng để làm báo cáo nhưng nhiều trường hợp không kiểm tra lại thông tin khiến số liệu không đúng thực tế làm ảnh hưởng đến chiến lược tiếp cận khách hàng, cải tiến quy trình vận hành. "AI còn gây nên vấn đề là nhân viên có xu hướng lệ thuộc vào AI và dần trở nên kém tương tác trong các cuộc họp nội bộ do họ không sâu sát thông tin trên thị trường. Tôi phát hiện đến 60%-70% thông tin trong nhiều báo cáo định kỳ của nhân viên là do AI viết. Do đó, tôi đã kiến nghị cấp trên, yêu cầu các bộ phận cần phải có quy định về việc sử dụng AI và cần người có chuyên môn hướng dẫn cách ứng dụng hiệu quả, không để tình trạng này tiếp diễn và gia tăng trong tương lai vì điều này vô cùng nguy hiểm nếu lãnh đạo không phát hiện" - bà Minh nói.
Báo cáo thường niên Digital News Report của Reuters mới đây cho thấy mối lo ngại toàn cầu về việc sử dụng AI trong quá trình sản xuất tin tức ngày càng tăng. Dựa trên khảo sát gần 100.000 người ở 47 quốc gia trên thế giới, mức độ lo ngại về nội dung tin tức sai lệch trực tuyến đã tăng 3 điểm % so với năm ngoái, trong đó có 59% người tham gia khảo sát cho biết họ lo lắng về vấn đề này.
Cần định hướng rõ ràng
Ông Đặng Phạm Thiên Duy, giảng viên cao cấp Đại học RMIT Việt Nam, đánh giá bên cạnh người dùng sử dụng AI có định hướng để phục vụ công việc thì tình trạng sử dụng theo phong trào cũng diễn ra khá phổ biến. Chẳng hạn, nhiều người sử dụng AI tạo các nội dung đăng tải trên mạng và tạo nguồn cho tin giả, không chính xác.
"Nếu người dùng đưa dữ liệu một cách vô tội vạ để AI trả lời thì sẽ tạo thành nguồn dữ liệu không được xác thực. Trong tương lai, AI sẽ dùng chính thông tin đó để cung cấp cho người dùng khiến họ khó có thể phân biệt thật giả. Chưa kể, khi nhà nhà, người người sử dụng AI sẽ khiến môi trường bị ảo hóa, hạn chế khả năng sáng tạo và ảnh hưởng rất lớn đến cộng đồng… Trước khi sử dụng AI, người dùng cần đọc kỹ hướng dẫn sử dụng, mục đích sử dụng AI để tránh vô tình làm ảnh hưởng đến người khác" - ông Duy khuyến cáo.
Ông Trần Vũ Nguyên, Chủ tịch AI Education, cho biết người dùng hiện nay rất chủ quan đối với AI, chỉ cần thấy AI nào hay hoặc vui là sẽ trải nghiệm ngay nhưng không biết rằng việc chia sẻ thông tin AI có thể khiến mất nhiều dữ liệu cá nhân quan trọng. Hiện thế giới đã có khoảng 800 điều luật liên quan đến AI, thậm chí Diễn đàn Kinh tế thế giới đã đưa ra quy định ứng dụng AI trong dạy học và đào tạo. "Lần trước, một phụ huynh chia sẻ về việc con của họ chỉ mới học lớp 4 nhưng đã biết dùng ChatGPT. Điều này rất đáng lo vì để trẻ nhỏ cần phải đủ tư duy phản biện và khả năng đánh giá kết quả AI như thế nào. AI chỉ là công cụ nên không thể tin hoàn toàn vào nó và không nên lạm dụng" - ông Nguyên lưu ý.
Chia sẻ tại buổi tọa đàm "Ứng dụng AI trong truyền thông" mới đây, ông Đặng Hải Lộc, Giám đốc điều hành kiêm giám đốc công nghệ của AIV Group, cho biết kết quả đưa ra từ AI đến nay không thể chính xác 100%. Trong khi đó, AI đang được phổ cập trong tất cả các ứng dụng, việc này sẽ khiến tin giả, tin xấu độc hay thông tin sai lệch… trong thời gian tới sẽ tràn lan trên mạng, khó kiểm soát. Để hạn chế, khi đăng tải thông tin, người dùng cần phải dẫn nguồn do AI tạo ra như ChatGPT, Gemini…
"Trên thế giới, để kiểm soát thông tin do AI tạo ra, các start-up đang nghiên cứu tạo ra AI kiểm chứng thông tin AI như kiểm tra bài tập của học sinh có dùng ChatGPT làm bài hay không? Để làm được việc này, start-up sẽ dùng cơ sở dữ liệu đã được kiểm chứng, dữ liệu sạch để kiểm soát thông tin do AI khác tạo ra. Bên cạnh đó, họ còn có kế hoạch xây dựng mạng lưới internet không có AI" - ông Lộc chia sẻ.
Phải có kỹ năng sử dụng AI Theo các chuyên gia công nghệ, các đơn vị như trường học, đại học và các tổ chức cần xây dựng chương trình giáo dục và đào tạo về AI nhằm giúp người dùng hiểu rõ hơn về khả năng, giới hạn và tác động của AI. Bên cạnh đó, cơ quan quản lý cần ban hành các luật và quy định cụ thể về việc sử dụng AI, bao gồm các tiêu chuẩn về an toàn, bảo mật, quyền riêng tư và trách nhiệm của các bên liên quan. Đồng thời, các quy định này cần được cập nhật thường xuyên để bắt kịp với sự phát triển nhanh chóng của công nghệ AI. |