Các nhà nghiên cứu tại Đại học Minnesota, Mỹ, đã phát triển một thiết bị cải tiến có thể giảm mức tiêu thụ năng lượng của trí tuệ nhân tạo (AI) ít nhất là 1.000 lần. Tiến bộ lớn này giải quyết mối lo ngại ngày càng tăng về tác động môi trường của công nghệ AI, vì nhu cầu năng lượng toàn cầu của chúng dự kiến sẽ tăng gấp đôi vào năm 2026, theo Cơ quan Năng lượng Quốc tế.
Các hệ thống AI hiện tại yêu cầu truyền dữ liệu đáng kể giữa bộ nhớ và bộ xử lý, một quá trình tiêu tốn rất nhiều năng lượng. Thiết bị mới, được gọi là Bộ nhớ truy cập tính toán ngẫu nhiên (CCRAM - Computational random acess memory), cho phép tích hợp và xử lý dữ liệu trực tiếp trong bộ nhớ, loại bỏ nhu cầu truyền tải dữ liệu. Phương pháp này, lần đầu tiên được nhóm nghiên cứu tại Đại học Minnesota thử nghiệm, có thể giảm đáng kể mức tiêu thụ năng lượng của các ứng dụng AI.
Yang Lv, tác giả chính của nghiên cứu, giải thích rằng CRAM cho phép xử lý dữ liệu trực tiếp trong bộ nhớ, do đó loại bỏ các giai đoạn truyền tải tốn nhiều năng lượng. Công nghệ này, dựa trên việc sử dụng các mối nối từ tính (MTJ), cho phép lưu trữ và xử lý thông tin hiệu quả hơn nhiều so với các phương pháp hiện tại dựa trên bóng bán dẫn.
Jian-Ping Wang, giáo sư tại Đại học Minnesota và là đồng tác giả của nghiên cứu, nhấn mạnh rằng công nghệ này là kết quả của hơn 20 năm nghiên cứu và hợp tác liên ngành. Ban đầu được coi là một ý tưởng bất khả thi, CRAM hiện đã chứng minh được hiệu quả của mình và sẵn sàng được tích hợp vào các công nghệ hiện có. Theo Jian-Ping Wang, kết quả ban đầu cho thấy mức tiêu thụ năng lượng giảm 2.500 lần so với các hệ thống hiện tại.
CRAM có thể là giải pháp bền vững cho các nền tảng phát triển AI, mang lại hiệu quả năng lượng chưa từng có. Bước đột phá về công nghệ này mở ra triển vọng đầy hứa hẹn trong việc giảm các tác hại môi trường của các hệ thống AI trong khi vẫn duy trì hiệu suất cao. Các nhà nghiên cứu hiện đang tìm cách hợp tác với các nhà lãnh đạo trong ngành bán dẫn để phát triển công nghệ này trên quy mô lớn.