Cuộc chiến chip AI đang trở nên căng thẳng khi AMD tung ra "át chủ bài" mới MI325X, nhắm thẳng vào Nvidia H100. Theo CEO Lisa Su của AMD, vi xử lý MI325X được thiết kế đặc biệt cho các trung tâm dữ liệu xử lý khối lượng công việc AI khổng lồ, và sẽ vượt trội so với H100 của Nvidia.
Điểm nổi bật của MI325X chính là bộ nhớ HBM3E dung lượng 256GB, cao hơn 1,8 lần so với thế hệ trước MI300X, cùng băng thông ấn tượng 6 terabyte/giây (TB/s). Điều này giúp chip xử lý các tác vụ AI và tập dữ liệu phức tạp một cách hiệu quả hơn. Trong khi đó, Nvidia H100, ra mắt năm 2022, sử dụng bộ nhớ HBM3 với băng thông 3TB/s. Tuy nhiên, Nvidia cũng đang chuẩn bị ra mắt chip dựa trên kiến trúc Blackwell với bộ nhớ HBM3E 288GB và băng thông lên đến 13.8TB/s.
Nhu cầu về các SoC tiên tiến đang tăng mạnh khi các công ty công nghệ gấp rút phát triển các mô hình AI phức tạp hơn. Nvidia đã bắt đầu gửi mẫu chip Blackwell đến các đối tác và dự kiến sẽ thu về hàng tỷ USD vào cuối năm, giúp cổ phiếu công ty tăng vọt. Hiện tại, Nvidia là công ty có giá trị lớn thứ hai thế giới, chỉ sau Apple.
AMD, không muốn bị bỏ lại phía sau, dự kiến sẽ ra mắt MI325X vào cuối năm 2024, trong bối cảnh thị trường chip AI dự kiến đạt giá trị 500 tỷ USD vào năm 2028.