Theo thông báo từ trước đó, Call of Duty: Modern Warfare 3 được ấn định ngày ra mắt vào 10/11 tới đây. Càng tới gần hạn trình làng, cộng đồng càng được dịp hào hứng sau thời gian dài chờ đợi. Đặc biệt, cũng trong ngày này, game sẽ xuất hiện cùng ứng dụng công nghệ AI kiểm soát các hành vi tiêu cực của người chơi.
Activision đã hợp tác với công ty Modulate, đưa hệ thống kiểm duyệt bằng trí tuệ nhân tạo có tên là ToxMod vào game Modern Warfare 3. ToxMod hứa hẹn có thể nhận diện những lời nói có tính phân biệt đối xử, thù ghét và quấy rối trong thời gian các game thủ trải nghiệm trò chơi. Công cụ này không trực tiếp cấm người chơi mà chỉ thực hiện quan sát và báo cáo hành vi, sau đó, phía Activision sẽ là bên quyết định hình phạt.
Trước đó, Modulate cho biết, mô hình của họ đã được đưa vào thử nghiệm trong thời gian dài, các hoàn cảnh khác nhau để có thể phân biệt được giữa các phát ngôn độc hại hoặc không có ác ý.
Bên cạnh đó, cũng sẽ có một đợt thử nghiệm hệ thống ToxMod này đối với các tựa game khác của Call of Duty như Warfare 2, Warzone... trước khi ra mắt cùng Modern Warfare 3 vào ngày 10/11. Giám đốc Activision - Michael Vance chia sẻ về ToxMod rằng: "Đây là một bước quan trọng hướng tới việc tạo và duy trì những trải nghiệm vui vẻ, công bằng và chào đón mọi người chơi".
Sự cải tiến này của nhà sản xuất được nhiều người ủng hộ, nhất là trong bối cảnh sự "toxic" trong game ngày càng nhiều biến tướng. Tuy nhiên, bên cạnh sự kỳ vọng, người chơi cũng bày tỏ sự lo ngại khi lượng người chơi quá lớn sẽ ảnh hưởng đến việc kiểm duyệt và phát sinh lỗi.