Call of Duty ahora está utilizando inteligencia artificial para ayudar a encontrar "discurso de odio, lenguaje discriminatorio, acoso y más" en el chat de voz y prohibir a los molestos del juego.
El sistema de IA, llamado ToxMod, se "centra en detectar daño dentro del chat de voz en lugar de palabras clave específicas", según un FAQ oficial. La detección ocurre en tiempo real, aunque los desarrolladores afirman que ToxMod "solo envía informes sobre comportamiento tóxico, categorizado por su tipo de comportamiento y un nivel de gravedad evaluado basado en un modelo en evolución. Activision determina cómo aplicará el castigo por violaciones en la moderación del chat de voz."
Con este nuevo sistema, los desarrolladores confirman que "el chat de voz se monitorea y graba con el único propósito de moderación", y tienen una solución bastante sencilla para cualquiera que no quiera que una IA los vigile por acoso: "Los jugadores que no deseen que se modere su voz pueden desactivar el chat de voz del juego en el menú de configuración."
ToxMod está en funcionamiento en América del Norte para Modern Warfare 2 y Warzone a partir de hoy, 30 de agosto, y se implementará a nivel global (excepto en Asia) con el lanzamiento de Modern Warfare 3 el 10 de noviembre. Según un comunicado de prensa, por el momento solo se admite el inglés como idioma, pero otros idiomas se agregarán "en una fecha posterior".
El sistema de IA fue creado por una empresa llamada Modulate. Hasta este punto, ToxMod aparentemente ha sido utilizado principalmente en juegos sociales de realidad virtual como Rec Room y Among Us VR. Aunque es posible que otros juegos hayan estado utilizando la tecnología sin un anuncio formal, Call of Duty es el primer título AAA que se incluye en el sitio oficial de ToxMod.
La beta abierta de Modern Warfare 3 está programada para comenzar en octubre, y puedes seguir ese enlace para obtener un desglose de todos los detalles.