En Resumen

  • ToxMod, la herramienta de moderación de IA de Activision para Call of Duty, ha aplicado medidas en más de 2 millones de cuentas por "chat de voz disruptivo" desde su implementación en agosto.
  • La herramienta puede identificar comentarios disruptivos en 14 idiomas en juegos como Call of Duty: Modern Warfare II, Modern Warfare III y Warzone.
  • Activision informó que ToxMod ha resultado efectivo, con una reducción mensual del 8% en reincidentes de su política en línea desde la introducción del modelo de IA.

El gigante de los videojuegos Activision, ha revelado los resultados iniciales de su herramienta de moderación de IA para Call of Duty lanzado el año pasado, incluyendo más de 2 millones de cuentas que han recibido "aplicación de medidas en el juego por chat de voz disruptivo" desde que se implementó ToxMod en agosto.

Activision presentó la herramienta en versión beta antes del lanzamiento de Call of Duty: Modern Warfare III el otoño pasado y la expandió gradualmente a nivel mundial. La compañía dijo que ToxMod puede identificar comentarios "disruptivos" en 14 idiomas en los juegos Call of Duty: Modern Warfare II, Modern Warfare III y Call of Duty: Warzone.

"Por comportamiento disruptivo encontrado por nuestra moderación de voz, solo 1 de cada 5 usuarios informó el comportamiento, mostrando una tendencia desafortunada de que los jugadores a menudo no informan las instancias en el juego a nuestro equipo de Comportamiento Disruptivo", dijo Activision. "En los casos que no se informan, nuestro sistema de moderación de voz nos permite tomar medidas contra los jugadores que violan el Código de Conducta", dijo la compañía, agregando que la presentación activa de informes sigue siendo fundamental.

En 2023, la inteligencia artificial causó sensación en el mundo y varias industrias (incluida la de videojuegos) buscaron formas de aprovechar la tecnología. La empresa matriz de Activision, Microsoft, ha agregado herramientas de IA generativa a sus aplicaciones de Office y a Xbox.

AD

ToxMod comenzó a dar resultados casi de inmediato, según informó la compañía, lo que les permitió evolucionar su enfoque de moderación. Activision dijo que había visto una reducción mes a mes en reincidentes de su política en línea desde la introducción del modelo de IA.

"Call of Duty vio una reducción del 8% en reincidentes desde la implementación de la moderación del chat de voz en el juego", destaca el informe. "Cualquier persona detectada violando el Código de Conducta recibirá acciones como silenciar globalmente el chat de voz y texto y/o restringir otras funciones sociales".

Activision también destacó una reducción del 50% en "instancias graves" de chat de voz disruptivo desde el lanzamiento de Modern Warfare III.

AD

Los jugadores que continúen violando la política enfrentarán restricciones adicionales, dijo Activision, y agregó que está buscando formas para que los jugadores brinden "comentarios adicionales".

Para los jugadores que necesitaban un recordatorio sobre lo que podría llevar a que se informe su cuenta, Activision señaló una actualización del Código de Conducta de Call of Duty que se espera que los jugadores en línea sigan.

Activision reiteró su postura de combatir el discurso tóxico, incluyendo una política de tolerancia cero hacia el acoso y el bullying, así como comentarios despectivos relacionados con raza, identidad o expresión de género, orientación sexual, edad, cultura, fe, habilidades mentales o físicas, o país de origen.

"Call of Duty se dedica a combatir la toxicidad dentro de nuestros juegos y empoderará a nuestros equipos para implementar y mejorar nuestra tecnología de moderación para combatir comportamientos disruptivos, ya sea a través de chat de voz o texto", resaltaron. "Entendemos que este es un trabajo en curso, pero estamos comprometidos a trabajar con nuestra comunidad para asegurarnos de que Call of Duty sea justo y divertido para todos".

Editado por Ryan Ozawa y Andrew Hayward

Stay on top of crypto news, get daily updates in your inbox.