En Resumen

  • La franquicia de juegos Call of Duty implementa ToxMod, una función de inteligencia artificial para moderar conversaciones en línea.
  • ToxMod utiliza IA para identificar y tomar medidas contra el discurso tóxico, incluyendo lenguaje perjudicial, de odio y acoso en tiempo real.
  • La función se lanzó en Call of Duty: Modern Warfare II y Call of Duty: Warzone en América del Norte, y se expandirá a nivel mundial (excluyendo Asia) a partir del 10 de noviembre.
  • Activision ha restringido más de 1 millón de cuentas por violar el código de conducta de Call of Duty desde el lanzamiento de Call of Duty: Modern Warfare II en noviembre pasado.

Los desarrolladores de juegos están buscando formas de frenar el lenguaje abusivo en línea, y la franquicia de disparos masivamente popular Call of Duty es conocida entre los jugadores por sus jugadores tóxicos, como lo reafirmó un estudio de 2022. Ahora, Activision está tratando de hacer más al respecto, con la ayuda de la inteligencia artificial.

Call of Duty está recurriendo a la inteligencia artificial para moderar las conversaciones de voz en su comunidad de jugadores en línea con el lanzamiento de una nueva función llamada ToxMod, anunció Activision el miércoles. La función, desarrollada en colaboración con la startup de IA con sede en Boston Modulate, ya está disponible en América del Norte en los juegos Call of Duty: Modern Warfare II y Call of Duty: Warzone.

ToxMod utiliza inteligencia artificial para identificar y tomar medidas contra el discurso tóxico, incluyendo lenguaje perjudicial, discurso de odio, lenguaje discriminatorio y acoso, todo en tiempo real. Se expandirá a nivel mundial (excluyendo Asia) a partir del 10 de noviembre con el lanzamiento del último título de Call of Duty, Modern Warfare III.

AD

"Este nuevo desarrollo fortalecerá los sistemas de moderación en curso liderados por el equipo anti-toxicidad de Call of Duty, que incluye filtrado de texto en 14 idiomas para el texto en el juego (chat y nombres de usuario), así como un sólido sistema de denuncia de jugadores en el juego", dijo Activision en un comunicado.

Decrypt se puso en contacto con Activision para obtener comentarios y detalles adicionales sobre la nueva función, pero un representante no proporcionó más información. Modulate no respondió de inmediato a las preguntas de Decrypt.

El mundo de los videojuegos no es ajeno al comportamiento tóxico. Activision afirmó que desde el lanzamiento de Call of Duty: Modern Warfare II en noviembre pasado, se han restringido más de 1 millón de cuentas por violar el código de conducta de la franquicia del juego. El editor afirmó que sus herramientas de filtrado existentes han tenido un "impacto positivo" en la reducción del discurso abusivo.

"El 20% de los jugadores no volvió a cometer infracciones después de recibir una primera advertencia", dijo Activision en una publicación. "Aquellos que volvieron a cometer infracciones se enfrentaron a penalizaciones en sus cuentas, que incluyen, entre otras cosas, restricciones de funciones (como prohibiciones de chat de voz y texto) y restricciones temporales de la cuenta".

A pesar de la implementación de la nueva función de inteligencia artificial, Activision pidió a los jugadores de Call of Duty que continúen informando sobre comportamientos disruptivos.

AD

"Este tipo de compromiso con el juego y la comunidad por parte de nuestros jugadores es increíblemente importante, y estamos agradecidos a nuestra comunidad por sus esfuerzos en combatir el comportamiento disruptivo", dijo Activision.

GG Newsletter

Get the latest web3 gaming news, hear directly from gaming studios and influencers covering the space, and receive power-ups from our partners.