Antes del lanzamiento de Black Ops 6, Activision dice que la moderación de voz impulsada por IA de Call of Duty ya ha tenido un impacto masivo en la toxicidad

Antes del lanzamiento de Black Ops 6, Activision dice que la moderación de voz impulsada por IA de Call of Duty ya ha tenido un impacto masivo en la toxicidad

Como jugador veterano que ha dedicado innumerables horas a varios títulos, puedo decir con confianza que los esfuerzos que está haciendo Activision para combatir la toxicidad en Call of Duty son un soplo de aire fresco muy necesario. Durante años, he estado sujeto a algunas interacciones poco agradables en los juegos de Call of Duty, y es alentador ver que se implementa un cambio tan significativo.


Activision ha compartido un informe que detalla sus esfuerzos para frenar el comportamiento tóxico en Call of Duty, enfatizando que se han logrado avances significativos antes del lanzamiento de Black Ops 6.

Durante mucho tiempo, Call of Duty fue famoso por el comportamiento tóxico de sus jugadores a través del chat de voz y mensajes de texto. Sin embargo, Activision se ha esforzado por cambiar la imagen negativa de la franquicia. En el año 2023, lanzaron Modern Warfare 3 con un sistema de moderación de chat de voz en el juego que utiliza tecnología de inteligencia artificial.

En términos más simples, Activision está utilizando ToxMod, una herramienta desarrollada por Modulate. Este software aprovecha la inteligencia artificial para detectar y prevenir rápidamente discursos dañinos como discursos de odio, lenguaje ofensivo y acoso en tiempo real.

Para aliviar las preocupaciones de privacidad dentro de la comunidad de Call of Duty, Activision aclara que el chat de voz se revisa y graba únicamente con fines de moderación. El énfasis está más en identificar contenido dañino en los chats de voz que en buscar palabras clave específicas.

Antes del lanzamiento de Black Ops 6, Activision dice que la moderación de voz impulsada por IA de Call of Duty ya ha tenido un impacto masivo en la toxicidad

En su reciente actualización, el equipo de Disruptive Behaviour de Activision reconoció que el entusiasmo y la emoción son inherentes a Call of Duty. Las herramientas de moderación, tanto vocales como de texto, de Call of Duty no pretenden frenar la competitividad; en cambio, se centran en regular el comportamiento que viola el Código de conducta de Call of Duty, abordando específicamente el acoso y el lenguaje ofensivo.

De manera similar a Modern Warfare 3, el Código de conducta de Call of Duty se mostrará durante la secuencia de apertura cuando los jugadores inicien los modos multijugador principales en Black Ops 6. Esto requiere que los jugadores confirmen que comprenden y están de acuerdo con los principios descritos en el Código de Conducta.

Después de implementar regulaciones más estrictas para el chat de voz en junio, Call of Duty informó una disminución del 67% en los infractores recurrentes de malas conductas relacionadas con la voz en Modern Warfare 3 y Warzone. En julio de 2024, el 80% de los jugadores que habían sido sancionados anteriormente por infracciones en el chat de voz no repitieron la infracción. Según Activision, la aparición general de chats de voz perturbadores ha disminuido un 43% desde enero. Además, a partir de Black Ops 6, el juego ampliará su sistema de moderación por voz para incluir francés y alemán, además de inglés, español y portugués.

Las herramientas de moderación basadas en voz y texto de Call of Duty no apuntan a nuestro espíritu competitivo.

A la luz de la última incorporación a Black Ops 6: la función Body Shield en el modo multijugador, que permite a los jugadores protegerse usando enemigos mientras intercambian disparos, esta nueva mecánica seguramente llevará el sistema de moderación del chat de voz AI de Call of Duty a sus límites máximos. La función Body Shield no sólo ofrece una barrera protectora sino que también facilita la comunicación de voz entre el agresor y el defensor durante el juego, lo que genera una experiencia entretenida durante la fase de prueba beta del juego.

En un lapso de tiempo desde noviembre de 2023, la tecnología de análisis de texto en tiempo real utilizada por Call of Duty ha bloqueado aproximadamente 45 millones de mensajes que infringían su Código de Conducta. Además, Call of Duty ha introducido un nuevo sistema para analizar los nombres de usuario que se informan, con el objetivo de mejorar la eficiencia y la precisión, con informes críticos dirigidos a su equipo de moderación para una mayor investigación y acción.

Como jugador apasionado, estoy encantado de compartir que he participado activamente en colaboraciones de investigación. Activision se ha asociado con las mentes brillantes de Caltech para obtener información que mejore sus estrategias, y al mismo tiempo se ha asociado con académicos de la Escuela de Negocios Booth de la Universidad de Chicago para idear métodos efectivos para abordar y prevenir comportamientos disruptivos dentro de las comunidades de jugadores. Básicamente, estamos trabajando juntos para garantizar una experiencia de juego más agradable y armoniosa para todos.

2024-10-10 22:26