La IA se pone al servicio del gaming para reducir los abusos
Las herramientas basadas en inteligencia artificial llegaron para quedarse y el creciente mundo de los videojuegos no es la excepción.
Así, en la primera mitad de 2023, Microsoft se ha apoyado en la IA para utilizar herramientas automáticas en la plataforma en línea de su consola Xbox para detectar las interacciones y las imágenes que violan las normas de la comunidad.
El objetivo del fabricante es prevenir la toxicidad antes de que llegue a los jugadores y proporcionar una plataforma segura e inclusiva para todos. Como se menciona en el tercer Informe de Transparencia de Xbox, el 87 % (17,09 millones) de las sanciones totales en este periodo se lograron a través de los esfuerzos de la moderación proactiva de la plataforma.
Este logro es una muestra de que la adopción de la IA, en combinación con la supervisión humana puede mejorar procesos como la seguridad en el área del gaming.
(Te sugerimos leer: La nueva generación de procesadores, sin límites para los gamers)
De acuerdo con Dave McCarthy, director de operaciones, Microsoft Gaming, actualmente se utilizan una variedad de modelos de IA existentes para detectar contenido tóxico, incluido Community Sift , una plataforma de moderación de contenido impulsada por inteligencia artificial y conocimientos humanos que clasifica y filtra miles de millones de interacciones humanas por año.
También se emplea el modelo multilingüe Turing Bletchley v3, que escanea imágenes generadas por el usuario para garantizar que solo se muestre el contenido apropiado.
Entre las conclusiones del informe de Xbox que cubre el lapso entre enero y junio de 2023 se encuentran:
- Uso responsable de la IA para prevenir la toxicidad: se clasifican y filtran miles de millones de interacciones humanas al año, además de escanear imágenes generadas por usuarios para asegurar que solo se muestra contenido apropiado.
- Nueva información sobre los contenidos bloqueados: para medir el éxito de manera más efectiva, Xbox incluye un conjunto de datos llamado «Toxicity Prevented». En el último periodo, se bloquearon más de 4,7 millones de piezas de contenido antes de que llegaran a los jugadores, incluido un aumento de 135.000 (+39 % desde el último periodo) en imágenes gracias a las inversiones en el uso de Turing Bletchley v3.
- Mayor énfasis en abordar el acoso: se trabaja activamente en identificar y abordar cualquier comportamiento abusivo, incluidos discursos de odio y acoso. Con ese objetivo en mente, se realizaron mejoras en los procesos internos para aumentar los esfuerzos de sanción proactiva, emitiendo 84.000 sanciones proactivas por acoso/bullying (+95 % desde el último período).
- Análisis de comportamiento después de una sanción: con el objetivo de lograr una mejor comprensión de las Normas de la Comunidad entre los jugadores, se analizó cómo se comportan los jugadores después de recibir una sanción. Los primeros resultados indican que la mayoría de los jugadores no violan las reglas después de recibir una sanción y se relacionan de manera positiva con la comunidad.
Con información de https://news.microsoft.com/
AUTOR:
JOSÉ MANUEL VALLADARES
PR Executive
[email protected]