
Las herramientas basadas en inteligencia artificial llegaron para quedarse y el creciente mundo de los videojuegos no es la excepción.
Así, en la primera mitad de 2023, Microsoft se ha apoyado en la IA para utilizar herramientas automáticas en la plataforma en línea de su consola Xbox para detectar las interacciones y las imágenes que violan las normas de la comunidad.
El objetivo del fabricante es prevenir la toxicidad antes de que llegue a los jugadores y proporcionar una plataforma segura e inclusiva para todos. Como se menciona en el tercer Informe de Transparencia de Xbox, el 87 % (17,09 millones) de las sanciones totales en este periodo se lograron a través de los esfuerzos de la moderación proactiva de la plataforma.
Este logro es una muestra de que la adopción de la IA, en combinación con la supervisión humana puede mejorar procesos como la seguridad en el área del gaming.
(Te sugerimos leer: La nueva generación de procesadores, sin límites para los gamers)
De acuerdo con Dave McCarthy, director de operaciones, Microsoft Gaming, actualmente se utilizan una variedad de modelos de IA existentes para detectar contenido tóxico, incluido Community Sift , una plataforma de moderación de contenido impulsada por inteligencia artificial y conocimientos humanos que clasifica y filtra miles de millones de interacciones humanas por año.
También se emplea el modelo multilingüe Turing Bletchley v3, que escanea imágenes generadas por el usuario para garantizar que solo se muestre el contenido apropiado.
Entre las conclusiones del informe de Xbox que cubre el lapso entre enero y junio de 2023 se encuentran:
Con información de https://news.microsoft.com/
AUTOR:
JOSÉ MANUEL VALLADARES
PR Executive
jose.valladares@intcomex.com