Este mes Youtube fue noticia debido a que su algoritmo bloqueó Agadmator’s Chess Channella cuenta sobre ajedrez más popular en la plataforma, porque creyó que las referencias “blanco contra negro” eran expresiones racistas.
A esta conclusión llegaron investigadores de la Universidad Carnegie Mellon, en Pensilvania, Estados Unidos, al analizar los motivos por los que el popular canal fue bloqueado el pasado 8 de junio debido a que el mismo incluía “contenido dañino y peligroso”.

De acuerdo al estudio del caso presentado a principios de febrero en la conferencia “Association for the Advancement of AI” el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos, en las cuales encontró frases como “blanco contra negro” (referencias a las piezas del juego) y por eso catalogó el contenido dentro de los discursos de odio contra las personas de color.
Pese a que la interrupción duró solo 24 horas y se dio mientras Antonio Radic (conocido por su alias Agadmator), ajedrecista y youtuber dueño de la cuenta, presentaba un video con el maestro de la disciplina Hikaru Nakamura, este no recibió explicación sobre qué fue lo que sucedió.

Según explican en The Independentla moderación de YouTube es mixta: la hacen humanos y algoritmos, razón por la que la excesiva confianza en las máquinas genera que se presenten fallas de este tipo.
Al respecto, KhudaBukhsh, uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la universidad estadounidense que lideró la investigación, señaló a Corriere della Sera que “Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidentes pueden suceder”.

Para demostrar su teoría, los investigadores tomaron dos de los programas de software más conocidos para encontrar “discursos de odio y racistas” y les proporcionaron cerca de 700 mil comentarios de algunos canales de YouTube dedicados al ajedrez.
Una vez hecho esto, los expertos revisaron manualmente 1.000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, y encontraron que el 82% de ellos no contenía referencias racistas, sin embargo fueron clasificadas así debido al uso de palabras como “negro”, “blanco”, “ataque” y “amenaza”, términos usuales en este popular juego.

Los investigadores plantean que la solución a este tipo de errores es que se incorpore el lenguaje del ajedrez en los software-vigilantes y así evitar confusiones.
Dado el resultado del estudio y los comentarios que el mismo ha generado a nivel mundial, Antonio Radic, se pronunció a través de su cuenta de Twitter donde señaló:
“El año pasado, mi podcast de ajedrez con Hikaru Nakamura fue eliminado por Youtube porque su algoritmo lo reconoció como un discurso de odio (el blanco destruye el negro, etc.). Ha pasado casi un año y solo ahora la historia llega a los portales de noticias de todo el mundo. Otra prueba de que el ajedrez ahora es genial”.

Este no es el único caso donde los algoritmos de las redes sociales bloquean cierto contenido por supuestamente infringir las reglas.
El año pasado se conoció que la red social Facebook bloqueó un anuncio de cebollas que una compañía canadiense había publicado en su cuenta, por ser “abiertamente sexual”.
En la imagen del anuncio se observaba varias cebollas en una cesta de mimbre y una cortada por la mitad apartada, algo que para la Inteligencia Artificial de Facebook estaba relacionado con el sexo.

Luego después de que el gerente de la tienda aclarara de qué se trataba, Facebook permitió de nuevo el anuncio de las cebollas y envió a la compañía un comunicado ofreciendo disculpas por haberlo bloqueado.