¿'Elsagate' prueba que YouTube es demasiado grande para controlarlo?
El escándalo de los videos violentos y sexuales dirigidos a niños expone la dificultad de confiar en algoritmos

Catrinus Van Der Veen / AFP / Getty Images
En febrero, YouTube Anunciado había alcanzado un hito asombroso: los visitantes ahora consumían el equivalente a mil millones de horas de video todos los días.
El tamaño de la base de usuarios de la plataforma es igualmente asombroso. Más de 1.500 millones de personas utilizan YouTube, dice El guardián Roger McNamee, dándole un alcance global comparable al Islam.
Pero, como dicen, un gran poder conlleva una gran responsabilidad y el reciente ElsaGate, un escándalo que involucra videos inquietantes dirigidos a niños, ha llevado a algunos a preguntarse si YouTube se ha convertido en un monstruo de Frankenstein, más allá del control de sus creadores.
¿Qué es ElsaGate?
Algunos de los canales más populares de YouTube están dirigidos a los niños, y los creadores se especializan en canciones infantiles, dibujos animados coloridos y los todopoderosos videos de desempaquetado de juguetes que obtienen millones de suscriptores y miles de millones de visitas.
Pero hay un problema. YouTube está absolutamente inundado de videos extremadamente violentos, inapropiados y sexualmente sugerentes dirigidos a niños, dice Inquistr , y estos videos se están abriendo camino en las listas de reproducción automática junto con los clips apropiados para la edad.
El periodista James Bridle profundizó en este inquietante fenómeno, apodado Elsagate en honor al popular personaje de Frozen que aparece en muchos de los videos, para un artículo titulado Something is Wrong on the Internet en Medio este mes.
Descubrió que a medida que los creadores de contenido persiguen a los espectadores, las fórmulas exitosas, y originalmente inofensivas, para obtener visitas se repiten sin cesar en toda la red en recombinaciones cada vez más extravagantes y distorsionadas.
En su forma más extrema, estos incluyen una legión de videos inquietantes que parecen ser producidos, o en algunos casos generados automáticamente, en respuesta a palabras clave populares. A menudo presentan temas perturbadores y contenido sexual o violento.
Por ejemplo, una búsqueda del dentista de Peppa Pig devuelve un clip casero en el que el popular personaje infantil es torturado, antes de convertirse en una serie de robots de Iron Man y realizar el baile Learn Colors.
ElsaGate ha generado una avalancha de respuestas de padres preocupados, los medios de comunicación y los detectives de Internet dedicados a descubrir quién o qué está haciendo estos videos perturbadores y por qué.
¿YouTube se ha vuelto demasiado grande para controlarlo?
En el corazón de ElsaGate y otras controversias sobre el contenido de YouTube, como los videos que promueven el terrorismo o la violencia, está la omnipotencia de los algoritmos de la plataforma.
Al contrario de lo que algunos padres pueden creer, el contenido de la aplicación dedicada para niños de YouTube no está seleccionado ni preseleccionado por humanos. En cambio, los videos sugeridos aparecen en su lista de reproducción automática automáticamente según las palabras clave compartidas o audiencias similares.
El tamaño del catálogo de YouTube va más allá de las capacidades de la supervisión humana. El contenido se carga en la plataforma con el equivalente a 400 horas de video por minuto, según Statista .
La increíble proliferación de videos que claramente se han producido en respuesta a términos de búsqueda comunes muestra hasta qué punto YouTube es administrado esencialmente por máquinas, dice Bridle de Medium.
En una plataforma donde la visibilidad del contenido, y por lo tanto el potencial de ingresos por publicidad, está controlada por algoritmos, incluso si eres un humano, tienes que terminar haciéndote pasar por la máquina.
ElsaGate ha expuesto una verdad de larga data sobre YouTube que ya no se puede ignorar, dice Polígono : los filtros diseñados para proteger a los usuarios de todas las edades de contenido perturbador, violento o ilegal no están a la altura.
Los algoritmos son destrozados, analizados y golpeados por creadores de contenido, humanos o automatizados, que se han convertido en expertos en jugar con el sistema para asegurarse de que se vea su salida.
En un ejemplo particularmente notorio, los bromistas en el tablero de mensajes de 4chan lograron unir la pornografía en los programas para niños y jugar con el algoritmo para garantizar que los videos fueran monetizados y vistos, dice Polygon.
¿Se puede solucionar el problema?
YouTube se ha comprometido a acabar con la plaga de vídeos infantiles inapropiados que se escapan de los filtros de su aplicación Kids.
Juniper Downs, director de políticas, dijo que un nuevo sistema anterior a las revelaciones de ElsaGate clasificará los videos marcados por los usuarios como con restricción de edad, lo que los mantendrá automáticamente fuera de la aplicación YouTube Kids.
En un nivel más amplio, hay indicios de que YouTube está cambiando su actitud hacia la curación de contenido hacia un enfoque más práctico, impulsado por la presión de los gobiernos preocupados por el extremismo en línea.
Múltiples ataques terroristas en Europa y EE. UU. Han sido perpetrados por personas que se cree que se auto-radicalizaron en parte al ver videos de propaganda de YouTube hechos por grupos como el Estado Islámico y sus simpatizantes.
Los políticos han amenazado con tomar medidas contra las empresas de tecnología que no refuerzan las medidas para eliminar los videos que contienen contenido extremista. Alphabet, la empresa matriz de YouTube, parece estar tomando las amenazas en serio.
Anteriormente, se permitían videos religiosos o políticos incendiarios en YouTube si no infringían las reglas del sitio sobre contenido gráfico o promoción de la violencia, aunque no eran elegibles para obtener ingresos por publicidad.
Un portavoz de YouTube confirmó Reuters su política ha cambiado para prohibir cualquier video que muestre a personas o grupos clasificados como terroristas, incluido material como conferencias del reclutador de al-Qaeda Anwar al-Awlaki.
Sin embargo, incluso si YouTube desarrolla nuevas estrategias para solucionar las lagunas, las implicaciones de ElsaGate siguen siendo inquietantes a un nivel más profundo, dice. TechCrunch Natasha Lomas.
El medio de YouTube incentiva a las fábricas de contenido a producir contenido de clics, escribe Lomas, exponiendo a una generación a una ola de fangos de la cultura pop basada en palabras clave en lugar de coherencia. Es difícil imaginar que algo positivo provenga de algo tan intencionalmente básico y que se alimenta desde el fondo sistemáticamente frente a los ojos de los niños.