YouTube Anuncia Su Plan de Cuatro Pasos para Luchar con El Terror Online
YouTube está luchando con el confuso problema de cómo regular los vídeos que apoyan ideologías de odio, pero que no están específicamente fomentando violencia
El problema principal que está enfrentando YouTube es que estos vídeos no están rompiendo ninguna regulación ni reglas de la plataforma. Esto significa que banear algunos de ellos basados únicamente en ideología podría llegar a una pendiente resbaladiza que podría ser perjudicial para la imagen de YouTube: que los usuarios puedan subir sus propios vídeos, mientras no sea ilegal, sin miedo de ser censurado.
El domingo, Google anunció nuevas regulaciones que ayudan a manejar tal contenido en una publicación de blog por Kent Walker. Tituló la publicación “Cuatro pasos que estamos tomando hoy para luchar con el terror en línea.”
Los primeros dos pasos se enfocan en eliminar todos los vídeos que fomenten especialmente el terrorismo. Sin embargo, es un proceso mucho más difícil de lo que parece. Eso es porque, comenzando desde el 2012, una hora de contenido se sube a YouTube cada segundo.
“Esto puede ser desafiante: un vídeo de un ataque terrorista puede ser noticias informativas reportando por la BBC o la glorificación de violencia si se sube en un contexto diferente por otro usuario,” escribió Walker.
En el momento, YouTube utiliza una combinación de análisis de vídeo, tanto como un software como marcadores humanos de contenido para identificar y eliminar todos los vídeos que rompan las reglas de la comunidad.
El primer paso está enfocado en dedicarse a más recursos “para aplicar nuestra maquina más avanzada de aprendizaje de investigación” al software. Esto significa aplicar inteligencia artificial al software que podrá aprender con el tiempo que contenido no respeta las reglas.
El segundo paso involucra aumentar el número de “expertos independientes en el Programa de Confianza de Marcadores de YouTube”, el cual compone a los usuarios que reportar contenido inapropiado directamente a la compañía. Para ser más específico, Google planea añadir al programa 50 expertos que no son de organizaciones gubernamentales, quienes apoyará con las subvenciones operaciones en orden para revisar contenido.
“Máquinas pueden ayudar a identificar vídeos problemáticos, pero expertos humanos aún juegan un rol en decisiones matizadas sobre la línea entre propaganda violenta y religiosa o discurso de interés político,” escribió Walker.
El tercer paso es poner énfasis en contenido que no rompa las reglas, pero empuje las agendas de odio, “por ejemplo, vídeos que contengan contenido religioso inflamatorio o supremacista.”
El último paso en cuanto al uso de “anuncios en línea enfocados a alcanzar a potenciales reclusos de ISIS” y luego redirigirlos a “vídeos de anti-terrorismo que puedan caminar sus mentes en cuanto a unirse.”
Actualmente, las compañías de redes sociales luchan con el hecho de que representan el criadero para radicalismo. Por su naturaleza, ellos actúan como plataformas de libertad de expresión global. Como consecuencia, las hace más atractiva como puntos calientes para reclutamiento.