YouTube elimina miles de vídeos sobre el tiroteo de Nueva Zelanda: "subían un vídeo por segundo"

YouTube elimina miles de vídeos sobre el tiroteo de Nueva Zelanda: "subían un vídeo por segundo"
Sin comentarios Facebook Twitter Flipboard E-mail

El tiroteo vivido en Nueva Zelanda el pasado viernes sigue vinculado directamente a internet y su comunidad. El hecho de que la matanza fuese retransmitida vía Facebook Life y que el autor del tiroteo fuese un fan acérrimo de PewDiePie ha puesto mucho más el foco en las redes sociales. Si en las primeras 24 horas, Facebook eliminó más de un millón de vídeos, YouTube ha tenido que enfrentarse a un número de subidas sin precedentes.

Más de 86.400 réplicas del streaming en un solo día

Según ha explicado Neal Mohan, jefe de producto de YouTube, el mismo día del tiroteo, ante la subida masiva de vídeos sobre el streaming grabado por el asesino, tuvieron que poner en marcha un protocolo de actuación que solo es utilizado en casos de crisis en la plataforma:

"Los apodados como solucionadores de incidentes trabajaron la noche del viernes al sábado eliminando de diez mil en diez mil los vídeos del tiroteo y cerrando cientos de canales que glorificaban las acciones del asesino en contra de la comunidad musulmana", explicó Mohan al periódico americano The Washington Post.

La subida masiva de este tipo de vídeos se descontroló porque el sistema no reconocía todos los vídeos que se resubían sobre el suceso. Es decir, si se subían unas imágenes del streaming, YouTube rápidamente las identificaba y las marcaba para que todos los vídeos subidos con ese contenido fuesen bloqueados. Sin embargo, si las imágenes eran mínimamente alteradas (color, velocidad, etc), el sistema no era capaz de detectarlas y, por lo tanto, no podía impedir su proliferación. De hecho, el problema se agravó porque muchas personas modificaban las imágenes para intentar esquivar el algoritmo y colar este tipo de contenido.

Al ver que la situación se descontrolada, YouTube deshabilitó temporalmente algunas funciones de búsqueda que permitían a los usuarios ordenar los vídeos por orden de subida. Así, como los vídeos más recientes incluían imágenes del tiroteo, al invalidar esta función se evitaba que las reproducciones también se disparasen.

Tras los acontecimientos, desde YouTube han llegado a la conclusión de que "se trata de una tragedia diseñada para ser viralizada en redes sociales". Sin embargo, haber llegado a esa conclusión no les sirve para sacar pecho, sino para trabajar en rediseñar un sistema que funciona a base de parches. Aunque en lo relativo a derechos de autor no se les escapa casi nada, a la hora de controlar el tipo de contenido que promueven, la realidad es muy distinta. En apenas tres meses se han visto en medio de dos polémicas: una sobre apología del suicidio y otra relativa a una red de pedofilía.

Comentarios cerrados
Inicio