Bajo reflectores, fallas de las redes sociales
Un video de decapitación estuvo en YouTube por horas y genera preguntas sobre por qué no se quitó antes
NUEVA YORK, NY
El video gráfico de un hombre de Pensilvania acusado de decapitar a su padre, que circuló durante horas por YouTube, ha vuelto a poner bajo los reflectores las deficiencias de las empresas de redes sociales para impedir que se difundan por la red publicaciones aterradoras.
La policía informó el miércoles que acusó a Justin Mohn, de 32 años, de asesinato en primer grado y mal manejo de un cadáver después de que decapitara a su padre, Michael, en su casa del condado de Bucks y lo publicara en un video de 14 minutos en YouTube que cualquiera podía ver en cualquier lugar.
La noticia del hecho, que ha suscitado comparaciones con los videos de decapitaciones publicados en Internet por miembros del grupo Estado Islámico en el momento de su apogeo hace casi una década, se conoció mientras los directores generales de Meta, TikTok y otras empresas de redes sociales testificaban ante legisladores federales frustrados, por lo que consideran una falta de progreso en materia de seguridad infantil en Internet. YouTube, propiedad de Google, no asistió a la audiencia a pesar de ser una de las plataformas más populares entre los adolescentes.
El inquietante video de Pensilvania surgió tras otras horribles grabaciones que han sido difundidas en las redes sociales en los últimos años, incluyendo tiroteos masivos transmitidos en vivo desde Louisville, Kentucky; Memphis, Tennessee; y Buffalo, Nueva York, así como masacres filmadas en el extranjero en Christchurch, Nueva Zelanda, y la ciudad alemana de Halle.
Más de la sección
Pete Feeney, capitán de la policía del distrito de Middletown, explicó que el video de Pensilvania se publicó alrededor de las 10 de la noche del martes y permaneció en línea unas cinco horas, un lapso que plantea dudas sobre si las plataformas de redes sociales están cumpliendo con prácticas de moderación que podrían ser más necesarias que nunca en medio de las guerras de Gaza y Ucrania, y de unas elecciones presidenciales extremadamente conflictivas en Estados Unidos.
“Es otro ejemplo del flagrante fracaso de estas empresas a la hora de protegernos”, afirmó Alix Fraser, directora del Consejo para Redes Sociales Responsables de la organización sin ánimo de lucro Issue One (Asunto Uno). “No podemos confiar en que califiquen sus propios deberes”.
Un portavoz de YouTube dijo que la compañía había retirado el video, eliminado el canal de Mohn y estaba rastreando y eliminando cualquier republicación que pudiera aparecer. La plataforma para compartir videos afirma que utiliza una combinación de inteligencia artificial y moderadores humanos para supervisar su contenido, pero no respondió a preguntas sobre cómo se detectó el video o por qué no se hizo antes.
Las principales empresas de redes sociales moderan los contenidos con la ayuda de potentes sistemas automatizados, que a menudo pueden detectar contenidos prohibidos antes que un humano. Pero esa tecnología a veces se queda corta cuando un video es violento y gráfico de una forma nueva o inusual, como en este caso, explicó Brian Fishman, cofundador de la empresa de tecnología de confianza y seguridad Cinder.
Es entonces cuando los moderadores humanos son “realmente, realmente fundamentales”, dijo. “La IA está mejorando, pero aún no ha alcanzado ese punto”.
El Foro Global de Internet contra el Terrorismo (GIFCT, por sus siglas en inglés), un grupo creado por empresas tecnológicas para impedir que este tipo de videos se difundan en la red, estuvo en comunicación con todos sus miembros sobre el incidente la noche del martes, dijo Adelina Petit-Vouriot, portavoz de la organización.
Unos 40 minutos después de la medianoche del miércoles, hora del Este de Estados Unidos, el foro emitió un Protocolo de Incidente de Contenido, con el cual alerta formalmente a sus integrantes y a otras partes, sobre un evento violento que ha sido transmitido en vivo o grabado. El GIFCT permite que la plataforma con la grabación original envíe un “hash” —una huella digital correspondiente a un video— y notifica a casi dos docenas de otras empresas asociadas para que puedan restringirlo de sus plataformas.
Pero para el miércoles por la mañana, el video ya se había extendido a X, donde un clip gráfico de Mohn sujetando la cabeza de su padre permaneció en la plataforma durante al menos siete horas y recibió 20.000 visitas. La empresa, antes conocida como Twitter, no respondió a una solicitud de comentarios.
Los expertos en radicalización afirman que las redes sociales e internet han reducido la barrera de entrada para que la gente explore grupos e ideologías extremistas, permitiendo que cualquier persona que pueda estar predispuesta a la violencia encuentre una comunidad que refuerce esas ideas.
En el video publicado tras el asesinato, Mohn describía a su padre como un empleado federal con 20 años de antigüedad, propugnaba diversas teorías conspirativas y despotricaba contra el gobierno.
La mayoría de las plataformas sociales tienen políticas para eliminar contenidos violentos y extremistas. Pero no pueden detectarlo todo, y la aparición de muchos sitios nuevos, menos moderados, ha permitido que ideas más violentas se propaguen sin control, según Michael Jensen, investigador sénior del Consorcio para el Estudio del Terrorismo y las Respuestas al Terrorismo, con sede en la Universidad de Maryland.
A pesar de los obstáculos, las empresas de redes sociales deben estar más atentas a la regulación de los contenidos violentos, afirmó Jacob Ware, investigador del Consejo de Relaciones Exteriores.
“La realidad es que las redes sociales se han convertido en la primera línea del extremismo y el terrorismo”, afirmó Ware. “Eso va a requerir esfuerzos más serios y comprometidos para contrarrestarlos”.