¿Por qué las redes sociales no frenaron la difusión del vídeo de los menores perreando en una discoteca de Barcelona?

La Voz REDACCIÓN

ACTUALIDAD

iStock

Ya el mes pasado circularon por plataformas imágenes de sexo explícito entre dos adolescentes en un local catalán. Los expertos alertan de la flexibilización en la moderación de contenidos

18 ene 2023 . Actualizado a las 19:34 h.

¿Cómo llegaron a difundirse las imágenes de la discoteca Waka de Sant Quirze del Vallès (Barcelona), en las que se apreciaba claramente a dos menores de edad practicando sexo oral? ¿Por qué sigue circulando el vídeo en el que se ve a chicos de entre 14 y 17 años perreando en actitud más pornográfica que lúdica —las chicas, inclinadas sobre un escenario y los chicos, desde atrás, empujando sus caderas y simulando frotarse con ellas— en una sesión de tarde en un local catalán? Atendiendo a sus propias reglas, las redes sociales deberían haber controlado su propagación, confirman tanto moderadores de TikTok como el experto de la Universitat Oberta de Catalunya (UOC) Ferran Lalueza.

En ambos casos, por mostrar sexo explícito o por contener una actitud claramente sexual, y también por tratarse de menores, de ninguna manera deberían haberse podido distribuir en plataformas, si bien los propios sistemas de moderación recogen que hay imágenes que pueden estar «ahí fuera» y ser «capturadas» por algún usuario antes de que el regulador lo elimine.

El algoritmo no es infalible

Si bien el propio algoritmo de una red social como TikTok puede identificar elementos prohibidos de forma automática y bloquearlos, la mayoría de vulneraciones de las normas las identifican personas que «moderan» el contenido y lo eliminan, dejando registro de las normas contravenidas y alertando a las autoridades. «Una de las mayores dificultades prácticas es saber si quien aparece en una imagen es menor o no —explica a Efe uno de los moderadores de la compañía—. A no ser que lo diga claramente, es muy ambiguo».

En el caso de la discoteca Pampara, las imágenes de los chicos «perreando» fueron publicadas y a continuación eliminadas por la propia cuenta del local. Sin embargo, hasta que se borraron dio tiempo a que el vídeo fuera reproducido más de un millón y medio de veces, y eso que cuando el algoritmo detecta que puede haber contenido sexual prioriza su moderación como urgente en el chat que comparten los moderadores para actuar rápidamente ante este tipo de contenidos. Funciona igual con los que incluyen mensajes de odio.

Es ciego

El profesor Ferran Lalueza comenta que lamentablemente las redes sociales funcionan como espirales de transmisión potencial, «tanto para lo positivo como para difundir vídeos cuya distribución puede ser en sí misma delictiva, como el vídeo de Waka». «Cuando el algoritmo detecta que algo en sus primeros segundos tiene mucha actividad y visualizaciones se encarga de mostrarlo a un número cada vez mayor de personas, fomentando su propia viralización», explica. «Aunque me gustaría pensar que el grado de madurez digital es elevado y los usuarios van a frenar la propagación de este tipo de contenido y denunciarlo, desgraciadamente la evidencia demuestra que no es así», añade.

El experto apunta que la viralización de este tipo de contenido no le «sorprende», pues la moderación de contenidos «se ha flexibilizado mucho» y «se han reducido los recursos de control más artesanal, o humano, en favor de los automatizados». Además, llama la atención sobre el hecho de que algunas redes sociales como Twitter —que tuvo un papel relevante en la propagación del delictivo vídeo de Waka— han reducido el número de personas que filtran sus vídeos como consecuencia de los recortes de plantilla tras la entrada de la nueva directiva liderada por Elon Musk.

«Aunque redes como TikTok intentan mejorar, la realidad es que sus sistemas de inteligencia artificial no son infalibles y pueden ser burlados con más o menos facilidad y para cuando los controladores humanos detectan el vídeo ya es demasiado tarde», reflexiona. También es mejorable, señala, el sistema de estas redes para evitar que los menores de 14 años se abran una cuenta o que los adolescentes que lo hacen no reciban contenido etiquetado como para mayores de edad por el algoritmo.

Con todo, en su esfuerzo de control, la red social china informó en su último informe de transparencia sobre los datos del 2021 que había cerrado 7,3 millones de cuentas sospechosas de pertenecer a menores de edad. Otras redes que han despertado la «preocupación» de la Fiscalía de Barcelona por el aumento de contenido de menores sin consentimiento son Only Fans, Admire Me o My fan page, que permiten que los menores cuelguen fotos en abierto que los delincuentes usan sin permiso para lucrarse de ellas —las suben por su cuenta para que los usuarios paguen por ese contenido—. El pasado septiembre, la Fiscalía señaló que por esta «novedad» de tipología delictiva habían recibido en los últimos seis meses medio centenar de denuncias.