Frances Haugen, la «garganta profunda» de Facebook: «Llenar oficinas y casas con sensores que no son transparentes es una pésima idea»

La Voz

ACTUALIDAD

STEPHANIE LECOCQ | efe

La extrabajadora de la compañía intervino este lunes en el Parlamento Europeo en plena negociación en Bruselas de las leyes para controlar a las grandes tecnológicas

09 nov 2021 . Actualizado a las 09:10 h.

La exempleada de Facebook Frances Haugen, que acusó a la compañía de anteponer sus beneficios a los de sus usuarios, admitió este lunes en el Parlamento Europeo, que le «preocupa mucho» el cambio de nombre de la empresa a Meta. «Revela un metaproblema, porque demuestra que quieren darle prioridad al crecimiento y al beneficio. Van a hacer videojuegos con 10.000 ingenieros más, pero no pueden tener 10.000 ingenieros para trabajar en la seguridad. Me parece indefendible», consideró durante una intervención que coincide con la negociación de las leyes en la Eurocámara para poner coto a las grandes tecnológicas en territorio comunitario.

«Me preocupa que haya más sensores en nuestras casas y oficinas para el metaverso. Los usuarios tienen mucho que exponer y Facebook ha demostrado que miente cada vez que le conviene», razonó Haugen. «Llenar oficinas y casas con sensores que no son transparentes es una pésima idea», continuó la estadounidense, que añadió que, en lo que respecta al mundo laboral, los trabajadores «no pueden controlar la tecnología que utiliza el empleador» en el lugar de trabajo. No obstante, Haugen vio elementos positivos en este universo paralelo: «Va a funcionar de forma más humana», porque lo hará «con grupos de hasta diez personas», de tal manera que «nos podemos reunir con alguien que tiene ideas extremas, pero todos le conocemos, sabemos cómo es».

Haugen explicó una vez más este lunes en Bruselas que empezó a trabajar en Facebook porque «pensaba que tenía la posibilidad de sacar lo mejor que el ser humano lleva dentro». «Ahora estoy aquí porque creo que los productos de Facebook perjudican a los niños, atizan la división y debilitan la democracia», defendió. En este sentido, sobre el funcionamiento de los algoritmos que determinan el contenido que ven los usuarios, aseguró que en Europa «hay muchos idiomas para los que el sistema de seguridad es mínimo», porque «los sistemas de supervisión que no están en inglés no funcionan bien».

«Facebook es distinta de otras empresas, es menos transparente que otras grandes plataformas», valoró Haugen, en referencia a Google y Twitter. Convencida que las leyes que se están negociando en Bruselas para controlar más a estas empresas «pueden inspirar a otros países», consideró que «la ley de servicios digitales [una normativa que obligará a las plataformas a proporcionar información a las autoridades sobre cómo funcionan los algoritmos y a someterse a auditorías independientes] puede ser un grito de alerta», comentó.

«Evidentemente, como una plataforma construida alrededor de gente compartiendo cosas sobre las que están interesadas, inevitablemente se extenderá el contenido que provoca fuertes emociones. Pero es profundamente ilógico el argumento de que para obtener beneficio promovemos de forma deliberada el contenido que enfada a la gente», respondió Monika Bickert, vicepresidenta de la Política de Contenido de Meta, en el blog de la compañía. Según Bickert, los discursos de odio representan solo el 0,05 % del contenido que ven los usuarios. Facebook, aseguró, elimina el 97 % de esa información «antes de que alguien la denuncie». La empresa, concretó, destinó este año 5.000 millones de dólares a combatir los discursos de odio, con una plantilla de 40.000 personas centradas en este objetivo.