Sigue siendo una cadena

Luis Ordóñez
Luis Ordóñez NO PARA CUALQUIERA

OPINIÓN

12 sep 2016 . Actualizado a las 19:43 h.

Facebook vetó primero la foto de Kim Phuc, desnuda, arrasada por el napalm de Vietnam, desamparada huyendo del horror de la guerra, y luego rectificó y admitió que se publicara la fotografía. Lo hizo después de que la queja del periódico noruego Aftenposten se hiciera viral y todo el mundo tuviera conocimiento de la arbitrariedad de la política de edición del gigante tecnológico. En su rectificación, Facebook da vía libre a la fotografía de la niña del napalm sólo porque reconoce «su estatus como una imagen icónica de importancia histórica» pero asegura que seguirá censurando desnudos (genitales, nalgas y pechos, sólo los femeninos) por «el valor de proteger a la comunidad».

Venimos de unas semanas en las que hemos debatido sobre la intención profunda de una prenda como el burkini en las playas, sobre lo que representa la idea de que el desnudo humano es inmoral y pecaminoso. Hemos tenido que escuchar todo tipo de argumentos rebuscados para justificar lo que no era más que un dogma religioso. Apenas se ha planteado el debate sobre lo que puede representar para todos el que una compañía privada decida por nosotros lo que debe verse o no. Y no, antes de que empecemos a oírlo, no, el hecho de aceptar unas condiciones de usuario con una corporación no puede sobreponerse a los derechos de libertad de expresión. No se puede ceder ni un milímetro en esta discusión.

Pero hay algo más horrible en este caso. Facebook despidió recientemente a su equipo humano de editores para sustituirlos por un algoritmo que, se supone, podría dictaminar sin prejuicios sobre las publicaciones en los muros de los usuarios. Sólo dos días después de que los robots tomaran el mando las noticias falsas comenzaron a predominar en las tendencias porque la inteligencia artificial no podía distinguirlas de las veraces.  ¿Es que no son acaso las máquinas más asépticas, libres de condicionamientos preconcebidos? También esta misma semana supimos del peculiar caso de Beauty.IA, el primer concurso de belleza, con la participación de Microsoft, en el que el jurado sería un robot al que se había programado para valorar la simetría facial y otros elementos objetivos para seleccionar los rostros más hermosos. Lo que ocurrió es que en la selección final de 44 candidatos la práctica totalidad eran blancos, sólo un pequeñísimo grupo de caras asiáticas habían pasado el tamiz robótico y un solo rostro negro se encontraba entre los finalistas. ¿Son los robots racistas? No, de momento al menos, lo que pasó es que en la programación de la máquina pesó de forma desproporcionada la introducción de imágenes de blancos sobre las que esta inteligencia artificial debía construir sus criterios de selección. Esto, por no hablar de que es absurdo tratar de concebir una idea de belleza global ajena a la cultura y a la historia.

En el caso de Facebook, en el de el Beauty.IA de Microsoft, en la misma resolución de la crisis económica en Europa, se trata de imponer la idea de que existe una solución «técnica» al margen de cualquier ideología, sin contaminación «política». Pero no existe, precisamente la ideología más perniciosa de todas es la que trata de disfrazarse de «técnica» o de «sentido común», es siempre totalitaria y trata de esclavizarnos aunque sea con una sonrisa. Existen las opciones, mejores y peores, cada una tiene sus «efectos secundarios» o sus «daños colaterales», por usar circunloquios de baratillo. Pero los ciudadanos adultos deben poder discernir los pros y los contras de cada elección, sabiendo lo que se pierde para poder ganar algo. Los técnicos deben poder asesorar a los políticos pero son ellos, porque han sido elegidos por las urnas, los que deben decidir entre las distintas opciones que les presentan en función, precisamente, de una ideología. Esto no tiene nada de malo, al contrario, es el menos malo de los sistemas. Una cadena de diseño, con eslabones inalámbricos, sigue siendo una cadena.