Este del Edén

Miguel-Anxo Murado
Miguel-Anxo Murado VUELTA DE HOJA

OPINIÓN

25 jun 2017 . Actualizado a las 10:30 h.

En el mundo hay de todo, y en ese todo se incluyen instituciones que se dedican a pensar en cómo enseñar ética a los robots. Llevan nombres que suenan un poco a Un mundo feliz: el Instituto de la Vida Futura, el Grupo de Robótica Responsable, la Iniciativa para los Sistemas Autónomos Éticos... Una de estas escuelas para robots se encuentra en la dorada Praga; lo que resulta muy oportuno porque es la ciudad de la leyenda del Golem, la criatura de barro a la que un rabino infundió vida. Y luego se le escapó de las manos, con consecuencias trágicas, como sucede siempre en estas historias. Como en El aprendiz de brujo de Goethe, en el Frankenstein de Mary Shelley, en 2001 Una odisea en el espacio y en tantas otras variaciones a partir del mismo tema. El asunto de la creación de vida inteligente que sale mal es un clásico que se remonta por lo menos hasta el Génesis y la historia de Adán y Eva, donde el mal se expresa poéticamente con la ingesta de fruta.

La historia de la educación de los robots está, efectivamente, jalonada de fracasos. Alguno pensará que en eso no es muy distinta de la historia de la educación ética de los humanos. De hecho, y esto es lo curioso, los métodos que se han ido proponiendo y desechando para el aprendizaje de los robots repiten, prácticamente en el mismo orden, las ideas y errores de la pedagogía humana.

Hasta hace poco, por ejemplo, se pensaba que lo mejor era preprogramar a las máquinas con una lista de normas rígidas. Algo así como los diez mandamientos. Pero lo que pasaba era que los robots aplicaban esas normas demasiado estrictamente, lo que resultaba en una especie de fundamentalismo que los hacía inútiles o peligrosos. Se escribieron entonces programas más complejos, con algoritmos que valorasen todos los matices y las consecuencias morales de una decisión. El resultado era que los robots quedaban paralizados por la duda y el relativismo.

En Praga han intentado últimamente otra cosa: ir exponiéndolos a dilemas éticos bajo la supervisión de un programador que los orienta, y que ese aprendizaje se vaya actualizando con el tiempo, para que el robot no se quede anclado en una moral del pasado. Pero el proceso es casi tan lento como educar a un niño y tiene el mismo inconveniente: que para que aprenda es necesario dejarle cometer errores, lo que con algún tipo de robots puede ser un riesgo demasiado grande.

En el mundo de la pedagogía de los robots hay incluso, como no podía ser de otra manera, quien cree que la educación misma es el problema. En el Georgia Institute of Technology, en Atlanta, un profesor se dedica a leerles miles de historias para que los robots vayan escogiendo sus propias enseñanzas. Es una investigación que está financiada, quizás significativamente, por Disney, el emporio del entretenimiento infantil. Pero en la misma universidad, unos despachos más allá, otro profesor trabaja en otro proyecto, en este caso financiado por el Ejército de Estados Unidos, que le ha pedido que desarrolle una ética de combate para los robots militares. Después de muchos intentos, este profesor cree haber encontrado la solución. En vez de programar ideas ha decidido programar sentimientos. Un sofisticado software hace creer al robot que es libre de tomar sus propias decisiones, le enseña a evaluar y reconocer sus errores y, finalmente, le hace temer que esos errores le privarán de algo importante.

Así, como el Dios del jardín del Edén, los científicos se han encontrado con una conclusión deprimente: que el miedo y la culpa siguen siendo los verdaderos motores del aprendizaje.

Ed