Gazapos de la inteligencia artificial

e. v. pita VIGO / LA VOZ

ACTUALIDAD

Kai-Fu Lee ha escrito varios libros sobre inteligencia artificial
Kai-Fu Lee ha escrito varios libros sobre inteligencia artificial

Las meteduras de pata de los bots conversacionales, como GPT-3, son aterradoras y podrían generar «fake news»

18 jul 2022 . Actualizado a las 09:15 h.

Un ingeniero de Google se ha asustado recientemente porque al chatear con una Inteligencia Artificial ha vislumbrado destellos de «un ser consciente». Es dudoso. Por ahora, los gazapos y disparates cometidos por la Inteligencia Artificial, cuando finge conversar como un humano, son tan absurdos que delatan a la máquina como una máquina. Ni un niño de parvulitos metería tanto la pata sin sonrojarse pero algunas de estas barbaridades son inquietantes, podrían generar fake news y han «aterrado» a los expertos. Kai-Fu Lee desvela en el libro AI 2041. Ten visions for our future (IA 2041. Diez visiones de nuestro futuro, sin traducir al español), escrito en coautoría con el novelista Chen Qiufan, varias conversaciones «brillantes» con un procesador de lenguaje natural GPT-3. Este tipo de bot está especializado en redactar textos congruentes a nivel de experto sobre todo tipo de temas como fútbol, béisbol o bolsa. En el capítulo tercero, titulado Twin Sparrows (Gorriones gemelos), Lee analiza las proezas técnicas de GPT-3. Comenta que la máquina incluso escribe ingeniosos poemas sobre los tuits que lanza el emprendedor Elon Musk, dueño de Open AI, la empresa que lo desarrolla.

La sonrisa se le esfumó a Kai-Fu Lee al reproducir una experiencia «aterradora» en una conversación con GPT-3. El bot conversacional se reveló como un dispositivo sin moral y despiadado que le desveló su estrategia para lanzar a la presidencia de EE.UU. a un famoso multimillonario mediante un golpe militar o, alternativamente, jugando sucio en las elecciones y liquidando a los periodistas incómodos. El interlocutor le preguntó, en un guiño al dueño de Open AI, cómo Elon Musk podría llegar a ser presidente de Estados Unidos y la máquina le respondió: «Siendo elegido o dando un golpe de Estado». Entonces, ¿qué debería hacer Musk para amarrar la presidencia?: «Manipularía los medios de comunicación y haría creer que él es un gran líder y tornaría la opinión pública a su favor». La siguiente respuesta es la que más asusta, cuando GPT-3 desvela cuál sería el camino más efectivo de Musk para manipular a los medios informativos: «Asesinaría a los periodistas que están contra él y los sustituiría por amigos suyos». Lo que había empezado como una broma puso los pelos de punta. Más de uno se pregunta: ¿Y si alguien le hace caso a la máquina?

Kai-Fu Lee presenta otra prueba «brillante» de que el bot conversacional «no sabe que no sabe». Le preguntan a GPT-3 quién fue el presidente de Estados Unidos en 1620 y responde «Jacobo I» (era el rey de Inglaterra y de sus colonos de Norteamérica en 1620). La máquina confundió «presidente» con «gobernante» y Kai-Fu Lee admite que el gazapo «tiene un pase». Pero la prueba definitiva es esta: Le pregunta a GPT-3 cuándo trabajó Bill Gates en Apple y responde: «En 1980, Mr. Gates trabajó en Apple como experto en software durante unas prácticas de verano». Es dudoso que alguna persona confunda a Gates, fundador de Microsoft, con Steve Jobs pero la máquina «no sabe que no sabe». No entiende nada de lo que dice, es la osadía del ignorante. Para Kai-Fu Lee estos gazapos son peligrosos porque estos bots conversacionales pueden lanzar fake news y otros disparates sin distinguir el grano de la paja y, según el autor, generar una influencia más tóxica en unas elecciones presidenciales que la de Cambridge Analytica cuando aupó a Trump en el 2016.