Mariano Sigman, doctor en neurociencia: «Que un padre le haga los deberes a su hijo está igual de mal que que se los resuelva ChatGPT»
ACTUALIDAD
El autor de El poder de las palabras, que publica Artificial con Santiago Bilinkis, dice que una red neuronal funciona de un modo parecido a cómo lo hacía Andre Agassi cuando le ganaba a Boris Becker detectando, por un tic, su saque más potente
27 oct 2023 . Actualizado a las 13:27 h.Piensa en dos grandes, como Federer y Nadal. O en dos rivales como lo fueron en los noventa Andre Agassi y Boris Becker. «El que tiene un saque potente, como Becker, lo sabe esconder. Pero Agassi se dio cuenta de que su rival movía ligeramente la lengua hacia el sitio hacia el que iba a sacar cuando aplicaba esa jugada mortal. Así fue, de hecho, cómo Agassi le dio suculentas palizas a Becker. Así funciona, más o menos, una red neuronal», explica el referente mundial en neurociencia y divulgador científico Mariano Sigman, autor de El poder de las palabras, que publica junto a Santiago Bilinkis Artificial. El genio intuitivo que es Agassi mira ahí donde no se suele mirar, «se da cuenta de que tiene que buscar en un lugar mucho más escondido, y esto es lo que hacen también las inteligencias artificiales. Las inteligencias artificiales esto pueden hacerlo extremadamente bien: estudiar agnósticamente todos los datos posibles, los que parecen más lógicos pero también los que parecen menos lógicos. Una inteligencia artificial se daría cuenta, como Agassi, de que para detectar el saque tiene que mirar la lengua, pero es algo que la mayoría de la gente no hace», cuenta Sigman.
¿Será la inteligencia artificial una lámpara de Aladino o una caja de Pandora? ¿Nos dirigimos a una destrucción masiva de puestos laborales? ¿Y si realmente creamos una superinteligencia superior a la nuestra y eso lleva a la extinción de la raza humana? ¿O siempre será definitivo el factor humano? A cuestiones como estas responde Artificial.
—¿Cómo nació «Artificial»? Esta especie de libro-Everest que os decidís a hacer juntos Santiago Bilinkis y tú.
—Yo justo había escrito El poder de las palabras, un libro sobre cómo la conversación es una extraordinaria fábrica de ideas. Cuando terminé de escribirlo pasó algo singular en la historia de la tecnología, que es que la inteligencia artificial, que andaba años rondando, dando vueltas, de repente se puso a hablar... Puedes pensar en un niño, en cuando empieza a hablar. Un día, alrededor de los diez meses o el año, esboza sus primeras palabras. Cuando eso pasa, es vital en el vínculo entre una madre, o un padre, y el hijo. Te das cuenta de que, a través del lenguaje, uno puede acceder a un cúmulo de cosas. Uno se pregunta por qué hacer inteligencia artificial hoy y no dentro de diez años. Porque justamente se ha desarrollado esta tecnología que permite hablar.
—¿Debemos hablar con la inteligencia artificial?
—Sí, y es una conversación relevante. ¿Por qué? Porque es un espacio de oportunidades. Tenemos a disposición popular una herramienta que ofrece soluciones muy singulares. Hoy, la mayoría de la gente sigue siendo «analfabeta» en ese mundo. De la misma manera que la lectura nos acerca a la cultura, la inteligencia artificial lo hace también. Pero uno elige cómo. Como con los libros, uno escoge lo que quiere leer. Si quieres ficción, política, cómic... La inteligencia artificial te puede llevar al lugar que quieras. Esta es la razón del libro, que empieza cuando me doy cuenta de que la conversación es algo que no solo pasa entre personas. Queramos o no, estamos rodeados de una inteligencia artificial, con la que vale la pena aprender a conversar porque nos plantea desafíos y oportunidades.
—En malas manos o en las de un niño puede ser peligrosa. ¿A qué edad empezar y qué precauciones tener?
—Precauciones muchas... Pero la mayoría de los adolescentes hoy ya están vinculados a la inteligencia artificial. Cuando consumen Netflix, o usan Instagram o TikTok, el algoritmo es parte de su diálogo. Ese diálogo no es con una persona, que ves al ir un día a una tienda y acercarte a los productos de electrónica. Instagram es igual pero a la velocidad de la inteligencia artificial. Es decir, encuentra rápido nuestros lugares vulnerables y se vuelve efectiva en saber cómo usurpar nuestro deseo y tiempo, lo cual tiene consecuencias. Cuando uno piensa «inteligencia artificial», no hay que pensar «ChatGPT». ChatGPT es una ventana de la inteligencia artificial, ¡y de las más inocuas! Ahí es difícil que quedes impregnado durante mucho tiempo y difícil que te haga daño. Somos más vulnerables por ventanas en las que no detectamos que al otro lado hay una inteligencia artificial.
—¿Hay una gran brecha de edad en ese conocimiento de lo digital?
—Sí. Es importante la gente mayor, para la que este es un mundo de oportunidades, muy lleno de cosas humanas. Quiero contarte un ejemplo. Hablo con mi madre y me dice que tiene que escribir un texto de cuatro páginas sobre algo que conoce mucho (es una experta en salud pública)... Le abro ChatGPT, le muestro que no es difícil. Es como abrir el mail o WhatsApp, solo que del otro lado hay una red neuronal a la que puedes hacer preguntas y con la que puedes conversar. En la mayoría de esas conversaciones te acercas a descubrir algo. Muchas conversaciones que tenemos las personas son para llenar un vacío, pero nadie habla con ChatGPT para lo obvio, sino para ver cómo te resuelve un problema. No es escribir una línea... Mi madre quería escribir un texto trabajado, de páginas, con su voz y ChatGPT le valía como alguien que la acompaña a elaborar el proceso de la escritura. Así que detallamos lo que queremos, hacemos Enter y ChatGPT empieza a escribir, y veo a mi madre con los ojos llorosos, que me dice: «¡Escribe muy rápido y muy bien!». Es sorprendente, es algo que debemos aprender a usar bien, y saber qué delegarle y qué no.
—De la mano de avances fascinantes, adviertes, llegan desafíos que pueden provocar catástrofes. ¿Conviene superar el fascinio irracional por esta inteligencia? Habrá que aplicar el filtro humano, tomar el control.
—Sin duda, pero ese escepticismo y ese filtro también debes tenerlo en el vínculo humano. Si te digo un disparate, debes pararlo. El problema es que en inteligencia artificial la gente enseguida quiere tomar postura, a favor o en contra. Y una discusión racional requiere evitar ese reflejo, y abordar el tema con curiosidad y con escepticismo.
—¿Funciona la inteligencia artificial para la selección de recursos humanos, lo hacen mejor la IA que las personas?
—La inteligencia artificial tiene muchos datos sobre la gente y esas informaciones que saca pueden ser más menos precisas, pero, indefectiblemente, están sesgadas, porque están basadas en todos los datos de contrataciones humanas. Y hay todo tipo de sesgos y prejuicios a la hora de contratar. Este tipo de inteligencia artificial no es alienígena, tiene algo de humano en lo bueno y en lo malo, en el sentido en que hereda todos los prejuicios y los sesgos de las personas.
—¿Por qué es revelador el ejemplo del juego del Go, que citas en «Artificial»?
—Porque de repente a una computadora se le ocurrió hacer una movida que todos los profesores del mundo habían dicho que era ridícula. Luego la computadora encontró que esa movida combinaba, en realidad, con otras ideas y otras astucias, y resultaba se muy sorprendente. A la inteligencia artificial se le ocurre una idea que nosotros habríamos descartado. Esto tiene cierta analogía con ese momento en que uno dice: «¿Y qué tal si pintamos esto de manera completamente distinta? ¿Y qué tal si se escribe de una manera que a nadie se le ocurrió?». La propuesta de la inteligencia artificial es algo interesante que nosotros podemos llevarnos a nuestra mochila, como una herramienta para alimentar nuestra creatividad. No es delegársela, ni estamos atrofiándonos, se trata de escuchar ideas que nos propone y ver si son interesantes. Y aquellas que parecen buenas filtrarlas y utilizarlas para nuestro repertorio.
—Hablas de un «terremoto educativo», señalando el riesgo «de perder capacidades que son esenciales» por ir a la vía más fácil. ¿Puede ser el recurso a las inteligencias artificiales un obstáculo para aprender de verdad, de forma significativa?
—Es un problema para todos los padres, yo incluido: ¿cómo hacemos para educar a nuestros hijos en un momento en el que tienen un programa que les puede resolver los deberes? Si lo piensas, la misma pregunta vale para la calculadora y el ordenador del colegio. ¿Puedo utilizarlos? Depende para qué, de qué manera, en qué momento. Te digo cuándo es un desastre: el ChatGPT es un desastre si un niño lo usa para resolver todos sus deberes. Porque entonces lo que el ChatGPT habrá creado es una atrofia cognitiva. Nosotros usamos el término sedentarismo cognitivo: si tienes cosas que te permiten moverte sin esfuerzo, te instalas en el reino de la pereza. No caminas, no te cansas, pero te arruinas el cuerpo, la salud y la vida. Y el problema de las atrofias es que te das cuenta tarde. Un ejemplo: los navegadores son útiles, pero que un niño no tenga noción de las direcciones, de orientarse en el espacio... supone estar cediendo una habilidad fundamental para todo el aparato cognitivo. Lo mismo si no usamos de manera habitual la memoria. No vale con pedirlo todo a Google. Ceder todas las habilidades a una inteligencia artificial o a un dispositivo genera atrofia y nos pone en serio riesgo. Es algo difícil de regular como niño. Como padres y docentes, hay que estar, hay que entender que debe haber una instancia por la cual el niño aprende a resolver problemas por sus propios medios, a hacer una redacción, a hilvanar una idea... y no solo a pedírsela a alguien, sea máquina o persona. Que un niño pida que le resuelva la tarea su padre estaría igual de mal que que se la resuelva ChatGPT. El problema se agrava, pero no es nuevo. Es fundamental que los niños resuelvan por sus medios un montón de problemas que les desarrollan habilidades cognitivas esenciales, como son atención y esfuerzo. Lo mejor es educar responsablemente. Un caso en el libro: una profesora que pide a sus alumnos que escriban un párrafo en inglés, una vez que lo hacen les dice que se lo den a GPT y le pidan que lo corrija. Y tercero, les dice: «Y ahora, poned un párrafo al lado del otro y veis qué cambios que ha hecho la herramienta os parecen buenos y cuáles no». Ahí entrena la capacidad crítica y escéptica. Me parece un magnífico ejemplo de cómo hacerlo.
—No siempre hay que hacerlo «mejor». Se trata de hacerlo bien, ¿no?
—Está bien lo que dices... Porque... ¿mejor para quién? ¿Cuál es el mejor texto? Quizá ese donde uno ve su propia voz. El objetivo no siempre debe ser hacer las cosas lo mejor posible, sino hacerlas con esfuerzo y ver hasta dónde has llegado.
—Ese esfuerzo que pones en lo que haces cambia el valor que le das...
—Se llama efecto Ikea, lo dijo Dan Ariely, y tiene que ver con el valor que les damos a las cosas que hacemos con esfuerzo. El anhelo humano no es buscar la perfección, es buscar el sentido. La clave es encontrar el sentido con esta nueva herramienta que tenemos. Las inteligencias artificiales no son perfectas... «La inteligencia artificial decide cuáles son las diez mejores películas de la historia». ¿Y esto qué refleja?, ¡una pésima mirada! No hay «las diez mejores películas de la historia», es una falacia. Depende para quién, qué juicio tomes... La inteligencia artificial no resuelve eso. Y uno no se vincula con lo perfecto, se vincula con lo impredecible, con lo errático.
—Un caso de actualidad, el «deep fake», los desnudos falsos de menores de Almendralejo creados con inteligencia artificial. ¿Cómo es esto de grave y cómo de nuevo?
—Es un tema muy preocupante, de enorme gravedad, que hay que abordar con sensibilidad y que requiere de manera urgente una regulación para que los que son los más vulnerables, los adolescentes, los niños y las niñas, no sufran. Por otra parte, no es completamente nuevo, si bien cambia la esencia. Hemos venido sufriendo años noticias falsas... Y eso tiene que ver con algo que va en la esencia humana, que es lo que mi amigo Pablo Maurette tituló Por qué nos creemos los cuentos. Estas cosas pasan porque tenemos una gran predisposición a creernos las historias sin preguntar. Si alguien recibe una noticia sorprendente en su WhatsApp lo que hace es compartirla. Y lo que hay que tener como hábito, y entrenarlo más que nunca, es ser escépticos y preguntar, indagar si es real. Si nosotros no tenemos esa cultura de la desconfianza, nos vamos a convertir en personas muy vulnerables. ¿Y eso cómo se hace? Como todo, hay que trabajarlo mucho en la educación. Son cosas que raramente hemos enseñado. Contaba en mi libro anterior que ojalá tuviésemos profesores que, cuando les preguntas algo, te dicen: «No lo sé». Porque cuando un profesor te dice: «No lo sé», te dice algo más importante que cuál es la capital de Italia o cuánto es 3x7, que es dudar de tu propio conocimiento, asumir que hay cosas que no sabes. Esto tiene mucho que ver con lo que debe ser tu actitud ante la inteligencia artificial. Cuando ChatGPT te dice algo, tienes que ver que puede decirte todo tipo de tonterías. Cada vez que veas algo, tendrás que pensar, de partida, que quizá no sea cierto. Hacia un futuro, ¿qué vamos a tener que hacer? Tener marcas de agua, por supuesto, tener la manera de distinguir si una imagen es real o ha sido creada por inteligencia artificial. Vamos a tener que tener maneras de etiquetar lo humano, de etiquetar lo artificial, pero, antes de que pase eso, que va a pasa, pues va a haber que regularlo, cada uno, cada padre, cada madre, debemos ejercitar a nuestros hijos y a nosotros mismos que siempre ha sido muy sano, antes la inteligencia artificial: el escepticismo. Lo primero debe ser preguntarse: «¿Será cierto».