¿Cómo el cerebro fabrica una sonrisa? Descubren la red neuronal oculta tras nuestras expresiones

Raúl Romar García
r. romar REDACCIÓN / LA VOZ

ACTUALIDAD

El estudio demuestra cómo los circuitos neuronales del cerebro y los músculos faciales trabajan conjuntamente para responder físicamente a las señales sociales.
El estudio demuestra cómo los circuitos neuronales del cerebro y los músculos faciales trabajan conjuntamente para responder físicamente a las señales sociales. istock

Investigadores de la Universidad Rockefeller mapean por primera vez el complejo circuito que controla los gestos de la cara, lo que también tiene implicaciones clínicas

09 ene 2026 . Actualizado a las 13:56 h.

Cuando un bebé te sonríe es casi imposible no devolverle la sonrisa. O cuando alguien querido se muere es difícil no soltar una lágrima, al igual que cuando presenciamos una injusticia resulta complicado no conmovernos o inviable no fruncir el ceño ante una amenaza. Son reacciones espontáneas que de forma instantánea tienen su reflejo en nuestras expresiones facilaes. Y esta visibilidad emocional es lo que nos permite comprender las emociones y los estados mentales de otras personas. Los rostros son tan importants para la comunicación social que hemos desarrollado neuronas especializadas para reconocerlos.

Es lo que descubrió el científico Winrich Freinwald, de la Universidad Rockefeller de Estados, en uno de sus revolucionarios hallazgos realizados en la última década que han impulsado la neurociencia de la percepción facial. Ahora, él y su equipo del Laboratorio de Sistemas Neuronales, junto a la Universidad Hebrea, han descubierto una red motora facial que desafía las suposiciones tradicionales de la neurociencia. Hasta el momento se creía que las expresiones emocionales espontáneas y las acciones voluntarias, como comer o hablar, se originaban en áreas cerebrales totalmente separadas. Sin embargo, este nuevo estudio sistemático publicado en Science revela que todas las regiones corticales implicadas participan en ambos tipos de gestos, aunque lo hacen operando en escalas de tiempo drásticamente distintas.

En este primer trabajo sobre los mecanismos neuronales que controlan los movimientos faciales, los investigadores descubrieron que tanto regiones cerebrales de bajo nivel como de alto nivel participan en la codificación de distintos tipos de gestos faciales, en contra de las suposiciones clásicas.

Durante años se pensó que estas funciones estaban separadas: las expresiones emocionales, como devolver una sonrisa, se atribuían al lóbulo frontal medial, mientras que las acciones voluntarias, como comer o hablar, se vinculaban al lóbulo frontal lateral.

«Teníamos una buena comprensión de cómo se perciben los gestos faciales, pero ahora entendemos mucho mejor cómo se generan», explica Freiwald, cuyo trabajo cuenta con el apoyo del Price Family Center for the Social Brain de Rockefeller.

A través de técnicas innovadoras de resonancia magnética funcional (fMRI) en macacos, los investigadores localizaron tres áreas clave en la corteza frontal y parietal que tienen acceso directo a los músculos faciales, una característica evolutiva única de los primates. El hallazgo fundamental es que, mientras las regiones laterales —como la corteza motora primaria— gestionan dinámicas rápidas que cambian en milisegundos para acciones precisas, las regiones mediales —como la corteza cingulada— albergan dinámicas lentas y estables que sustentan las expresiones emocionales.

Esta red funciona de manera dinámica y flexible, interconectándose para ajustar la coordinación facial según el contexto, lo que explica por qué ciertas lesiones cerebrales pueden impedirnos sonreír de forma natural pero no nos privan de mover los mismos músculos para masticar.

Aplicaciones clínicas inmediatas

Este avance no solo profundiza en nuestra comprensión de cómo surgen las emociones, situándolas en el nexo entre la percepción y la respuesta motora, sino que tiene aplicaciones clínicas inmediatas. La decodificación de esta red es clave para mejorar las interfaces cerebro-máquina, permitiendo que futuros dispositivos traduzcan señales neuronales en expresiones faciales realistas para pacientes con parálisis o lesiones cerebrales.

«Al igual que con nuestro enfoque, estos dispositivos también implican la implantación de electrodos para decodificar señales cerebrales y luego traducen esa información en acciones, como mover una extremidad o un brazo robótico», afirma Freiwald. «La comunicación ha demostrado ser mucho más difícil de decodificar. Y debido a la importancia de la expresión facial para la comunicación, será muy útil contar con dispositivos que puedan decodificar y traducir este tipo de señales faciales».

Geena Ianni, coautora del estudio, añade: «Espero que nuestro trabajo impulse, aunque sea un poquito, el campo de los diseños de comunicación artificial más naturalistas y ricos que mejoren la vida de los pacientes después de una lesión cerebral».

A juicio de Ianni, este trabajo abre la puerta a una comunicación artificial mucho más rica y naturalista, capaz de devolver a las personas una de las herramientas más profundas de la conexión humana: la capacidad de expresar lo que sienten a través de su rostro.