¿Es inteligente una máquina que no puede explicarse?

Vicente Moret Bonillo

OPINIÓN

MABEL R. G.

13 abr 2026 . Actualizado a las 11:42 h.

Vivimos instalados en la fascinación por la inteligencia artificial. Lo que hasta hace poco era terreno exclusivo de la ciencia ficción y la academia, hoy desborda las conversaciones cotidianas. Sin embargo, tras el ruido mediático de lo que ya es una moda global, se oculta una realidad técnica mucho más matizada y, en cierto modo, más preocupante de lo que el gran público percibe.

Me explico… La IA que hoy nos deslumbra es, fundamentalmente, la IA conexionista. Su gran triunfo reside en su capacidad para procesar ingentes cantidades de datos y reconocer patrones con una eficacia que parece mágica. Es el «músculo» de la computación moderna. Sin embargo, su éxito lleva aparejado un riesgo sistémico: la falta de explicabilidad. Operamos con programas que ofrecen resultados asombrosos, pero que funcionan como cajas negras. Ni siquiera sus diseñadores pueden trazar con precisión el camino lógico que lleva a una conclusión determinada. En ámbitos críticos, aceptar una respuesta sin comprender el porqué es un acto de fe que la ciencia no debería permitirse.

Frente a esta hegemonía del dato, la IA simbólica, basada en la lógica y en reglas explícitas, es transparente: cada decisión es auditable y razonada. Sin embargo, su principal inconveniente es el tiempo de desarrollo. Se requiere un esfuerzo de modelización humana que no encaja con la urgencia del mercado actual. Pero es precisamente esa estructura lógica la que nos garantiza el control. Ignorar la vía simbólica en favor de la pura estadística conexionista es renunciar a la comprensión en favor de la mera predicción.

Y resulta que ahora, para liar más las cosas, aparece la computación neuromórfica, un cambio de paradigma que busca imitar la arquitectura y la eficiencia energética del cerebro biológico. Frente al consumo desmedido de los grandes centros de datos, lo neuromórfico propone una integración entre hardware y software que prioriza la sostenibilidad. Es, quizás, la vía más prometedora para una IA que no solo sea potente, sino también viable a largo plazo. Pero no podemos quedarnos de brazos cruzados y ver qué acaba pasando.

Este complejo escenario nos obliga a una reflexión ética profunda. Las consideraciones éticas no pueden ser un barniz posterior, sino un requisito de diseño. En el conexionismo, el peligro es el sesgo invisible; en lo simbólico, la rigidez del programador; y en lo neuromórfico, la propia ambición de replicar la biología. En mi humilde opinión, la IA debe entenderse como un todo hibridado. Solo si somos capaces de combinar la potencia del aprendizaje automático con el rigor de la lógica explicable y la eficiencia del diseño neuromórfico, conseguiremos una tecnología que sea verdaderamente útil. De lo contrario, seguiremos construyendo herramientas cada vez más rápidas para tomar decisiones que cada vez comprenderemos menos.

Vicente Moret Bonillo. Catedrático de la Computación e IA. Profesor emérito de la Universidade da Coruña