Adrián Nicieza, experto en IA: «No se puede confiar al 100% en lo que dice la inteligencia artificial»
ASTURIAS
El divulgador tecnológico analiza el papel de la inteligencia artificial en la sociedad actual, comparte claves para sacar partido a esta herramienta y señala las pautas para hacer un uso adecuado
09 abr 2026 . Actualizado a las 05:00 h.La inteligencia artificial es un conjunto de tecnologías que permite a los ordenadores y a las máquinas realizar tareas que solamente el cerebro humano sabe hacer, como razonar o resolver problemas. Aunque su auge es reciente, no se trata de una herramienta nueva, aunque sí es cierto que su uso está cada vez más extendido. En este contexto, el asturiano Adrián Nicieza, experto en IA y conocido en redes sociales, donde acumula más de 600.000 seguidores, como @edrien.exe, reflexiona sobre la creciente presencia de esta disciplina en el día a día. Además, ofrece consejos prácticos para aprovechar sus ventajas y advierte sobre los riesgos y precauciones que conviene tener en cuenta para evitar posibles fraudes.
—¿En qué aspectos de nuestra vida cotidiana ya estamos utilizando inteligencia artificial sin darnos cuenta?
—En prácticamente todo. Ahora llamamos inteligencia artificial a ChatGPT pero la inteligencia artificial es la simulación de muchos de los procesos que conforma la inteligencia humana. En esencia, trata de reproducir procesos lógicos. Por ejemplo, cuando abres Netflix y eliges una serie, hay un sistema que decide qué contenidos mostrarte en función de lo que cree que te va a interesar. Eso pertenece a una de las ramas de la inteligencia artificial: la predicción de datos. Lo mismo ocurre con YouTube o Spotify. Cualquier servicio que funcione con este tipo de sistemas ya está aplicando inteligencia artificial. Aquí en Asturias, en el servicio de salud, se utilizan procesos de inteligencia artificial para analizar tomografías y también imágenes de la retina. Estos sistemas pueden procesar hasta 300 pruebas más al día que un profesional, lo que permite filtrar y cribar los casos. En medicina, además, se están produciendo avances muy importantes, especialmente en la detección temprana del cáncer de mama. Los modelos de inteligencia artificial destacan en el reconocimiento de patrones, por lo que pueden identificar células con riesgo de volverse cancerosas incluso meses antes de que un médico pueda detectarlo en una prueba. Hay otro proyecto en la región muy interesante en el que se utiliza la inteligencia artificial para controlar las cosechas de manzana, detectar enfermedades en las plantas y optimizar los cultivos. Se emplean modelos predictivos combinados con datos satelitales e imágenes de drones para, por ejemplo, identificar déficits de nutrientes en el suelo y aplicar fertilizantes exactamente donde son necesarios. En definitiva, la inteligencia artificial está presente en todos los ámbitos.
«Las herramientas de Inteligencia Artificial cambian prácticamente cada semana»
—¿Cuáles son las mejores herramientas de inteligencia artificial?
—Esta pregunta tiene trampa, porque no se trata de cuáles son las mejores herramientas, sino de cuáles son las mejores para cada tarea. Ahí es donde hay que diferenciar bien qué hace cada una y en qué falla. Muchas personas utilizan modelos de lenguaje como ChatGPT o Gemini y piensan que la inteligencia artificial se reduce a eso, cuando no es así. Por ejemplo, si una persona tiene un pequeño negocio local y necesita un asistente que atienda llamadas y gestione citas, lo más adecuado es crear flujos de trabajo. Se puede utilizar un modelo de lenguaje para procesar el texto y herramientas como n8n para automatizar tareas. Actualmente, por ejemplo, Gemini destaca en capacidades visuales, es decir, en el análisis de imágenes o uso de cámara. Para generación de imágenes, NanoBanana funciona muy bien. En cuanto a la gestión de grandes volúmenes de texto, Claude es uno de los más potentes en este momento, especialmente por su capacidad para manejar contextos extensos. En definitiva, todo depende de la tarea que quieras realizar. Aun así, para tener una referencia general, existe una web llamada LLM Arena donde se comparan modelos en tiempo real. Esto es importante porque evolucionan constantemente. No cambian cada mes, sino prácticamente cada semana, e incluso en cuestión de días puede haber avances significativos.
—¿Cómo puede la inteligencia artificial mejorar el día a día de una persona?
—Modelos como ChatGPT o Gemini son muy útiles para buscar y rescatar información pero los resultados muchas veces no son satisfactorios y aparecen errores o «alucinaciones», en gran parte, por un uso incorrecto. Por eso, es importante pedirles que contrasten la información. Hay que tener además en cuenta que estos modelos funcionan en base a probabilidades estadísticas derivadas de su entrenamiento. Por eso, si entiendes cómo funcionan internamente, puedes anticiparte a sus respuestas y sacarles mucho más partido. No obstante, todo depende de la tarea que se quiera hacer. Para alguien que tenga un proyecto, por ejemplo, escribir un libro, la inteligencia artificial puede ser muy útil para estructurar ideas, revisar redacción o comprobar si las fuentes son correctas. Existen herramientas como NotebookLM, que permiten además cargar documentación extensa y, por ejemplo, generar un podcast simulado en el que dos voces conversan sobre ese contenido sin salirse del contexto proporcionado. Se puede también utilizar la inteligencia artificial para cosas sencillas. Tú puedes hacer una foto a tu nevera y mandársela a ChatGPT o Gemini para que te sugiera recetas con los ingredientes que tienes en ella. También se han visto casos curiosos, como el de una persona que perdió un anillo en una zona con grava y, tras enviar una imagen, el modelo fue capaz de señalar dónde estaba exactamente. En definitiva, cuanto antes se empiece a experimentar con estas herramientas, antes se descubre su verdadero potencial. No es que vayan a solucionarte la vida por completo, pero sí pueden ayudarte a encontrar soluciones o enfoques que quizá no habías considerado.
—Se debate mucho si la inteligencia artificial puede sustituir al trabajo humano. ¿Cree que habrá puestos que llegarán a desaparecer?
—Anthropic ha publicado un gráfico basado en un estudio universitario que analiza el impacto actual de la inteligencia artificial en distintos sectores. Este estudio muestra hasta qué punto los modelos de lenguaje pueden realizar tareas en diversas áreas profesionales. Según ese análisis, en campos como la computación y las matemáticas, la inteligencia artificial podría asumir teóricamente hasta un 95% del trabajo. En arquitectura e ingeniería, el porcentaje ronda el 80%; en el ámbito legal, cerca del 75%; y en educación o en artes y medios, los modelos también alcanzan niveles muy elevados, próximos al 90%. En tareas de oficina y administrativas, el impacto es especialmente significativo, hasta el punto de considerarse empleos en riesgo directo. Ahora bien, hay que matizar estos datos. El propio estudio se centra únicamente en modelos de lenguaje, lo que limita su alcance. Por ejemplo, en sectores como el transporte o la producción, el gráfico sugiere que no existe un riesgo inmediato. Sin embargo, esta conclusión puede ser discutible. Un ejemplo claro sería el desarrollo de camiones autónomos capaces de transportar mercancías sin conductor. En ese contexto, el sector del transporte sí podría verse afectado.
«Se puede también utilizar la IA para cosas sencillas como que te diga qué recetas hacer con los ingredientes que tienes en la nevera»
—Va a haber, por tanto, trabajos que desaparecerán...
—Sí, sí, de eso no cabe duda. Cada vez que hay una revolución de este estilo, un avance tecnológico potente, hay trabajos que quizás no desaparecerán como tal sino que serán sustituidos. Es decir, el trabajo no va a desaparecer, se va a seguir haciendo, pero no van a ser personas las que lo hagan.
—Como pasó con las máquinas en su momento…
— Exacto, es lo mismo. Al final, quienes pueden verse más afectados son las personas a las que este cambio les pille en una franja intermedia, aproximadamente entre los 40 y los 60 años, porque suelen tener menos capacidad para adaptarse. Para las nuevas generaciones, más que un problema, es una oportunidad. Aunque algunos trabajos desaparezcan, surgirán otros nuevos más orientados al ámbito técnico: a desarrollar máquinas, a comprender como funcionan, etc. Un ejemplo claro es la evolución del trabajo en la mina. Hay países que siguen picando con pico y pala dentro de las minas, porque no han adaptado la tecnología, y hay minas en las que los mineros están dentro de una cabina, protegidos, operando maquinaria avanzada. El trabajo no ha desaparecido, pero sí ha cambiado: es más seguro, más técnico y requiere menos esfuerzo físico. Eso sí, también implica que se necesite menos mano de obra. La demanda ya no se centra en la fuerza bruta, sino en perfiles más cualificados.
—¿Qué le diría a aquellos trabajadores que son reticentes a utilizar la inteligencia artificial en sus puestos?
—No me considero nadie para decirle a otros cómo deben tomarse esta tecnología, pero sí hay una recomendación clara: usarla y aprender cuanto antes, especialmente en el caso de los jóvenes. Para las personas de mayor edad, es importante mantener cierta confianza. En un escenario de pérdida masiva de empleo, es probable que existan mecanismos de protección para los trabajadores, al menos en contextos como el español. Sin embargo, ya estamos viendo grandes empresas como Amazon, que ha llevado a cabo miles de despidos por la implementación de inteligencia artificial. Esto se debe a que los modelos trabajan muy bien en tareas mecánicas o repetitivas, es decir, aquellas que requieren menor creatividad. En ese tipo de trabajos, las empresas pueden reducir plantilla y mantener solo a un pequeño grupo de personas con perfiles más creativos o estratégicos, encargadas de supervisar o desarrollar el resto del trabajo. Por eso, el impacto dependerá mucho del tipo de empleo.
«Aunque algunos trabajos desaparezcan por la Inteligencia Artificial, surgirán otros nuevos»
—¿Cuáles son los principales riesgos asociados al uso de la inteligencia artificial?
—Para el público general, los principales riesgos de la inteligencia artificial son escalables. El primero es el engaño. No se puede confiar al 100% en lo que dice la inteligencia artificial, ya que se trata de modelos que pueden «alucinar», aunque cada vez lo hacen menos. Esto puede dar lugar a información falsa presentada de forma muy verosímil. Además, como estos sistemas son muy buenos detectando patrones, pueden ofrecer respuestas que encajan con lo esperado, pero que no necesariamente son correctas o reales. También existe el riesgo de sesgo. Una mala formulación del prompt puede condicionar la respuesta del modelo hacia una dirección concreta, lo que distorsiona los resultados. A partir de ahí, los riesgos se amplían hacia cuestiones más complejas, como la vulneración de derechos relacionados con los datos personales, la protección de la privacidad y el uso indebido de la información. En definitiva, el alcance de los riesgos de la inteligencia artificial depende en gran medida de cómo la utilicen los seres humanos y del contexto en el que se aplique. Estas herramientas pueden llegar a generar lo que se conoce como el efecto ELIZA y es que los usuarios pueden acabar atribuyendo personalidad al modelo o desarrollando cierto vínculo emocional con él, ya que tiende a responder de forma muy empática y coherente con lo que la persona expresa. Esto es un problema, especialmente cuando el modelo genera respuestas incorrectas, porque luego nos encontramos con que ha habido suicidios por culpa de conversaciones con ChatGPT. Por eso, es importante utilizar estas herramientas con cautela, sobre todo si hay personas con tendencias psicólogicas débiles.
—¿Qué precauciones se deberían tomar para evitar ser víctimas de ciberdelincuencia, teniendo en cuenta que estas aplicaciones te imitan hasta la voz?
—Lo bueno que tenemos es que seguimos siendo humanos. Eso hace que podamos adoptar medidas que, a primera vista, pueden parecer extrañas, pero que con el tiempo probablemente serán normales. Por ejemplo, una práctica cada vez más extendida es establecer una palabra clave dentro de la familia para verificar la identidad en caso de llamadas dudosa. Se pueden hacer también técnicas de verificación en videollamadas. Si tu jefe, por ejemplo, te pide que hagas una transferencia de X dinero, puedes decirle que ponga la mano delante de la cara y así sabes realmente si es él o no. De todas formas, estos mecanismos no son habituales porque resulta extraño pedir verificación de identidad a un superior o a un familiar. No obstante, es probable que, con el tiempo, estas prácticas se normalicen como una forma de protección ante el aumento de fraudes y suplantaciones.
«Cuanto antes se empiece a experimentar con herramientas de IA, antes se descubre su verdadero potencial»
—Hay quienes utilizan las herramientas de inteligencia artificial para generar bulos, imágenes falsas.... ¿Cómo podemos detectar contenido creado con inteligencia artificial?
—A la gente le cuesta cada vez más diferenciar, sobre todo, si se trata de influencers falsas que no paran de proliferar en redes sociales. En muchos casos no buscan necesariamente estafar, sino generar contenido llamativo con el objetivo de dirigir tráfico hacia plataformas de monetización como OnlyFans. Quien interactúa con ese contenido suele hacerlo sabiendo que está pagando, aunque a veces no sea consciente de que la persona no es real. Para detectar este tipo de contenidos generados con inteligencia artificial, pueden observarse ciertas inconsistencias entre vídeos. Por ejemplo, cambios sutiles en rasgos físicos como el rostro, lunares o proporciones corporales, entre distintas publicaciones. También pueden aparecer incoherencias en los fondos o escenarios, que cambian de forma poco natural. Sin embargo, estas señales son cada vez más difíciles de percibir. Por otro lado, las empresas que desarrollan modelos de generación de contenido multimedia están empezando a implementar medidas de transparencia. Por ejemplo, Google ha integrado sistemas que permiten analizar si un vídeo ha sido generado con sus propias herramientas, como Veo. Estos sistemas pueden identificar contenido creado dentro de su ecosistema, aunque no siempre detectan material generado con otros modelos como Kling, Hailuo o Runway.
—¿Cómo podemos garantizar un uso responsable de la inteligencia artificial?
—Lo lógico sería que existiera una legislación clara sobre inteligencia artificial. El problema es que no todos los países legislan al mismo ritmo ni con el mismo enfoque. Europa, por ejemplo, suele ser más restrictiva en estos temas, mientras que potencias como Estados Unidos o China adoptan estrategias más flexibles o menos limitantes en algunos ámbitos. Esto puede generar una desventaja competitiva, ya que el desarrollo sin tantas restricciones permite avanzar más rápido. Legislar en este campo es especialmente complejo porque la tecnología evoluciona a una velocidad muy superior a la de los procesos burocráticos. Aun así, en Europa se ha desarrollado un marco normativo específico, como la Ley de Inteligencia Artificial de la Unión Europea, que es un documento extenso y regula el uso de la inteligencia artificial dentro del entorno europeo, en varios niveles. En el nivel más alto se sitúan las prácticas consideradas inadmisibles, como ciertos usos de datos biométricos para la identificación de personas en espacios públicos. En China, por ejemplo, utilizan sistemas de detección facial en los aeropuertos para saber quién eres y dónde estás en todo momento y eso no está permitido en Europa. En el nivel más bajo se contemplan los tipicos asistentes virtuales que se crean para coger, por ejemplo, reservas en restaurantes. Lo normal es que se identificaran con modelos de inteligencia artificial para que tú como cliente sepas que te está atendiendo un bot.
—¿Cómo ve el futuro de esta ciencia?
—Lo veo interesante. Los modelos están creciendo a una velocidad exponencial. En cuanto los modelos matemáticos y los algoritmos que se están utilizando evolucionen y cambien la forma de procesar la información, el salto será espectacular. Ahora bien, hay que tener cuidado con el marketing puro y duro, porque a las empresas les interesa presentar cada avance como la «nueva revolución de la inteligencia artificial» para atraer inversores. Desde mi punto de vista, soy optimista porque los modelos van a venir para mejorar la capacidad de trabajo de la gente y no para desplazarnos 100% del trabajo. Un ejercicio muy útil consiste en clasificar las tareas laborales en un cuadrante. Imagina dos ejes. En uno, si la tarea requiere o no formación especializada; en el otro, el tiempo que consume. Así se pueden identificar cuatro tipos de tareas. Por ejemplo, en el cuadrante de tareas que consumen mucho tiempo y no requieren formación específica entrarían acciones como enviar correos o realizar cálculos simples. Son tareas fácilmente automatizables. En cambio, las tareas que requieren conocimientos especializados son las que aportan más valor y son más difíciles de sustituir. A partir de este análisis, es posible automatizar gran parte del trabajo repetitivo y centrarse en lo importante. Hoy en día, por ejemplo, existen sistemas que resumen correos electrónicos y generan borradores de respuesta. En muchos casos, el usuario solo tiene que revisar y decidir. Esto puede ahorrar muchas horas de trabajo semanal. Pero, hay tareas que necesitan especialización y eso solo las pueden hacer las personas.