Investigador en IA: «A este ritmo, en dos años, será imposible detectar si una imagen o un vídeo está generado con inteligencia artificial»
ASTURIAS
Sergio Fernández, investigador del Centro de Estudios sobre el Impacto Social de la Inteligencia Artificial de la Universidad de Oviedo, analiza las consecuencias de generar y difundir archivos falsos sin comprobación previa
19 nov 2025 . Actualizado a las 05:00 h.Durante la noche del domingo al lunes, Avilés y Castrillón vivieron un aguacero que convirtió las calles en auténticos ríos. Según los datos de la Confederación Hidrográfica del Cantábrico, en apenas ocho horas cayeron 120 litros por metro cuadrado casi 100 entre las 21.00 horas y medianoche. El 112 emitió avisos urgentes para que la población permaneciera en zonas altas y evitara salir, mientras bomberos, Policía Local y servicios municipales intervenían en garajes, sótanos y calles anegadas.
Sin embargo, no todo lo que circuló esa noche era real. El Ayuntamiento de Castrillón denunció a la mañana siguiente la difusión de imágenes generadas por inteligencia artificial que simulaban inundaciones en el concejo. Según explican, estas falsificaciones llegaron incluso a interferir en labores policiales, ya que en un contexto donde todo ocurrió en minutos, verificar la veracidad de cada contenido supuso un esfuerzo adicional que pudo distraer de emergencias reales. Fotos de socavones, calles hundidas o daños inexistentes que, pese a lo burdo de algunos detalles, llegaron a colarse en los canales oficiales, dándolas vecinos por buenas y las reenviándolas como alertas reales.
Para entender el alcance del fenómeno, Sergio Fernández, investigador del Centro de Estudios sobre el Impacto Social de la Inteligencia Artificial de la Universidad de Oviedo (Ceisia), hace un diagnóstico directo, sin paños calientes: «Dentro de un par de años, si la progresión es lineal, será prácticamente imposible distinguir a simple vista una imagen o un vídeo real de otro generada por IA». «La IA permite generar contenidos que son muy difícilmente discernibles de la realidad. Cualquier autoridad competente va a tener que perder tiempo revisando y filtrando cuáles de esos contenidos son ciertos», explica, insistiendo en que la propagación y difusión de estas imágenes alimenta la desconfianza y puede generar alarma innecesaria en la población.
La nueva generación de archivos multimedia por IA puede recrear lugares concretos con un realismo milimétrico, imitar condiciones meteorológicas, reproducir ángulos de cámaras típicos de los vecinos y generar un contenido casi indistinguible del de un móvil. El riesgo no es solo la confusión ciudadana, señala: «En sucesos y emergencias, una imagen falsa puede redirigir recursos, generar pánico o dificultar la comunicación oficial». «En la actualidad es sumamente difícil. No se puede culpar a nadie por comerse un bulo, pero sí se puede buscar responsabilidad en la difusión de contenidos sin comprobación previa», explica Fernández, quien subraya que, incluso utilizando herramientas orientadas a detectar IA, la precisión es limitada: «Como la inteligencia artificial es programable, puedes engañar a un detector generando contenido específico. Detectar IA con otra IA no suele ser del todo fiable».
Sobre la responsabilidad social, asegura que «cada persona que participa en la cadena de difusión de un contenido genera un pequeño riesgo de consecuencias negativas», incluso si la intención original es inocua. Advierte, además, de un sesgo generacional: los jóvenes identifican más fácilmente los contenidos manipulados, mientras que personas mayores, sin experiencia con estas herramientas, pueden asumirlos como verdaderos. Aun así, el investigador recuerda que la IA también tiene aplicaciones positivas, especialmente en predicción y prevención de fenómenos o en el ámbito sanitario. «Las cosas buenas que nos aporta la IA son muy buenas, y las malas, como en casi todos los campos, son muy malas», concluye.