Soraya Artiles, subdirectora de Seguridad de la Información del Cestic: «Es crucial cuidar la información que compartimos y borrar conversaciones»
ACTUALIDAD
La experta advierte durante la cumbre Reaim en A Coruña sobre la necesidad de establecer estándares éticos y de seguridad
06 feb 2026 . Actualizado a las 05:00 h.María Soraya Artiles Burgos es subdirectora general de Seguridad de la Información y de la Inteligencia Artificial del Centro de Sistemas y Tecnologías de la Información y las Comunicaciones (Cestic) de la Secretaría de Estado de Defensa. Funcionaria de la Escala de Científicos Superiores de la Defensa, acumula más de 20 años de experiencia en tecnologías de la información, ciberseguridad e inteligencia artificial, habiendo ocupado cargos de alto nivel en los ministerios de Interior y Defensa y en instituciones de la Unión Europea. Participó este jueves en A Coruña en la tercera cumbre internacional Reaim sobre el uso responsable de la inteligencia artificial en el ámbito militar. Alerta sobre las cautelas que hay que tener al usar esta tecnología.
—¿Cuál fue el enfoque de su participación en la mesa de diálogo de la cumbre Reaim?
—Se centró en la evaluación de la inteligencia artificial, no solo en aspectos de privacidad, sino también en sesgos, ética y posibles corrupciones de la propia IA. Además, expliqué cómo estamos evaluando estas IAs mediante otras IAs, lo que permite analizar su comportamiento de manera más rigurosa.
—¿Control de la IA con otra? ¿Como una auditoría?
—Es similar a la labor de un médico que analiza a un paciente. Para determinar la vulnerabilidad de una IA, utilizamos otra IA entrenada específicamente para ello. La cuestión que surge después es quién audita la IA que utilizamos para auditar. Es un desafío que se complementa con modelos estandarizados y certificados para controlar las IAs auditadas.
—En la cumbre se habla del uso ético de la inteligencia artificial. ¿Puede una IA tener su propia ética?
—Sí, se puede entrenar para que tenga ética. Dependiendo de cómo se entrene, tendrá o no ciertos principios éticos. En el ámbito militar, los estándares deben ser todavía más estrictos. Así como existe disciplina y control en las fuerzas armadas, también debemos establecer normas claras para evaluar si la IA responde correctamente a principios éticos.
—¿Cuál es la diferencia entre la IA civil, accesible a cualquier usuario, y la militar?
—En términos estratégicos, la IA militar debe cumplir controles mucho más rigurosos. Una falta de ética tolerable en una IA civil sería inaceptable en la militar. Los países que participan en este tipo de cumbres se comprometen a mantener esta ética, y si alguno no la cumple, esto afecta a los demás. Por eso es importante certificar que las IAs cumplen ciertos estándares éticos y de seguridad, tal como ocurre con los países de la OTAN. De hecho, cualquier software o hardware utilizado en los países de la OTAN debe tener un sello de seguridad.
—¿Cómo se gestiona la seguridad y el riesgo de ciberataques en estas IAs?
—Lo primero son estas auditorías de las que estamos hablando, y también pruebas de penetración, poniéndonos en el lugar de un ciberatacante. Aplicamos metodologías probadas, por ejemplo de Estados Unidos, para analizar privacidad, integridad y vulnerabilidad de los sistemas. Es fundamental trazar cada decisión que toma la IA, como haríamos con una orden militar. Siempre debemos saber el origen de la instrucción y cómo se procesa. Nuestro trabajo consiste en pensar como los malos; debemos anticipar cómo podrían actuar y preparar los sistemas para resistir esos ataques.
—¿Cuál es el principal reto actualmente en el ámbito de la IA militar?
—Crear procesos de evaluación y certificación para la IA equivalentes a los del software tradicional. Sin estos controles, no podemos comparar dos IAs ni trazar sus decisiones, lo que genera riesgos importantes en operaciones críticas.
—¿Y qué riesgos existen a nivel de usuario final?
—Cada dato que introducimos en una IA crea un contexto que se almacena, incluso si no reentrena el modelo directamente. Por ejemplo, en plataformas como Google o GeminiChat, los datos crean un perfil que influye en las respuestas futuras. Por eso, es crucial tener cuidado con la información que compartimos y, cuando sea necesario, borrar conversaciones para que no queden almacenadas. Esto se debe tener en cuenta tanto en el ámbito militar como para el usuario común.
—¿Qué recomendaciones o advertencias deben conocer los usuarios?
—La IA puede ofrecer enormes beneficios, pero debemos establecer estándares éticos y de seguridad claros, trazabilidad en las decisiones y control humano permanente. Los usuarios deben tener en cuenta que cada dato que comparten permanece en un contexto que gestiona la empresa del modelo. Hay que ser muy consciente de qué información se aporta y cómo se utiliza.