El Gobierno avisa del posible bloqueo de ChatGPT si este no protege los datos

La Voz REDACCIÓN / LA VOZ

ACTUALIDAD

Eduardo Parra | EUROPAPRESS

OpenAI anuncia que no desarrollará la versión avanzada GPT-5 «por algún tiempo» tras las peticiones de una moratoria en el progreso tecnológico

24 abr 2023 . Actualizado a las 12:41 h.

España advierte de que podría bloquear el acceso a ChatGPT si existen sospechas de que el servidor, propiedad de la estadounidense OpenAI, no está cumpliendo con las garantías de protección de datos que rigen para los ciudadanos europeos. La secretaria de Estado de Digitalización e Inteligencia Artificial, Carmen Artigas, avisa de que la interrupción de este servicio, al estilo de lo que ya ha hecho Italia, es una posibilidad, en declaraciones que recoge Europa Press. Considera que esta herramienta «ha saltado demasiado rápido de la fase de investigación a la fase comercial».

La declaración del Gobierno se produce pocos días después de que la Agencia Española de Protección de Datos (AEPD) anunciara que investigará la empresa estadounidense OpenAI, propietaria de ChatGPT, por un posible incumplimiento de la normativa del tratamiento de los datos personales de quienes la utilizan.

También ha explicado Artigas que el Gobierno está trabajando en programa para impedir que los sistemas de inteligencia artificial roben información a las empresas. De este modo, la herramienta deberá permitir al Gobierno supervisar el uso de servicios como ChatGPT: «A finales de este mes tendremos el reglamento que invitará a las empresas a poner todos estos sistemas bajo nuestra auditoría».

En función de las conclusiones que el Estado extraiga de estas auditorías se diseñaran herramientas para que se puedan aplicar «a todas las empresas, también a las pequeñas y medianas, y a los reguladores».

El objetivo es impedir que los sistemas de IA tengan acceso a datos delicados: «Las empresas podrán tener responsabilidad sobre un software que es una caja negra para saber si tienen filtraciones o no», ha detallado Artigas.

La rápida implantación de ChatGPT desde que su uso se abrió al público el pasado 30 de noviembre ha generado preocupación en instituciones y colectivos de todo el mundo. A finales de marzo, un grupo de empresarios del sector tecnológico, expertos y políticos —Elon Musk, fundador de Tesla, y el cofundador de Apple Steve Wozniak, entre ellos— solicitaron en una carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute la suspensión durante seis meses de los experimentos con inteligencia artificial al considerar que «pueden plantear profundos riesgos para la sociedad y la humanidad». Afirmaban en esta misiva que la aplicación de la inteligencia artificial puede ser peligrosa si no va acompañada de una planificación y una gestión adecuadas.

Esto es algo que a día de hoy no existe. El problema de su aplicación es que el salto que ha dado la inteligencia artificial de unos años a esta parte ha sido mucho más rápido que la regulación que debía crear un sistema normativo en el que pueda desenvolverse con garantías.

Bruselas todavía negocia una ley de inteligencia artificial en un lento proceso legislativo que la Comisión Europea puso en marcha en abril del 2021, cuando estas herramientas ahora popularizadas no existían. La UE quiere ahora aprovechar el momento para encontrar la fórmula de regular las dudas sociales, políticas y éticas que han surgido con el uso de estos nuevos servicios.

Ante las polémicas y las peticiones de una moratoria en un avance tecnológico sin control, OpenAI ha anunciado que no desarrollará GPT-5 «por algún tiempo». GPT-5 estaría llamado a ser el sucesor del actual chatbot de inteligencia artificial GPT-4, que ya sustituyó al GPT-3. Sam Altman, director ejecutivo y cofundador de OpenAI, señaló que a la carta redactada por los expertos «le faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa», pero coincidió con su planteamiento de que ante estas nuevas herramientas es preciso «moverse con precaución», ya que hay «un rigor cada vez mayor en cuestiones de seguridad» y eso es «realmente importante».