Varios gobiernos europeos informaron que “están analizando cómo mitigar los peligros de esta tecnología emergente, que ha disparado su popularidad entre los consumidores en los últimos meses después del lanzamiento de ChatGPT, de la empresa OpenAI, apoyada inicialmente por Elon Musk y ahora impulsada por 10.000 millones de dólares de Microsoft”.
Bruselas, por ejemplo, quiere que los contenidos generados por Inteligencia Artificial (IA) lleven una advertencia específica. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, anunció el comisario europeo de Mercado Interior, Thierry Breton.
La Agencia de Protección de Datos de Italia ha ordenado el cierre de ChatGPT al considerar que viola el derecho de privacidad de los usuarios y el Reglamento de Protección de Datos de la Unión Europea. Esta autoridad italiana acusa a OpenAI de no verificar la edad de los usuarios, que debería ser superior a los 13 años, y de recopilar y almacenar datos personales masivos sin ninguna base legal que lo justifique.
Francia, Irlanda y Alemania empezaron a analizar la medida de su homólogo en Italia para obtener más información sobre los motivos de la prohibición. El comisionado alemán de protección de datos aseguró “que podría seguir los pasos italianos y bloquear ChatGPT por el riesgo para la seguridad de los datos”.
Por último, la Comisión Nacional de Informática y de las Libertades de Francia hizo público que “está investigando varias quejas sobre ChatGPT”. Mientras que la Agencia Española de Protección de Datos, “ha solicitado que se trate la posible regulación de sistemas de inteligencia artificial generativa en la reunión del Comité Europeo de Protección de Datos”.