Italia ha suspendido el uso de la herramienta de chatbot ChatGPT, capaz de simular y procesar conversaciones humanas, perteneciente a la empresa tecnológica estadounidense OpenAI. La suspensión se debe a la supuesta falta de cumplimiento de las leyes de protección de datos de los consumidores italianos por parte de OpenAI. La Autoridad Italiana de Protección de Datos afirma que la plataforma recopila datos de los usuarios de manera ilegal y ha iniciado una investigación para determinar si ha violado las regulaciones. Se acusa al servicio de chatbot, que es el más popular de la inteligencia artificial generativa emergente, de sufrir una pérdida de datos el 20 de marzo y de exponer a los menores a respuestas inapropiadas, a pesar de que su servicio está dirigido a usuarios de 13 años o más.

La Autoridad Italiana de Protección de Datos ha criticado a OpenAI por no proporcionar información a los usuarios y a todas las partes interesadas sobre la recopilación y gestión de datos privados, así como por la ausencia de una base legal que justifique la recopilación y almacenamiento masivo de datos personales para «entrenar» los algoritmos que gestionan las operaciones de la plataforma. La autoridad italiana ha pedido a OpenAI que comunique en un plazo de 20 días las medidas adoptadas para cumplir con la solicitud de la Autoridad de Protección de Datos, o enfrentarse a una multa de hasta 20 millones de euros o hasta el 4% de su volumen de negocios anual global.

Esta acción por parte de Italia es un recordatorio de que a medida que la inteligencia artificial se vuelva más prevalente, la protección de datos y la privacidad serán más importantes. Con el aumento del uso de chatbots de inteligencia artificial, debemos asegurarnos de que se protejan los datos de los usuarios y de que las empresas sean transparentes sobre cómo recopilan, almacenan y utilizan esos datos. Los riesgos de herramientas de inteligencia artificial como ChatGPT son reales y el potencial de daño es significativo. A medida que continuamos desarrollando la inteligencia artificial, es crucial que también creemos estándares éticos para gobernar su uso.

La UNESCO ha instado a los países a aplicar sin demora el Marco Ético Mundial sobre la Inteligencia Artificial, que contiene directrices para maximizar los beneficios de la inteligencia artificial y reducir los riesgos que plantea. Mientras tanto, Elon Musk y más de 1,000 investigadores de tecnología han solicitado una pausa en el desarrollo de inteligencia artificial avanzada durante al menos seis meses, advirtiendo sobre los riesgos que plantean estas tecnologías. Es evidente que debemos ser conscientes de los posibles peligros de la inteligencia artificial y tomar medidas para garantizar que se use de manera responsable, protegiendo la privacidad y los datos de los usuarios.