La Inteligencia Artifical (IA) es una tecnología que, hasta el momento, se ha desarrollado sin unos controles legales específicos. Esto va a cambiar a partir de ahora en Europa.
La Unión Europea ha presentado un borrador con una batería de medidas para controlar el uso de la Inteligencia Artificial. Se trata de una serie de directrices muy en la línea del Reglamento General de Protección de Datos (RGPD), que servirán de marco legal para que las compañías puedan desarrollar esta tecnología dentro de unos límites éticos entre los que se encuentra la protección a los datos personales.
Todavía tendrán que pasar unos años hasta que el borrador complete su camino legislativo y se convierta en ley.
¿Qué dice la nueva legislación IA?
El borrador de medidas establece los límites dentro de los que se puede usar la IA en actividades como los coches autónomos, la selección de candidatos para un trabajo, la concesión de créditos o las admisiones de alumnos en centros educativos. También cubre el uso de la IA por parte de la Justicia y las fuerzas y cuerpos de seguridad a los que considera «áreas de riesgo» por su potencial para afectar los derechos fundamentales de las personas.
Entre los usos de la IA que se prohíben totalmente está el reconocimiento facial, aunque se dejan algunas excepciones abiertas como los casos en los que esté en juego la seguridad nacional.
Otras medidas contenidas en este borrador son la obligatoriedad de que los chatbots que emulan las respuestas de operadores humanos se tengan que identificar como tal y que el software que sirva para generar imágenes manipuladas para que parezcan reales como los deepfakes tengan que etiquetar el material que generen para que no induzca a engaño.
Sanciones y evaluaciones de impacto en línea con el RGPD
El objetivo del documento de la UE es el de regular una tecnología que está a las puertas de producir una enorme disrupción tecnológica en los próximos años comparable al surgimiento de Internet. Desde ahora, todas aquellas empresas que desarrollen tecnologías basadas en la IA deberán regirse por estas directrices.
En línea con el RGPD, este nuevo marco normativo viene acompañado con un importante régimen sancionador que prevé multas que pueden llegar hasta el 6% de la facturación global.
Las similitudes con el RGPD no acaban ahí y, como en el caso de la ley europea de protección de datos, la UE requerirá que las empresas que empleen la IA en sectores altamente sensibles como la sanidad, tengan que elaborar un informe previo de seguridad equivalente a la Evaluación de Impacto del RGPD. Las empresas tendrán que probar, además, que siempre hay una supervisión humana sobre el uso y desarrollo de los sistemas.
La UE está tomando con la IA la misma determinación que con la protección de datos, creando una legislación pionera que, como ha ocurrido con el RGPD, servirá como modelo legislativo a nivel mundial para la regulación de un sector tan clave como la IA.