La Ley de Inteligencia Artificial es una propuesta de regulación presentada el pasado abril por la Comisión Europea y que tiene como objetivo crear un marco legal para la Inteligencia Artificial. Es una ley que se aplicaría en todos los sectores excepto en el militar.

Desde su presentación, diversos grupos como la European Digital Rights, Access Now o Panoptykon Foundation han revisado el texto y el veredicto que han emitido es muy crítico. Según estos grupos la legislación propuesta se queda muy corta a la hora de proteger los derechos fundamentales frente al uso indiscriminado de la Inteligencia Artificial (IA) y han publicado un documento con una lista de puntos a revisar.

“Ponemos de manifiesto que los sistemas de Inteligencia Artificial exacerban los desequilibrios estructurales de poder, y las consecuencias normalmente las sufren los colectivos más vulnerables de la sociedad. Por lo tanto, este llamamiento pone las bases para una reforma de esta propuesta que ponga los derechos fundamentales en primer plano”, declararon los grupos.

La Comisión Europea, que elaboró el documento, describió la propuesta como un marco legal “de confianza” y “centrado en la gente” para la IA. Sin embargo, el documento emitido por los grupos civiles considera que este marco podría propiciar abusos dados los pocos controles que se plantean para prevenir posibles problemas.

Los grupos esperan que la Comisión Europea considere sus observaciones en el proceso de revisión de la nueva ley que está siendo debatida y modificada antes de la publicación del texto definitivo.

Algunas de las propuestas claves son la necesidad de que la legislación sea flexible y a prueba de futuras evoluciones de la tecnología. Para estos grupos, la propuesta es demasiado rígida para poder reaccionar ante una tecnología que se encuentra en un continuo y vertiginoso desarrollo.

Otra crítica es la falta de ambición de la nueva legislación a la hora de limitar determinados usos. Por ejemplo, se demanda una prohibición total del uso de Sistemas de Crédito Social al estilo chino, del reconocimiento biométrico en espacios públicos, de los sistemas de reconocimiento de emociones y de los sistemas de predicción de delitos. En general se pide una prohibición de todos aquellos sistemas que “plantean un riesgo inaceptable para los derechos fundamentales”.

Otra petición es la de ofrecer a los individuos herramientas para revertir una situación en la que se vean afectados negativamente por la IA. Según estos grupos, la legislación propuesta se aparta peligrosamente de la tónica marcada por el Reglamento General de Protección de Datos por la que se dota al ciudadano de una batería de derechos que le permiten defenderse ante posibles abusos como el derecho del ciudadano de ser informado de brechas de seguridad.

A este respecto, los grupos proponen que se reconozcan dos derechos individuales que pueden servir como base para futuras resoluciones judiciales: el derecho a que un sistema de IA de alto riesgo no pueda usar datos de un sujeto y el derecho a una explicación clara e inteligible sobre el funcionamiento y objetivo de los sistemas de IA.