La Inteligencia Artificial (IA) se ha desarrollado a un ritmo vertiginoso en los últimos años. La IA ya no está en el terreno de la ciencia ficción, sino que forma parte de nuestras vidas. Desde la traducción automática de documentos, el filtrado de emails, el reconocimiento facial y de voz o usos más ambiciosos como el diagnóstico de enfermedades, la reducción de accidentes de tráfico o la lucha contra el calentamiento global, las aplicaciones y capacidades de la Inteligencia Artificial no paran de crecer y de brindar beneficios a las personas, empresas e instituciones. Al mismo tiempo, estas innovaciones tecnológicas están haciendo surgir dudas y cuestiones sobre la relación entre la Inteligencia Artificial y la Protección de Datos.
La Inteligencia Artificial es un desafío para la Protección de Datos por la rapidez de su avance, su gran impacto y, sobre todo, por la gran complejidad que presentan sus sistemas. Pero sobre todo es un desafío porque la IA tiene un apetito insaciable de datos.
La mayor parte de herramientas de IA usan cantidades ingentes de datos y, normalmente, cuantos más datos se le proporcionen a la herramienta, mejor funcionará porque conocerá más supuestos y cometerá menos errores. Esta es la razón por la que se están promocionando tanto los servicios de asistentes por voz, porque la cantidad de datos que se obtienen para entrenar los algoritmos de IA son ingentes. El oro de la IA son los datos.
La IA representa un nuevo paradigma tecnológico y los conceptos tradicionales de la legislación en materia de protección de datos se quedan cortos a la hora de abordar su vigilancia y control. Por ejemplo, los conceptos de protección de datos nos dicen que los datos deben ser recogidos con unos fines determinados de los que los sujetos deben ser informados con precisión para que puedan dar su consentimiento informado. Sin embargo, en el caso de la IA no es posible saber de antemano cuáles serán las conclusiones a las que llegará la herramienta, qué usos sacará de los datos que se le proporcionen. La IA no responde a un patrón predecible porque su gran valor es que la máquina es capaz de pensar por sí misma.
Otro concepto fundamental que se ve desafiado por la IA es el de la minimización de datos. Ese principio por el cual los datos deben ser adecuados, relevantes y limitados a lo necesario en relación con la finalidad del tratamiento. La IA, por definición, necesita cuantos más datos mejor y no sabe de antemano cuáles necesita porque las conexiones y relaciones entre distintos datos pueden guardar claves desconocidas que ayuden a la máquina a alcanzar sus objetivos. En otras palabras, es difícil saber qué datos serán necesarios porque los descubrimientos de las computadoras de IA vienen en muchas ocasiones de correlaciones sorprendentes. Esto también desafía el concepto de limitación de la finalidad y el plazo de conservación. Al fin y al cabo, no podemos saber cuándo el algoritmo va a dejar de necesitar ciertos datos.
Por lo tanto, la IA presenta un dilema muy difícil de solucionar para los legisladores y las autoridades en protección de datos. Si se aplican las normas a rajatabla, se corre el riesgo de limitar el desarrollo de una de las tecnologías más poderosas que existen en la actualidad, por el otro, si no se ponen límites, se pondrá en peligro la privacidad y la seguridad de los datos de los ciudadanos.