Meta, la empresa matriz de Facebook, Instagram y WhatsApp, ha anunciado que comenzará a utilizar los datos personales de todos los usuarios adultos europeos de Facebook e Instagram para entrenar sus sistemas de inteligencia artificial a partir de finales de mayo de 2025. Esta información servirá para desarrollar servicios como el chatbot Meta-AI en WhatsApp o modelos de lenguaje como Llama.

La compañía ya intentó implementar esta estrategia en 2024, pero tuvo que posponerla tras la intervención de la Autoridad de Protección de Datos de Irlanda (IDPC), que planteó serias dudas sobre la base legal y la transparencia del proceso. Sin embargo, ahora Meta vuelve a la carga con un sistema que, aunque permite la objeción, establece como opción predeterminada el uso de nuestros datos.

La Organización de Consumidores y Usuarios (OCU) ha expresado su preocupación ante la falta de transparencia en el uso de la IA y los riesgos de privacidad que esto conlleva: «en muchas ocasiones el usuario ni siquiera es consciente de que está siendo analizado y/o, de cierta forma, controlado, por este tipo de mecanismos, para inducirle a comprar un bien o contratar un servicio determinado y menos aún conoce el entramado tecnológico que hay detrás de una simple sugerencia». (https://www.ocu.org/info/postura-ocu-ia)

Además, advierte sobre la posibilidad de que la IA se utilice para manipular las decisiones de los consumidores y discriminar a ciertos grupos de personas. «El poder de la IA puede facilitar la manipulación de las decisiones del consumidor y discriminar a los consumidores basándose, por ejemplo, en su situación financiera, género o salud», señala la organización.

¿QUÉ DATOS UTILIZARÁ META Y POR QUÉ LOS NECESITA?

Los sistemas de IA, especialmente aquellos basados en aprendizaje automático y aprendizaje profundo, requieren enormes cantidades de datos para su entrenamiento. Cuanto mayor y más diverso sea el conjunto de datos, mejor será el proceso de aprendizaje y el funcionamiento posterior del modelo.

Meta utilizará para entrenar su IA:

  • Información pública compartida en Facebook e Instagram (publicaciones, fotos, comentarios y descripciones).
  • Datos que siempre son públicos (nombre, usuario, foto de perfil o actividad en grupos públicos).
  • Interacciones que los usuarios realicen con funciones de IA de la compañía.

Es importante destacar que la empresa asegura que no utilizará:

  • Mensajes privados o contenido compartido en cuentas privadas.
  • Publicaciones o interacciones públicas de menores de 18 años.

Sin embargo, existe un aspecto especialmente preocupante: «También podrá procesar información sobre personas que no tienen un perfil en sus aplicaciones, pero que aparecen en imágenes o textos de otros usuarios».

LOS RIESGOS PARA LA PRIVACIDAD: EJEMPLOS PRÁCTICOS

1. Persistencia perpetua de la información

Una vez que los datos se incorporan a los modelos de IA, su influencia no puede eliminarse. Según un comunicado oficial de la Autoridad de Protección de Datos de Hamburgo (https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-personal-data), «la información de entrenamiento se incorpora de forma irrevocable a los modelos de IA y el estado actual de la técnica no permite eliminar del modelo su influencia». Esto significa, por ejemplo, que, si publicaste una foto en Instagram hace años mostrando tu casa o a tus hijos pequeños, esa información podría quedar permanentemente integrada en los sistemas de IA de Meta, incluso si posteriormente borras la publicación o cierras tu cuenta.

2. Pérdida de control sobre nuestra imagen e identidad digital

Los modelos de IA generativa como Llama podrían utilizar nuestras fotografías, estilo de escritura o preferencias para generar nuevo contenido que imite nuestra identidad digital.

Por ejemplo, si habitualmente escribes en Facebook sobre política o compartes fotos de tus viajes con determinado estilo, la IA podría generar textos o imágenes que reproduzcan tu forma de expresarte o lugares que has visitado, sin que tengas control sobre ese uso.

3. Exposición a riesgos de privacidad derivados

Los datos de entrenamiento masivos utilizados para IA pueden ser vulnerables a ataques que extraigan información personal. Investigaciones recientes han demostrado que es posible realizar «ataques de extracción» donde, mediante consultas específicas, se puede recuperar información que formaba parte del conjunto de entrenamiento.

Así, si compartiste en una publicación pública tu dirección o número de teléfono, existe el riesgo teórico de que esa información pudiera ser extraída del modelo mediante técnicas sofisticadas.

¿CÓMO EVITAR QUE TUS DATOS SEAN UTILIZADOS PARA ENTRENAR LA IA DE META?

Meta basa el procesamiento de datos personales para el entrenamiento de su IA en «intereses legítimos», pero existe el derecho a oponerse de acuerdo con el artículo 21 del RGPD. Para ello, la compañía ofrece formularios específicos:

Es fundamental tener en cuenta que:

  1. No es necesario justificar la objeción, aunque Meta proporciona un campo de texto opcional para especificar motivos.
  2. Cualquier objeción presentada recibe confirmación inmediata mediante un mensaje emergente en la aplicación o por correo electrónico.
  3. Si tienes varias cuentas, debes presentar una objeción para cada una, a menos que estén vinculadas.

Es posible presentar una objeción en cualquier momento, pero Meta comenzará el entrenamiento de IA a finales de mayo de 2025. Una objeción presentada después de esa fecha solo será válida para el futuro y no podrá deshacer el entrenamiento que ya se ha realizado con tus datos.

Para personas que no tienen cuenta en Meta pero quieren oponerse al uso de sus datos (por ejemplo, si aparecen en fotos o menciones de otros usuarios), existe un formulario adicional: https://www.facebook.com/help/contact/510058597920541

EL DEBATE SOBRE EL USO DE NUESTROS DATOS PARA ENTRENAR IA

El uso masivo de datos personales para entrenar sistemas de IA está generando un intenso debate legal y ético. Noyb, la organización fundada por el abogado Max Schrems que tumbó en su momento el acuerdo de transferencia de datos entre USA y UE, ha presentado 11 solicitudes a las agencias de protección de datos europeas para determinar si este uso de datos es correcto.

Según Max Schrems, «Meta está diciendo que puede utilizar “cualquier dato de cualquier fuente para cualquier propósito y ponerlo a disposición de cualquier persona en el mundo”, siempre y cuando se haga mediante “tecnología de IA”. Esto es claramente lo contrariodel cumplimiento del GDPR. El término “tecnología de IA” es extremadamente amplio, igual que “utilizar sus datos en bases de datos” no tiene un límite legal real. Meta no dice para qué utilizará los datos, por lo que podría tratarse de un simple chatbot, de publicidad personalizada extremadamente agresiva o incluso de un dron asesino. Meta también afirma que los datos de los usuarios pueden ponerse a disposición de cualquier “tercero”, es decir, de cualquier persona del mundo.» (https://noyb.eu/es/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai)

CONCLUSIÓN: ACTÚA AHORA PARA PROTEGER TU PRIVACIDAD

Si no deseas que tus publicaciones, fotos y comentarios públicos sean utilizados para entrenar los sistemas de IA de Meta, es fundamental que ejerzas tu derecho de oposición antes de finales de mayo de 2025. Recuerda que, una vez utilizados para el entrenamiento, será imposible eliminar su influencia de los modelos. Como usuarios conscientes de nuestra privacidad, debemos mantenernos informados sobre cómo las empresas tecnológicas utilizan nuestros datos y ejercer activamente nuestros derechos en el entorno digital. La decisión está en tus manos: ¿permitirás que tus datos alimenten la IA de Meta o prefieres conservar el control sobre tu información personal?

░ Imagen de Igor Omilaev en Unsplash