Facebook lleva una semana sumida en la que probablemente sea la mayor crisis que ha tenido que afrontar desde su creación. Y todo viene de una gestión negligente de sus datos personales.
El gigante de las redes sociales abrió en 2014 la puerta de sus datos, al menos indirectamente, a una empresa de marketing que los utilizó para fines de propaganda política. El uso de estos datos en procesos electorales como las últimas elecciones presidenciales en EEUU y el referéndum del brexit fue, al parecer, decisivo.
¿Cómo ocurrió todo?
La historia es compleja y está llena de interrogantes, pero en esencia todo parte de una política de protección de datos negligente.
Un académico de la universidad de Cambridge crea una app ofreciendo tests de personalidad gratuitos a cambio de acceso a perfiles de Facebook no solo de los que realizaban los tests sino también de sus amigos. En total, 320,000 personas realizan los tests aceptando las condiciones. Y cada una de esas personas propicia el acceso a los perfiles de Facebook de, como media, otras 160 totalmente ajenas a lo que ocurre.
En definitiva, los datos de millones de usuarios de Facebook (sus Me Gusta, sus amigos, sus eventos…) acabaron en manos de una empresa cuyo negocio es influir resultados electorales.
Hay que puntualizar que la gente que proporcionó su permiso para utilizar los datos al académico de Cambridge, no lo autorizó para cederlos a terceros.
Las razones del problema
Esta enorme quiebra en la protección de datos de Facebook viene de una gestión negligente.
- En primer lugar, Facebook no debería permitir el acceso de terceras partes a los perfiles de sus usuarios.
- En segundo lugar, nunca se debió permitir que la autorización de acceso de una persona fuese extensible a sus amigos.
- En tercer lugar, Facebook supo de esta brecha durante más de dos años, pero no realizó ninguna notificación.
- En cuarto lugar, la única reacción de la red social al conocer el problema fue pedir a los perpetradores que borrasen los datos en su poder, algo que, por supuesto, no hicieron.
Microtargeting de conducta
La consecuencia de esta brecha de seguridad es que los datos podrían haber sido utilizados para hacer lo que se denomina microtargenting de conducta. A grandes rasgos, se trata de crear mensajes especialmente diseñados para cada tipología de usuario con la finalidad de influir en su voto. Reforzar las convicciones de los que simpaticen con el candidato que haya contratado a la empresa, convencer indecisos, despistar al contrario… Todo vale.
Un ejemplo de este tipo de técnicas sería el envío de publicidad a simpatizantes del candidato contrario con mensajes engañosos. Por ejemplo, hacer creer que se puede votar por Twitter o que su día para votar ya ha pasado y no podrán hacerlo ya. El objetivo, desmovilizar al contrario.
El valor económico de una buena protección de datos
Facebook se encuentra ahora con que ha perdido el 10% de su valor, más de 50,000 millones de dólares. Mucho más que cualquier multa que cualquier agencia de Protección de Datos le pudiese imponer.
Y esto es precisamente lo que subyace de todo este caso. La protección de datos no sólo es una cuestión de multas. El mercado y los consumidores reaccionan negativamente cuando una empresa no protege sus datos como es debido y las consecuencias, como vemos, pueden ser catastróficas.
El RGPD nos trae el concepto de privacidad por diseño, es decir, una manera de pensar en la protección de datos como algo que es intrínseco a la organización y sus actividades. Si Facebook se hubiese tomado así la protección de los datos de sus usuarios, su valor estaría intacto.