Mark Zuckerberg es un alien y Cambridge Analytica manipula mis decisiones
11 de Junio de 2018La opinión de Rodolfo Cordero Sancho, DevOps en intive-FDV
Después de analizar, comprender y cuestionar profundamente la importancia del ISO 3103:1980, me sentí obligado a indagar un poco más sobre las consecuencias de lo sucedido recientemente con Facebook.
Antes de preocuparnos por entender las secuelas, veamos los hechos de manera resumida:
La empresa Cambridge Analytica y el psicólogo Aleksandr Kogan, lanzan un test llamado This is your digital life. Se trata de una prueba de personalidad (del estilo de esas que te indican que estás dentro del 10% de la población más inteligente), una aplicación en Facebook que recopila información personal. Los datos son obtenidos por medio de los permisos que el propio usuario decide ceder a la aplicación.
Con la información obtenida de los resultados de este test más el cruce con otros datos recopilados a través de su API (léase ubicación, amigos, páginas a las que dio like, etc), Cambridge Analytica logra generar un perfil psicológico de cada usuario participante.
Dicho perfil es utilizado para crear información clave a la hora de manipular ciertos procesos de opinión, como las elecciones. Este es el caso de los últimos comicios presidenciales en Estados Unidos, o el del Brexit, entre otros ejemplos.
Christopher Wylie, un ex-empleado de la compañía, habla con los periódicos The New York Times y The Guardian, los cuales lanzan la noticia al público.
Sale a la luz una cámara encubierta realizada por el canal británico Channel 4, en la que se puede ver en escena una simulación de personas interesadas en intervenir procesos democráticos en Sri Lanka (pueden ver el video acá). En esta reunión los directivos de Facebook indican que ellos manipulan deliberadamente los procesos, además de generar fake news.
El escándalo llega a proporciones abismales y, el 10 de abril, Mark Zuckerberg comparece frente al senado de Estados Unidos.
Brittany Kaiser, una ex empleada de la empresa informa que además del cuestionario creado por Aleksandr Kogan se han utilizado otros, por lo que el número de usuarios afectados por el robo de su información podría incrementarse.
Ahora sí, las consecuencias:
Facebook y demás redes sociales, servicios que recopilan información, se están tornando más cautelosas acerca de la información que exponen a terceros. Pudimos comprobarlo, por ejemplo, con el caso de la aplicación Tinder, que experimentó algunos problemas con los cambios provocados por la nueva API de Facebook.
Los desarrolladores debemos estar al tanto de estos cambios en las políticas de Facebook, que afectan, por ejemplo, a la información compartida con otras apps, la que, en muchos casos, deberemos procurárnosla de otra manera.
Algunas técnicas de SEO destinadas a lograr una gran difusión de nuestros contenidos no van a funcionar de la misma manera en las redes sociales. Por ejemplo el “clickbait”.
Al final de cuentas, se hace notar el efecto de las empresas con poca ética, que terminan afectando al progreso y al desarrollo del resto del mercado. El recurso más valioso de una red social resulta ser sus propios usuarios; protegerlos no es una opción, sino un requerimiento. El cómo y el porqué usamos la información de nuestros usuarios exclusivamente debe estar orientado a mejorar su experiencia, la calidad de nuestros servicios; no a disposición de intereses faltos de moral. Como socios tecnológicos, la ética, más que un valor agregado, debería ser un principio incuestionable.
(*) Rodolfo Cordero Sancho: DevOps en intive-FDV