El berenjenal de Facebook - Raúl Trejo Delarbre | La Crónica de Hoy
Facebook Twitter Youtube Domingo 25 de Marzo, 2018
El berenjenal de Facebook | La Crónica de Hoy

El berenjenal de Facebook

Raúl Trejo Delarbre

Dinero, tecnología y poder integran una mezcla perfecta para suscitar asombros y animadversiones. Esa mezcolanza es más atractiva cuando implica la posibilidad de manipular las voluntades de centenares de millones de personas. Todo eso está presente en las denuncias acerca del empleo de datos de 50 millones de usuarios de Facebook. Se trata de un escándalo que por lo pronto le ha costado a esa empresa 36 mil millones de dólares, que es el valor que perdieron sus acciones en unos cuantos días. Pero hay algo de exageración y mitificación en esa historia de conspiraciones y engaños.

Desde hace varios años se sabía que Cambridge Analytica (CA) empleaba datos obtenidos de Facebook para tratar de influir en decisiones electorales. Las noticias que han circulado desde hace un par de semanas no son, en rigor, novedosas. El 11 de diciembre de 2015 The Guardian informó que Ted Cruz, aspirante a la candidatura presidencial del Partido Republicano, había contratado a esa empresa para crear modelos de inducción sicológica a partir del manejo de grandes bases de datos tomados de Facebook sin consentimiento de los usuarios. Más tarde el directivo de esa compañía, Alexander Nix, se ufanó de haber contribuido al triunfo de Donald Trump en 2016 y antes a la derecha británica que ganó el referéndum para romper con Europa.

Creada en 2013 con recursos del millonario Robert Mercer, simpatizante del Partido Republicano y ligada a Stephen Bannon, el ahora ex asesor de Trump conocido como promotor de fake news, CA decía trabajar con técnicas de “microtargeting conductual” para orientar el voto en distintos países. En enero de 2017 los periodistas Hannes Grassegger y Mikael Krogerus explicaron en el texto “Los datos que pusieron de cabeza al mundo”, publicado en el sitio vice.com, las técnicas de persuasión que había desarrollado Michal Kosinski, del Centro de Psicométrica de la Universidad de Cambridge.

Desde 2008, ese sicólogo y científico de datos trabajó con información obtenida en línea para crear modelos de predictibilidad. Con un programa llamado MyPersonality, Kosinski levantó cuestionarios entre usuarios de Facebook. Sus observaciones las dió a conocer en abril de 2013 en el reporte “Los rasgos y atributos privados son predecibles a partir de registros digitales sobre el comportamiento humano” publicado en los Proceedings of the National Academy of Sciences de Estados Unidos.

Grassenger y Krogeru explicaron que ese especialista de origen polaco, “probó que, con base en un promedio de 68 ‘likes’ de Facebook por usuario, es posible predecir su color de piel (con exactitud de 95 por ciento), su orientación sexual (88 por ciento de precisión) y su afiliación al partido Demócrata o Republicano (85 por ciento). Pero no se detuvo allí. También se pueden determinar inteligencia, filiación religiosa, tanto como el uso de alcohol, cigarros y drogas”. Las huellas que dejamos en redes sociodigitales como Facebook son indicios de preferencias, opiniones y biografías que nos definen. Con rastros suficientes es factible conocer mucho acerca de una persona. Pero eso no demuestra que a partir de esa información nos puedan persuadir para orientar y menos aún modificar nuestras opiniones políticas.

Esos estudios llamaron la atención de Aleksandr Kogan, un profesor asistente en el departamento de Psicología de la Universidad de Cambridge, que a comienzos de 2014 le propuso a Kosinski que colaborase con él en la empresa SCL, Strategic Communication Laboratories. Cuando Kosinski se enteró de que SCL quería aprovechar su metodología para inducir comportamientos electorales, rechazó la invitación. Por esas fechas SCL creó una subsidiaria, Cambridge Analytica. Por su parte Kogan, que nació en Moldavia pero estudió en Estados Unidos, se fue a trabajar a Singapur y se cambió de nombre. Durante algunos años se llamó Aleksandr Spectre.

Todo eso se publicó hace más de un año. Lo que ahora se ha confirmado es que, con financiamiento de CA, Kogan obtuvo datos de 270 mil personas en Facebook y luego, los datos de los amigos en línea de esos usuarios. Así reunió información de 50 millones de personas. De ellas, pudo construir los perfiles psicográficos de unos 30 millones de personas.

Esa información, Kogan la reunió gracias a una aplicación para Facebook llamada “thisisyourdigitallife” que les proponía a los usuarios un test de personalidad. Así fue sencillo reunir información sobre edad, género, preferencias sexuales y otros rasgos. Kogan obtuvo autorización de Facebook para extraer esa información diciendo que la utilizaría con propósitos académicos. Ese manejo de datos no era ilegal pero sí lo fue entregarlos a un tercero, CA, y hacer negocio con ellos. Ahora se sabe que desde 2015 los directivos de Facebook conocían el uso que Kogan hizo de esa información.

La construcción de perfiles a partir de preferencias manifestadas abiertamente en Facebook, así como en respuestas a cuestionarios como el de Kogan, permite confeccionar algoritmos, es decir pequeños programas informáticos, para colocar en línea mensajes prácticamente individualizados. Si yo digo en Facebook que me gustan los automóviles rojos, es muy posible que en mi muro en esa red aparezcan vehículos de ese color. Pero además, si a otros usuarios que prefieren esos automóviles además les gustan las películas de James Bond, los algoritmos me presentarán productos asociados con ese personaje.

En las redes sociodigitales la gente, por lo general, expresa opiniones políticas a partir de simpatías y antipatías ya definidas. En el estudio de medios de comunicación de masas se ha comprobado que las personas toman decisiones políticas a partir de una compleja variedad de circunstancias que incluyen la experiencia y el entorno de cada quien, las opiniones entre sus más allegados y los cambios en el escenario político, entre otros factores. En Estados Unidos, por ejemplo, Trump no ganó la elección presidencial gracias al manejo de preferencias individualizadas para los usuarios de Facebook. Lo que permitieron los datos de CA fue organizar la campaña de ese candidato para acudir con más frecuencia a los sitios en donde había electores dispuestos a votar por él.

Todo eso ya se sabía. Hace dos fines de semana, además, The Observer de Londres publicó las revelaciones de Christopher Wylie, especialista en previsión de tendencias y ex empleado de CA, que dio a conocer la utilización de los datos de 50 millones de usuarios. Wylie, un canadiense de 28 años, dice que además de participar en el manejo de esa información estuvo en las reuniones de Alexander Nix con el millonario Robert Mercer, a fines de 2013, para convencerlo de que invirtiera 15 millones de dólares en CA. Luego se separó de la empresa.

Las revelaciones de Wylie han nutrido las investigaciones que ya había en la Unión Europea y Estados Unidos por el manejo de datos masivos con propósitos electorales. A su vez Facebook anunció —reconociendo así que la tenía como cliente— la cancelación de sus tratos con CA. Por su parte, Alejander Nix apareció el 20 de marzo en un par de videos grabados de manera subrepticia por el Canal 4 del Reino Unido. Allí el director de CA se ufanó de que, entre los recursos de esa empresa para colocar en situaciones comprometedoras a los adversarios políticos de sus clientes, están el chantaje y los sobornos además del empleo de muchachas ucranianas, “muy guapas, y eso funciona muy bien”. Nix fue despedido de CA. Sus declaraciones, obtenidas con métodos periodísticamente cuestionables, indican que no todo el trabajo de esa empresa se apoya en sofisticados algoritmos informáticos.

El descontento de los usuarios de Facebook es comprensible. A nadie le gusta que sus datos sean conocidos y menos aún manipulados. Pero no hay que olvidar que, cuando nos adherimos a esa red, aceptamos que utilice “cualquier contenido” que colocamos allí. En su “Política de datos” Facebook advierte: “Usamos la información que tenemos para mejorar nuestros sistemas de publicidad y de medición con el fin de mostrarte anuncios relevantes…” Sobre advertencia no hay engaño. Lo que no está indicado de manera expresa en el contrato de Facebook con los usuarios es la posibilidad de que esos datos sean transferidos a otra empresa.

El berenjenal en torno a Facebook subraya que el manejo de datos personales amerita reglas más precisas y sobre todo una amplia transparencia. Pero también recuerda la imprevisión, o ingenuidad, de la mayoría de los usuarios de redes como esa. Nos incomoda que las corporaciones tengan tanta información nuestra, pero cotidianamente las alimentamos con los datos que exhibimos a través de esas plataformas.

Los datos que recabaron Kogan, Nix, Wylie y CA fueron obtenidos, de manera legal, de usuarios que aceptaron descargar y utilizar la aplicación a cuyos cuestionarios respondieron con desinformada inocencia. Facebook no fue hackeado. Por cierto, esos 50 millones constituyen apenas el 2.3% de los 2 mil 129 millones de usuarios que Facebook tiene en el mundo.

Suponer que los 30 millones de personas cuyos perfiles fueron sistematizados por CA fueron manipuladas para votar de una u otra manera, es una simplificación sin sustento. Pero este caso permite subrayar los riesgos de tomar decisiones, mercantiles pero sobre todo políticas, para una sociedad a la que se pretende entender, y conducir, a partir de big data cosechados en las redes informáticas.

Suponer que todos los ciudadanos que tienen en común algunas preferencias tendrán siempre las mismas orientaciones ideológicas o políticas implica desconocer la singularidad de cada individuo y los cambios en la sociedad. Esa tendencia conduce a creer que, dentro de la diversidad que indican las preferencias personales, no hay diversidad adicional en las decisiones acerca de los asuntos públicos. Entender las posibilidades pero también las limitaciones del manejo de grandes datos es uno de los nuevos dilemas para la democracia.


trejoraul@gmail.com
@ciberfan

Imprimir

Comentarios