Con grandes volúmenes de datos viene una gran responsabilidad-Por Michal Kosinski

Fuente Financial Times Por Michal Kosinski

El hecho de que los registros personales revelan tanto podría disuadir a los usuarios de servicios en línea, dice Michal Kosinksi

El gran volumen de datos es objeto de mucho bombo. La capacidad de manipular vastas franjas de información a gran velocidad está transformando a las empresas en todo el mundo. Pero como con todas las tecnologías hay riesgos. Todos los usuarios de la tecnología deberían tomar nota: con grandes volúmenes de datos viene una gran responsabilidad.

Un estudio reciente que llevé a cabo concluye que es posible crear instantáneas y sorprendentemente detallados perfiles psico-demográficas de los usuarios – que contiene información estadísticamente válida sobre la raza de una persona, la personalidad y su Coeficiente Intelectual [CI], la felicidad, el consumo de sustancias, su sexualidad, sus opiniones políticas y creencias religiosas – con la sola ayuda disponible públicamente de los “Me Gusta” de Facebook.

Una vez que tienes los datos, la construcción de un modelo que se actualiza de forma automática es simple. Se utilizaron los “Me Gusta” y los atributos personales extraídos de 58.000 perfiles de Facebook y medidos por nuestros propios cuestionarios – y no tuvimos ningún motivo para pensar que los resultados no eran representativos.

Las predicciones no dependían de pequeños conjuntos obvios de “Me Gustan”. Aunque el interés en la ciencia se asocia con una mayor inteligencia, una preferencia por papas fritas o una afición por la voz de Morgan Freeman son igualmente informativos. La agregación de miles de estos datos puede dar lugar a conclusiones de gran alcance a nivel individual.

Facebook es sólo el comienzo. Los “Me Gusta”son un ejemplo de una clase genérica del registro digital de los que se pueden hacer predicciones, tal como tweets, correos electrónicos, búsquedas en la web, historial de navegación, transacciones de tarjetas de crédito y compras realizadas tanto online como offline.

Como cualquier gran tecnología, estos poderes predictivos pueden usarse para el bien o no .

Una evaluación psicológica rápida y automatizada podría revolucionar la contratación de una persona. ¿Por qué no evaluar, con su consentimiento, a millones de candidatos antes de invitar a unos pocos al final de la entrevista? Esto podría ahorrar tiempo y dinero para los reclutadores y los candidatos. ¿Por qué no ajustar automáticamente los productos y servicios que se adaptan el perfil de una persona? Imagine al Financial Times [FT] focalizando artículos online sobre la base de la personalidad y el estado de ánimo. Una búsqueda de “salidas nocturnas en Londres”podría dar resultados diferentes para una mente abierta extrovertida y para conservadores introvertidos.

Hay, por supuesto, otro lado. La publicidad personalizada puede ser vista como beneficiosa para los usuarios y anunciantes, aunque podría inclinar la balanza del poder hacia la industria permitiendo la manipulación de sus clientes. Un usuario con inestabilidad emocional podría ser empujado hacia la compra de seguros innecesarios en función de su estructura psicológica. La previsibilidad de ciertas características incluso puede resultar peligrosa para las personas. Ya es posible que la orientación sexual de un usuario o su religión sea expuesta, poniendo en peligro su seguridad – y no sólo en los países menos liberales.

La comprensión de que estas listas, los registros de compras y los “Me Gusta” se puedan utilizar puede revelar tanto podría disuadir a muchos del uso de la tecnología online. No creo que la exclusión digital, sea algo buena – para los individuos o las economías. Existe un enorme potencial para predecir rasgos y preferencias individuales. Yo no soy responsable de la política, pero creo que hay que diseñar políticas y herramientas para minimizar los riesgos asociados. Dos principios deben guiarnos: la transparencia y el control.

En primer lugar, tenemos que ayudar a los usuarios a comprender cuáles de sus datos personales están ahí afuera, cómo se utilizan y cómo pueden ser utilizados. En segundo lugar, es necesario permitir a los usuarios tomar el control total de sus datos y decidir cómo se van a utilizar. Ambos aspectos pueden tener soluciones tecnológicas pero también requieren el conocimiento del usuario y estructuras jurídicas adecuadas.

Los usuarios deben tener el control total sobre los datos que pueden ser utilizados para hacer estas inferencias. Es un hecho ampliamente aceptado que sus datos se almacenan y son administrados por terceros, como empresas y gobiernos. Pero, ¿tiene qué  ser así? Imagine una red social o tienda en línea que no almacena los “Me Gusta” o los registros de compra. Estos se almacenan de forma segura en su ordenador o en su cuenta personal en la nube. Las predicciones se podrían conseguir, pero estarían bajo el control del individuo, permitiéndole a la gente aprobar las  inferencias personales resultantes.

Amo a Facebook. Se trata de una tecnología verdaderamente grande, que une a las personas. Quiero ayudar a garantizar que podramos seguir utilizándola con el conocimiento de que la información personal está a salvo y segura.

El autor es investigador del Centro de Psicometría de la Universidad de Cambridge . Es co-autor del estudio sobre los rasgos particulares con David Stillwell, también del Centro de Psicometría y Thore Graepel de Microsoft Research

El Estudio sobre lo que los usuarios de Facebook revelan sin saberlo


No se hasta qué punto es bueno que un candidato sea evaluado por sus “Me Gusta” en Facebook


Sobre Eduardo