Q&A  | 

Saleem Alhabash

«No somos conscientes del valor de los datos»

Tags: 'Beneficios de los datos' 'Data dividend' 'Data ethics' 'Ética de datos'

SHARE

Reading Time: 7 minutes

Saleem Alhabash es profesor adjunto en el Departamento de Publicidad y Relaciones Públicas de la Universidad Estatal de Michigan, donde también codirige el Laboratorio de Psicología de Medios de Comunicación y Publicidad (MAP, por sus siglas en inglés). Su investigación está centrada en los procesos y efectos de las nuevas redes sociales en el contexto de la persuasión. Concretamente, su investigación estudia las respuestas cognitivas y emocionales y los efectos psicológicos asociados al uso de las nuevas redes sociales.

Tras la propuesta del gobernador de California, Gavin Newsom, la idea de que a los consumidores se les pague por sus datos digitales se está convirtiendo en un tema candente. ¿Qué piensa sobre esto?

Creo que se trata de una afirmación realmente valiente. Si pensamos en términos económicos sobre la cantidad de dinero que se genera a partir de nuestros datos, nosotros, como consumidores, renunciamos al derecho de nuestra privacidad aun sabiendo que estamos formando parte de la estructura y el entramado social de la era digital, pero realmente no somos conscientes del valor de esos datos. Realizamos una especie de contrato transaccional.

Piense en todas las cosas importantes que obtenemos de las redes sociales, son parte de la vida cotidiana y el precio que estamos pagando por ese servicio «gratuito» es renunciar al derecho a nuestros datos.

Por eso creo que es justo que las empresas tecnológicas sean más socialmente responsables. Sabemos que las empresas tecnológicas, las agencias de publicidad y las empresas normales que utilizan nuestros datos para dirigirse a las personas están ganando dinero con ello, por lo tanto, debe haber alguna recompensa para las personas que son el motor de esta economía.

¿Cuánto cuestan nuestros datos? ¿Son todos los datos iguales o algunos valen más que otros?

No estoy preparado para dar una fórmula, porque no creo que esté facultado para hacerlo. Creo que los economistas deberían implicarse, pero no solo los economistas. Tiene que ser un grupo de personas de varias disciplinas, que incluya expertos en mercado y tecnología, pero también expertos en personas (p.ej., sociólogos y psicólogos). ¿Son todos los datos iguales? Claro que no. Me refiero a que algunos datos están disponibles online, pero algunos datos privados son más perjudiciales que otros en lo que se refiere a describirnos como consumidores. ¿Tienen el mismo valor que mi foto y mi nombre todos los datos recopilados y almacenados en 23ndMe? ¿Es más valiosa la dirección de mi casa que el tipo de películas que me gustan? Tenemos que lograr cierto equilibrio. Debemos ser conscientes del daño potencial que podría causarse a las personas por la privacidad de la información. Porque para algunos colectivos, su información privada podría ponerlos en una situación de gran desventaja.

Está bien tener mis fotos en las imágenes de Google porque tengo una web propia donde publico mis fotos, pero si mi rostro se asociase al lugar donde vivo tendría un gran problema porque es algo que no he elegido.

Creo firmemente que no todos los datos se crean de la misma forma, y los vendedores, anunciantes y empresas tecnológicas lo saben. Lo saben con seguridad porque tienen todos esos datos. Fíjese en 23andMe (análisis y pruebas genéticas de ADN) o en Fitbit, por ejemplo, que cuentan con datos de ADN o frecuencia cardíaca de las personas de periodos de 24 o 12 horas diarias, ¿cuántas cosas podría conllevar conocer tal nivel de información personal de un individuo?

No se trata solo de un único tipo de datos, sino de la capacidad de fusionar y asociar datos. De modo que si uso Fitbit y tengo acceso al calendario de Google de una persona y a los datos de su frecuencia cardíaca junto con lo que publica online, ¿a qué conclusiones podría llegar uniendo esta triangulación de datos particular?

¿Cuáles son los beneficios de tener múltiples puntos de datos para un mismo individuo? ¿Puedo buscar múltiples fuentes de datos y vincular un solo punto de datos para la misma persona con otras fuentes de datos a lo largo del tiempo? No solo los niveles de datos son distintos, sino también los niveles de fusión y triangulación de los datos y las posibilidades que de ello resultan.

¿Quién debería respaldar el beneficio de los datos? ¿Solo las empresas tecnológicas o cualquier empresa que se beneficie del conocimiento de nuestro comportamiento?

Creo que la mecánica para eso va a necesitar algo más que debate y deliberación. Las personas acaban de normalizar la idea de que debería haber responsabilidades más allá de los movimientos y gestos de relaciones públicas.

Cualquier empresa que se beneficie ganando dinero con datos personales debe responsabilizarse en el sentido de decir cuánto cuesta eso en el mercado.

¿Cree que en el futuro pagaremos por proteger nuestros datos? Y si así fuese, ¿se está convirtiendo la privacidad en un artículo de lujo que solo unos pocos podrán permitirse proteger?

La brecha digital no es algo nuevo. La diferencia entre los «que tienen» y los que «no tienen» siempre ha repercutido en las tecnologías digitales y las tecnologías de la comunicación y la información.

No creo que los datos y la privacidad sean muy distintos del acceso a los teléfonos móviles o a servicios digitales como las tecnologías físicas o las basadas en la nube, pero sí creo que el intercambio de privacidad por dinero es una preocupación válida.

Podría decir a Facebook que les voy a pagar una cantidad X de dinero cada mes y que no quiero que nadie toque mis datos, que me saquen de sus algoritmos y de sus conjuntos de datos, y que aun así quiero seguir participando en la comunidad de Facebook. Sin embargo, siempre habría personas que no podrían permitirse hacer esto, por lo que sus datos se convertirían en un producto de mercado. Si pertenezco a un determinado grupo étnico, ¿me tratará de una manera distinta el algoritmo de las redes sociales? Se están llevando a cabo experimentos en informática y ciencias de la información que muestran como cambiar determinados parámetros dentro de un anuncio puede suponer una diferencia en quién adquiere el producto. Existe incluso otro nivel: el acceso a la información.

 

¿Se diferenciará entre quién obtendrá acceso premium a la información de mayor calidad? ¿El algoritmo será equitativo en términos de comprensión del contexto social que hay detrás de los estereotipos culturales y sociales? Si formo parte de un grupo étnico marginado, ¿recibiré la misma cantidad de anuncios de préstamos financieros de un banco que alguien de un grupo predominante? Si resido en un vecindario que se caracterice por tener un nivel socioeconómico bajo, ¿serían diferentes las condiciones del préstamo que si viviera en una zona acomodada de la ciudad? Todas estas son cuestiones urgentes en este momento porque con la proliferación de la gestión de algoritmos, la publicidad informática y la adquisición de programación, los datos de los consumidores han dejado de ser ambiguos.

Podemos acceder a esos datos y, por lo tanto, todo el concepto de residuo publicitario o exposición accidental se vuelve insignificante e irrelevante, porque pone de manifiesto todos estos problemas éticos en torno a si le han ofrecido esta tasa de interés por tratarse de una persona marginada o si es solo un algoritmo. ¿Quién tiene la responsabilidad? ¿Es el anunciante el que decide llegar a las personas de esa manera o es la empresa tecnológica la que ha creado el sistema que permite comportamientos potencialmente discriminatorios?

Creo que podrían darse más brechas digitales dentro del ámbito de la privacidad y la capacidad de un algoritmo para actuar de manera discriminatoria. Es necesaria la creación de un reglamento que se centre principalmente en el interés del consumidor. ¿Quién defiende a los miles de millones de usuarios de las redes sociales? En última instancia, tenemos que pensar de manera más exhaustiva en la creación de un sistema que no solo sirva y beneficie a las empresas tecnológicas, permitiéndoles enriquecerse y beneficiarse a costa de la información y los datos del consumidor. Debemos tener en cuenta a los consumidores.

La investigación científico-social y la investigación médica han sido reguladas por códigos éticos implantados por las juntas de revisión institucional (o juntas de ética). Pero gran parte del trabajo en ciencias informáticas carece de eso, ya que técnicamente no se trata de una investigación que trate de los seres humanos. ¿En qué momento vamos a pensar que «esto es un problema real y tenemos que someter nuestra investigación y experimentos académicos e industriales a una serie de pautas éticas»? ¿Cómo podemos crear pautas éticas para este tipo de trabajo? Estamos realizando un experimento en el que vamos a poner algunos estímulos en Instagram y ver cómo responden las personas. Técnicamente, no tenemos contacto directo con ninguno de los humanos del estudio. Sin embargo, nos estamos poniendo en contacto con sus datos, con pistas sobre sus modos de vida. En este caso, trabajamos junto con nuestro IRB local para obtener la aprobación del protocolo de estudio, de manera que reconozca los riesgos y los compare con los beneficios para la sociedad y las personas.

El papel de unas pautas éticas es identificar cuáles son los niveles de riesgo y cuáles los beneficios.

Y si los beneficios superan a los riesgos, entonces habrá una base ética sobre la cual se podrá llevar a cabo ese tipo de trabajo. Pero, ¿no es eso igual a lo que hace Cambridge Analytica de usar los datos de las personas para que cambie de opinión sobre algo?

Debe haber mayor inversión, debate y aplicación de pautas éticas en la tecnología y en las industrias relacionadas con la tecnología. Y, lo que es más importante, tenemos que invertir en formar a los futuros profesionales de la industria tecnológica, publicitaria y de marketing sobre los matices éticos y la toma de decisiones éticas. Aún no se hace eso lo suficiente. Tenemos que cambiar el pensamiento de considerar el mundo como ceros y unos para comprender cómo están afectando realmente nuestras acciones a la vida de las personas y contar con grandes pautas éticas y morales para la sociedad, para los individuos y para el mundo en general.

Según su estudio reciente, los estudiantes pedirían una media de 2,076 dólares y los adultos 1,139 dólares por desactivar su cuenta de Facebook durante un año. Es probable que las personas no paguen por Facebook, pero es evidente que le dan valor. ¿Es correcto, entonces, que paguemos por las redes sociales con nuestros datos? ¿Por qué las personas dan tanta importancia a Facebook?

Existen varias razones. Generalmente, cuando hablamos de la privacidad y la seguridad de cualquier tipo de tecnología, ya sea usando una aplicación móvil o respondiendo a correos electrónicos de phishing, el usuario medio muestra una actitud fatalista con respecto a dar sus datos. Comprenden los riesgos. A nadie de mi clase le importa cuando hablo de la cantidad de datos que las plataformas de redes sociales tienen de nosotros. Están plagadas de datos, pero eso no es ninguna sorpresa.

La gente sabe que todos sus comportamientos están registrados, transcritos y archivados. La diferencia está en ver el alcance de lo que las empresas tecnológicas o los publicistas hacen con ellos, pero muchas personas piensan que eso es una batalla perdida de antemano.

Simplemente no tienen posibilidad alguna de actuar al respecto. «Es demasiado complicado, no entiendo cómo funciona». Comprendo que están recopilando mis datos, pero no voy a leer todos los términos del servicio antes de darle a «Aceptar».

La otra cara de la moneda es que esas tecnologías han pasado a ser una extensión de nuestras vidas y de nuestra manera de pensar. Han pasado a formar parte de nuestra rutina diaria. Se han convertido en un hábito y los hábitos son extremadamente difíciles de dejar.

Toda la industria del marketing gira en torno a la comprensión de los hábitos de las personas y en aprovechar ese conocimiento para lograr objetivos concretos. La tecnología no es diferente. Nos convertimos en usuarios habituales, y a pesar de lo que sintamos por la tecnología, sigue siendo parte de quiénes somos y de lo hacemos cada día.

Suceden muchas cosas en las redes sociales y aquellas personas que están intentando una desintoxicación digital sentirán a menudo algún tipo de aislamiento en los entornos sociales porque alguien hablará de algo que se habrá vuelto viral o que se compartió en Instagram, Snapchat, etc. De modo que no se trata únicamente de mi relación con un dispositivo o la tecnología. También hay un gran componente social, no solo personal. Es parte de quiénes somos como seres sociales. Todos queremos encajar, hacer cosas que nos aporten popularidad, admiración y nos hagan sentirnos parte de algo. Las redes sociales se han configurado como el lugar donde lograrlo, independientemente de si se trata de algo real o ficticio, son el lugar donde ejercemos nuestros instintos sociales, relaciones y donde encontramos nuestra recompensa.