Q&A  | 

¿Podríamos sobrevivir si se borran nuestros datos digitales?

"La pregunta hoy no es si sucederá [poderes y empresas autocráticos con acceso a enormes bases de datos para acallar a la oposición y acosar a sus enemigos], sino cuándo y dónde."

Tags: 'colin koopman' 'data aggregation' 'informational persona' 'inteligencia artificial' 'mass surveillance' 'persona digital' 'recopilación de datos' 'vigilancia'

SHARE

Reading Time: 5 minutes

Colin Koopman escribe fundamentalmente sobre política y ética de las tecnologías de la información contemporáneas. Contrarrestando la suposición generalizada de que toda tecnología de la información contemporánea es radicalmente nueva, explora los precedentes históricos de las técnicas y formatos en los que se basan los sistemas de datos high tech de hoy en día. Estos precedentes nos demuestran que hace mucho vivimos envueltos en datos.

Koopman es profesor y director de Filosofía en la Universidad de Oregon, donde dirige además el Programa de Nuevos Medios y Cultura. Ha escrito tres libros, el último titulado How We Became Our Data (Cómo nos Convertimos en Nuestros Datos), y numerosos artículos para The New York Times, Aeon, Public Books, The Philosophical Salon y otros.

En su libro How We Became Our Data: A Genealogy of the Informational Person, argumenta que la aparición de sistemas de registros de datos a gran escala, como certificados de nacimiento y números de seguridad social, fue el comienzo de la persona informativa en la que todos nos hemos convertido. Pero, ¿eran los objetivos de ese registro pre-digital diferentes de los objetivos del estado de vigilancia actual?

No cabe duda de que la primera generación de sistemas de registros de datos a gran escala (y la versión beta anterior) se implentó con fines diferentes a los de la vigilancia masiva contemporánea.

Los primeros sistemas de registro, de los cuales yo investigo principalmente los de principios del siglo XX en los Estados Unidos – aunque la historia es bastante similar en gran parte de Europa- se implementaron mayormente en aras de proyectos de bienestar e igualdad.

Fue claramente el caso de los sistemas de registro de la seguridad social llevados a cabo bajo en los Estados Unidos en aras de la estabilidad social. Los certificados de nacimiento, al menos en los EE. UU., sirvieron para muchos intereses y propósitos, pero el principal de ellos fue proporcionar estadísticas vitales más precisas con el fin de realizar un mejor seguimiento de las campañas de salud pública (especialmente en relación con bebés y niños).

¿Y cuáles son los objetivos de los sistemas de vigilancia actual?

Por el contrario, gran parte de lo que entendemos por vigilancia masiva contemporánea tiene en mente algo bastante diferente como es la seguridad del Estado.

En la actualidad, la vigilancia no tiene como objetivo mejorar la vida de los ciudadanos, sino más bien su seguridad mediante la prevención de posibles amenazas a la vida y la propiedad.

Dicho esto, quizás es más interesante la forma en que los sistemas de datos, dada su gran portabilidad, acaban teniendo consecuencias no previstas por sus desarrolladores.

Por eso, el número de seguridad social se ha acabado convirtiendo no sólo en un dispositivo de registro en una institución gubernamental relativamente pequeña de EE.UU., sino en un estándar para identificar ciudadanos, empleados, estudiantes y otros sujetos en una amplia gama de organizaciones gubernamentales y comerciales.

Así, los certificados de nacimiento en muchos países se han convertido en documentos omnipresente que representan la raíz informativa de las miles de bases de datos en las que se han archivado nuestras vidas.

¿Por qué y cuánto importan los datos que damos a la forma en que vivimos?

Todos esos datos son muy importantes en la forma en que vivimos.

Imagínese esta pesadilla de ciencia ficción: sus datos se borran permanentemente de tal manera que usted (pero sólo usted) no puede volver a tener datos nunca más, lo que significaría no sólo la pérdida de su DNI, sino la imposibilidad de volver a tener uno o una cuenta bancaria.

En este escenario, estaría completamente debilitado. Después de solo unas pocas semanas, ya no podría realizar transacciones con su empleador, su banco, su tienda de comestibles y, finalmente, con ninguna de las agencias de servicios sociales que pueden interactuar con usted únicamente en base a identificadores informativos.

Decididamente, hoy todos vivimos a través de nuestros datos. Son una base tecnológica para casi todo lo que hacemos y, en conjunto, son más un refugio dentro del cual vivimos y sin el cual apenas podríamos subsistir.

Pero realmente no parece importarnos mucho, ¿no? En diciembre de 2019, las ventas de Amazon Ring casi se triplicaron a pesar de los hackeos, las brechas de seguridad y los ataques que experimentaron sus usuarios. De hecho, el periodista de The New York Times, Brian Chen, afirmó que a la gente no le importa que su dispositivo Ring los esté espiando.

Si a la gente no le importa el cambio climático global, ¿significa eso que quienes sí pensamos en ello deberíamos aceptar que no es un problema? Por supuesto que no.

El problema en ambos casos no es que a la gente no le importe, es que les resulta muy fácil fingir que no les importa. Y en ambos casos debemos evitar medir la magnitud del problema por lo que hacen las personas, sino por lo que sabemos que les sucederá si no se hace nada.

Por lo tanto, la pregunta a la que enfrentamos hoy no es cómo podemos hacer que todos se preocupen por la vulnerabilidad de sus datos, sino qué podemos hacer todos para protegernos a nosotros mismos y a los demás.

En especial, debemos ser más activos para encontrar formas de proteger a las personas en situación más precaria de nuestra sociedad, de manera que no se vean lastradas por los sistemas de datos en los que a menudo están inscritas sin saberlo.

Esto incluye no solo problemas de vigilancia y privacidad. También involucra cuestiones de sesgo y discriminación que están integradas en los formatos y operaciones de procesamiento, comúnmente llamados algoritmos, de nuestros sistemas de datos.

¿Qué ejemplos hay del lastre que supone para algunos la digitalización de la persona?

Los ejemplos se están acumulando.

Uno es el motor de procesamiento de solicitudes de empleo con sesgo de género de Amazon, que descarta los currículums con la palabra «mujeres» o «femenino». Otro son los sistemas de reconocimiento facial, muchos de los cuales clasifican con frecuencia y erróneamente (o identifican erróneamente o no reconocen los rostros de) las minorías raciales.

Los investigadores a menudo señalan la forma en que los sistemas de aprendizaje automático sirven para reproducir el sesgo ya existente en el uso de conjuntos de datos históricos.

Pero otro aspecto es la forma en que los sistemas de registro de personas sólo las registran y reconocen de acuerdo con las categorías predefinidas que estructuran las bases de datos. Sin embargo, muchos sistemas no permiten la categorización de razas mixtas, pero, aun así, procesan los datos en términos de categorización racial. Otros sistemas no permiten la identificación de género neutro o no conforme al género, pero exigen a la hora de almacenar una identidad de género que los usuarios saben que es inexacta o inadecuada.

Podría pensarse que, a nivel individual, estos ejemplos son relativamente inofensivos. Quizás en algunos casos sea cierto. Pero, en conjunto, este tipo de formatos deficientes sirve para someter a grupos enteros de personas informativas a procesos algorítmicos que sólo pueden producir resultados que no son adecuados para sus vidas.

Según Steven Feldstein, del Carnegie Endowment for International Peace, la inteligencia artificial para la vigilancia se ha extendido más rápido de lo que esperaban los expertos mundiales. Al menos 75 de los 176 países en el mundo la están utilizando activamente. Sus usos incluyen smart cities (56 países); reconocimiento facial (64 países) y vigilancia inteligente (52 países). Nos preocupa la extracción de datos por parte del big-tech, pero ¿dónde estamos en términos de vigilancia gubernamental?

Nos encontramos en un momento en el que la vigilancia gubernamental se está implementando a una velocidad impresionante.

Sería difícil discernir quién gana en la carrera entre el despliegue de la vigilancia gubernamental y el de la vigilancia corporativa de datos. Pero más importante aún es cómo ambas están trabajando mano a mano para producir tecnologías que nos están convirtiendo cada vez más, incluso nuestras acciones e ideas más pequeñas, en bits de datos almacenables.

¿Qué sucederá en 25 años cuando algún demagogo o supercorporación autocrática se instale en los centros de poder de lo que habían sido países libres y tolerantes? Un régimen así tendrá acceso a enormes cantidades de datos con los que callará rápidamente a su oposición y abusará habilmente de sus enemigos. La pregunta no es  si esto sucederá, sino cuándo sucederá y dónde.

¿Por qué debería preocuparnos el convertirnos en una Persona Informativa que cede su privacidad y datos personales a cambio de aplicaciones que, teóricamente, simplifican nuestras vidas?

Hay dos tipos de peligros que todos deberíamos tomarnos en serio.

El primero se refiere a los daños que podemos sufrir como individuos cuando nos sumergimos en la pesadilla burocrática del robo de identificadores personales. Pero el segundo tipo de peligro es mucho más grave. Son los daños a los miembros de grupos particulares de personas y especialmente a aquellos grupos que ya son propensos a un trato desigual.

Nuestras sociedades se caracterizan por una marcada desigualdad. Quienes ya viven bajo la presión de los sistemas sociales que hemos creado verán cómo esas cargas aumnetan a medida que se implementen las tecnologías de rastreo, registro y captura.

Además, se volverá cada vez más difícil entender y darnos cuenta de cómo se están produciendo las desigualdades propiciadas por los datos. Y si no podemos conceptualizar la génesis de los daños que estamos produciendo, ¿cómo vamos a mitigar o reparar esos daños?

Esto debería preocuparnos a todos, pero quizás más especialmente a aquellos de nosotros que seremos los beneficiarios involuntarios de estos aumentos de la desigualdad impulsados ​​por los datos.