Q&A  | 

Kade Crockford, protegiendo la privacidad en la era del reconocimiento facial

"Una tecnología que puede seguir a una persona allá donde vaya, con quién y cuándo, es la perfecta herramienta de control social".

Tags: 'ACLU' 'Civil libertis' 'Civil rights' 'Face Recognition' 'Face surveillance' 'Kade Crockford' 'Privacy'

SHARE

Reading Time: 4 minutes

Kade Crockford es la Directora del Programa de Tecnología para la Libertad de ACLU Massachusetts. Kade investiga, crea estrategias, escribe y realiza labores de divulgación sobre cómo los sistemas de vigilancia y control afectan no sólo a la sociedad en general sino a sus principales objetivos: gente de color, musulmanes, inmigrantes y disidentes. Kade escribe en The Nation, The Guardian, The Boston Glob, WBUR y en su propio blog, privacysos.org/blog.

¿Puede explicarnos brevemente en qué consiste su trabajo?

Me dedico a escribir, investigar, divulgar y al lobbing con el objetivo de proteger los derechos y las libertades civiles en la era digital.

¿Cómo está presente el reconocimiento facial en nuestras vidas?

Está presente de dos maneras: a través de los gobiernos y las empresas. Algunas compañías están empezando a usar la vigilancia facial en tiendas para seguir los movimientos y los comportamientos de las personas, y para vigilar a individuos concretos que consideran susceptibles de robar. Otras compañías utilizan el reconocimiento facial como herramienta de verificación, por ejemplo el iPhone, que permite utilizar la cara para desbloquear el aparato. Los gobiernos, por otro lado, utilizan esta tecnología con, al menos, dos finalidades: identificar y rastrear. En el primer caso, la policía utiliza el reconocimiento facial para introducir la imagen de una persona desconocida en una base de datos de gente conocida, e intentar así identificarla. En el segundo caso gobiernos como el de China utilizan esta tecnología junto con cámaras de vigilancia para rastrear y catalogar los movimientos de las personas en el espacio público, sus hábitos y con quién se relacionan.

¿Cuáles son los pros y los contras?

Nadie, ni gobiernos ni empresas, deberían utilizar estas tecnologías en ausencia de protección legal que garantice los derechos y las libertades civiles. Por desgracia, la mayoría de los países del mundo carecen de leyes lo suficientemente amplias como para proteger nuestra privacidad biométrica. Esto no ha impedido que compañías y gobiernos se hayan lanzado de cabeza a la implementación de esta tecnología distópica en nuestras comunidades, muchas veces de manera secreta. En una sociedad libre las personas deberían gozar del derecho al anonimato en el espacio público, y esta tecnología es una auténtica amenaza para ello. Las personas libres la deberían rechazar.

¿Cómo nos podemos proteger de esta tecnología?

Deberíamos aprobar leyes que prohíban a los gobiernos la creación de redes de vigilancia facial que permitan el seguimiento y la catalogación de los movimientos de las personas en el espacio público. Cualquier sistema de vigilancia que se ponga en marcha puede ser objeto de abuso y mal uso. La única manera de evitar dicho abuso es, en primer lugar, impedir que los gobiernos construyan esa arquitectura de vigilancia. Como afirma el experto en seguridad Bruce Schneier, desde el punto de vista cívico no es higiénico permitir que un gobierno construya un sistema que puede llegar a ser utilizado para crear un estado policial. Eso es, en pocas palabras, la vigilancia facial.

¿Transformará el reconocimiento facial la forma en que vemos a los demás?

No si lo frenamos.

¿Cuáles son las reformas básicas que deberían realizarse a nivel mundial para evitar que esas nuevas herramientas creen una distopía?

Deberíamos prohibir que los gobiernos usen esta tecnología junto con cámaras de vigilancia para localizar personas e identificar hábitos tanto en tiempo real como en imágenes de video archivadas.

Su trabajo tiene como objetivo proteger y ampliar los derechos y las libertades civiles de las enmiendas primera y cuarta en la sociedad digital del siglo XXI. Aquellas protegen la libertad de pensamiento, religión y reunión así como el derecho a la privacidad, entre otros. ¿Representa el reconocimiento facial una amenaza para todo ello?

Si un gobierno puede utilizar determinada tecnología para seguir a todo el mundo en todas partes, detectar con quién se relaciona y cuándo, entonces ese gobierno tiene la perfecta herramienta de control social. Si la policía local quiere saber quién acudió a determinada protesta, esta tecnología lo hace tan fácil como apretar un botón. Si un alcalde quiere saber quién en su administración ha hablado con la prensa, puede utilizar esta tecnología para peinar horas de video y encontrar a la persona que visitó la redacción de un periódico. Si un policía corrupto quiere utilizar esta tecnología para saber si alguien está tratándose un problema de alcoholismo, y usar esa información contra alguien por motivos personales, esta tecnología lo hace realmente simple. Si los cuerpos de seguridad de un estado quieren monitorizar cómo las personas rezan, con qué frecuencia y dónde, esta tecnología lo automatiza en cualquier templo de un país. La privacidad es un deber en una sociedad libre, porque nos garantiza el espacio para vivir libremente, sin ser vigilados ni controlados por el estado. Esta tecnología representa una amenaza para estos derechos desde los cimientos.

¿Qué es el sesgo racial de los algoritmos de reconocimiento facial, y qué implica?

Existe un estudio de referencia del MIT, «Gender Shades«. [NdE: “[…]Existen diferencias muy importantes en la precisión al clasificar a mujeres de piel oscura y piel clara, así como hombres de piel oscura frente a los de piel clara, que se han de solucionar urgentemente si queremos crear algoritmos de análisis facial de uso comercial justos, transparentes y fiables[…]” (Gender Shades, 4 de febrero de 2018)].

¿Podemos detectar esta tecnología antes de que nos detecte a nosotros?

Tenemos que acabar con el secretismo que rodea la adopción de esta tecnología presionando a los organismos gubernamentales a informar sobre dónde y cómo la están usando, de manera que podamos trabajar con los cuerpos legislativos para que prohíban su uso.