Header

Empresas de datos se vuelven cuerpos policiales en nuestra distopía moderna

Escrito el 04 Aug 2017
Comment: Off
El sector privado se está involucrando en la lucha contra la delincuencia. Es sorprendente cómo la realidad ha llegado a reflejar la ciencia ficción distópica. En la película Sentencia Previa (Minority Report) de 2002, Tom Cruise interpretó a un policía que trabajaba en una división especializada en Virginia conocida como PreCrime que capturaba a individuos basándose en el conocimiento previo de sus delitos proporcionado por videntes.

La vigilancia masiva y la tecnología representada en la película (publicidad personalizada basada en la ubicación, reconocimiento facial, periódicos que se actualizaban a sí mismos) son omnipresentes en la actualidad. El único aspecto en el que el director Steven Spielberg se equivocó fue en la necesidad de recurrir a videntes. En cambio, las fuerzas del orden pueden recurrir a datos y tecnologías proporcionados por compañías como Google, Facebook, Amazon y el grupo de inteligencia Palantir.

Vale la pena recordar la perspectiva distópica de estas capacidades en un momento en que el sector privado está cada vez más involucrado en el negocio de la lucha contra la delincuencia y la recopilación de inteligencia. La semana pasada, la Unión Americana de Libertades Civiles (ACLU, por sus siglas en inglés) y otros grupos de derechos humanos le pidieron a Amazon que dejara de vender su “orwelliano” sistema de procesamiento de imágenes Rekognition a las autoridades policiales, diciendo que estaban “propiciando el abuso en manos del gobierno”.

Dijeron que el sistema representaba una “grave amenaza para las comunidades, incluyendo a las personas de color y a los inmigrantes”. Los estudios han demostrado que el software de reconocimiento facial regularmente identifica erróneamente a las personas de color.

Esto es irónico, dado que las actividades policiales alimentadas por el análisis de grandes datos fueron impulsadas hace varios años por primera vez en EEUU como respuesta al racismo y al sesgo. La idea era que ayudaría a eludir los sesgos cognitivos humanos, como el vínculo entre la raza negra y la criminalidad.

Sarah Brayne, académica de la Universidad de Texas, estudió recientemente el uso de análisis de datos en el Departamento de Policía de Los Ángeles, que ha trabajado con Palantir para construir modelos predictivos de dónde podrían ocurrir crímenes. Ella descubrió que el análisis de datos había cambiado fundamentalmente la naturaleza de la vigilancia policial, reduciendo la reacción al crimen y orientándola más hacia la vigilancia masiva y la predicción de dónde podría ocurrir un crimen. Además, la fusión de múltiples fuentes de datos en los modelos de Palantir también significa que las personas que nunca han tenido un encuentro con la policía bien podrían terminar bajo vigilancia.

Avatar
Acerca del Autor