Redada en 2011
Policía solicitando identificación a varias personas en Madrid, en 2011. Foto: Olmo Calvo / Fronteras Invisibles

Policía
Solucionismo punitivista, el clima policial perfecto para Vox

Las tecnologías son dispositivos culturales, fuentes de poder blando e inteligente, que permiten un Estado represivo perpetuar una “economía de libre mercado”

Uno de los síntomas de la penetración de la ideología neoliberal en las instituciones del Estado español se muestra en la delegación de sus funciones fundamentales a las corporaciones. Nublados por esta doctrina económica, las élites del país no han cesado de conceder cuotas cada vez más amplias al poder privado, en el que cada vez destacan más las plataformas tecnológicas. Uno de los ejemplos más importantes, aunque escasamente estudiado, es el de la vigilancia y la seguridad ciudadana.

Bajo la retórica sobre la eficiencia o del ahorro (dogmas del neoliberalismo) y aprovechándose de la falta de claridad jurídica e inactividad de las autoridades públicas, compañías privadas como Eurocop están haciéndose cargo tanto de la infraestructura digital como de las nuevas tecnologías policiales, dando lugar a una suerte de incipiente “Estado Policial 2.0”. Al respecto no solo surgen dudas sobre los oscuros procesos de licitación en incontables ayuntamientos o de la manera en que se adjudican. Sino también sobre la naturaleza de un conjunto de tecnologías, que han sido señaladas como racistas, clasistas o patriarcales por instituciones públicas, cortes judiciales y organizaciones civiles de todo el mundo. Por eso, hoy vamos a adentrarnos en importantes cuestiones que rodean la expansión de lo que hemos llamado solucionismo punitivista.

La historia imperialista y clasista de las tecnologías autónomas

Las tecnologías de policía predictiva, las cuales se han comenzado a testear e implementar en España, forman parte de lo que de manera más amplia se conoce como Sistemas Automatizados de Toma de Decisiones (SATD). De manera simplificada, estas se podrían describir como tecnologías compuestas de potentes algoritmos y vastos datasets destinadas a ofrecer modelos y estimaciones basadas en inferencias estadísticas y cálculos matemáticos. Estos sistemas están siendo ampliamente utilizados por agentes públicos, en estrecha alianza con el sector privado, para llevar a cabo tareas tan diversas como la predicción de terremotos, la asignación de crédito hipotecario o la concesión de ayudas y prestaciones sociales. Más allá del tecnooptimismo imperante, lo cierto es que existe un amplio reconocimiento del potencial que tienen estas tecnologías, por ejemplo, para permitir una asignación de recursos más justa y eficiente (esto es, una planificación económica progresista), sin depender de estructuras centralizadas y burocratizadas. Obviamente, como cualquier otra tecnología, los SATD no están exentos de ideología ni de carga política.

La génesis de los sistemas de policía predictiva se encuentra, junto con los de la criminología, en los sistemas de dominio colonial, clasista y racial de los Imperios Británicos y del segregacionismo estadounidense

A pesar de su aspecto vanguardista y futurista, la historia de los sistemas automatizados de toma de decisiones se remontan a los avances del método estadístico y de la recopilación masiva de datos, acelerada durante los siglos XIX y XX. De manera más específica, la génesis de los sistemas de policía predictiva se encuentra, junto con los de la criminología, en los sistemas de dominio colonial, clasista y racial de los Imperios Británicos y del segregacionismo estadounidense. Siguiendo una lógica capitalista y determinista, estos regímenes consideraban que el cuestionamiento de la autoridad y el delito no respondía a causas sociales o económicas, sino a decisiones individuales. Por lo tanto, dicha aproximación a la cuestión de la criminalidad no consideraba como objetivo ulterior un reparto equitativo de la riqueza o la reinserción, sino que apostaba por el puro y simple punitivismo. Esta inspiración ideológica, unida al creciente descontento social y a masivos movimientos poblacionales (entre 1880 y 1930 llegaron a Estados Unidos cerca de 30 millones de inmigrantes) derivó en una carrera hacía la vigilancia, la represión policializada y a su tecnificación. 

Estos sistemas de dominación se afanaron en crear sistemas de recopilación y clasificación de los datos de sus poblaciones, fuertemente subalternizadas. Por mencionar un conocido ejemplo, el sistema aún vigente de identificación mediante huella dactilar surgió como herramienta de control colonial británica en la India. Afín de perfeccionar sus técnicas de dominación, los diferentes gobiernos financiaron investigaciones en diversos campos, perfeccionándose ciencias como la criminología (conocido es el determinismo biológico del racista Cesare Lombroso), la sociología (pensemos en la ecología humana de la escuela de Chicago) o la computación (IBM comenzó su andadura clasificando detenidos y continuó perfeccionándose entre otros junto al régimen nazi con el que colaboró). En resumen, la andadura y puesta en marcha de estas ciencias tiene un largo recorrido junto a los cuerpos policiales de países capitalistas, más interesados en vigilar y castigar que en emprender reformas equitativas.

El segundo gran momento de expansión de las técnicas de vigilancia y dominación tecnologizadas corre de la mano del surgimiento y expansión del neoliberalismo en los Estados Unidos

El segundo gran momento de expansión de las técnicas de vigilancia y dominación tecnologizadas corre de la mano del surgimiento y expansión del neoliberalismo en los Estados Unidos. Por un lado, los seguidores de esta doctrina buscaban recortar el peso del Estado, aumentando con ello exorbitantemente el gasto público, y emprendiendo una alocada carrera de recortes en servicios públicos. Por otro lado, el neoliberalismo exacerbó los rasgos punitivistas y racistas de los regímenes anteriores, dando comienzo a las llamadas iniciativas de War on Crime y War on Drugs, es decir, el uso indiscriminado de tecnologías militares en la vida civil y el comienzo de la era de la encarcelación masiva. Junto a este interés por recortar y externalizar la prestación de servicios públicos, castigando así a las poblaciones subalternas, concurrieron diversos avances técnicos y científicos que permitirían la ubicuidad de ordenadores personales, aumentando a su vez el potencial procesamiento computacional de datos.

Pensemos en dos ejemplos actuales dentro de los sistemas policiales de predicción de delitos que lo atestiguan. Por un lado, la calidad de un SATD no depende solo del algoritmo, sino de los datos que lo alimentan. Tal y como han señalado activistas, e incluso cortes judiciales en Estados Unidos y el Reino Unido (países donde estas tecnologías están más extendidas), los datasets generados por la policía reflejan los prejuicios clasistas y prácticas racistas ampliamente extendidas en los cuerpos de seguridad. El hecho de que una persona considerada como latina o afroamericana tenga entre un 25% y un 50% más de probabilidad de ser detenido, o registrado, resulta en un mayor volumen de detenciones por causas relacionadas con drogas, lo que no se corresponde con la práctica delictiva real. En este sentido, un estudio arrojado por el Washington Post también destaca que la población blanca trafica más. Y no al revés.

Los algoritmos alimentados por estas series estadísticas asignan un mayor riesgo de comisión de delitos a individuos y poblaciones racializadas o empobrecidas

En suma, el problema subyacente es que buena parte de los crímenes cometidos por las clases más privilegiadas no son considerados como tales, sino que suelen entenderse como infracciones o faltas administrativas. El sesgo a nivel de calle, o el que viene determinado por la estructura legal, contribuye a crear unos datasets distorsionados, donde figuran desproporcionadamente los colectivos racializados. Los algoritmos alimentados por estas series estadísticas asignan un mayor riesgo de comisión de delitos a individuos y poblaciones racializadas o empobrecidas, afectando seriamente, entre otras cosas, a la asignación de zona de patrulla o las recomendaciones sobre la concesión de libertad condicional a un sujeto. Los datos sesgados obtenidos por actuaciones policiales racistas derivan en nuevas decisiones algorítmicas racializadas, alimentando un círculo vicioso, oculto tras el velo de la falsa neutralidad tecnológica. Por tanto, la novedad es que las soluciones tecnológicas punitivas han dejado de estar reducidas a la criminalización de los migrantes en las fronteras externas de los países, aplicándose también en el interior de los Estados, ahora contra las clases proletarias.  

¿Algoritmos para la reafirmación de la fuerza del Estado o la uberización de la policía?

Para los regímenes neoliberales, como el del Estado español, la pobreza o la mala conducta cívica son problemas a resolver mediante solucionismo tecnológico y violencia organizada. En otras palabras: “los ‘solucionistas punitivos’ utilizan la vasta infraestructura de vigilancia del capitalismo digital para frenar nuestras actividades diarias y castigar cualquier transgresión”. Un Estado fuerte, duro, represivo... es la forma mágica de los capitalistas para perpetuar una “economía de libre mercado” en el neoliberalismo tardío. En este sentido, las tecnologías son dispositivos culturales, fuentes de poder blando e inteligente, que permiten a esta fórmula mágica tener éxito.

¿Alguien puede imaginarse el peligro que tiene diseñar y desarrollar tecnologías cuyo uso racista y punitivista ha sido ampliamente demostrado para solucionar problemas sociales y políticas en un momento en que los partidos filofascistas, al estilo Vox, están adquiriendo cada vez más peso, no ya en el Estado, sino en los distintos ayuntamientos y comunidades autónomas? En un momento en que los Cuerpos de Seguridad del Estado se están radicalizando en la dirección de este partido, ¿alguien cree que es una buena idea dotarles de tecnología predictiva para continuar su agenda de culpar a los migrantes de problemas que provoca el capitalismo? Y, por último, ¿no son las fuerzas reaccionarias y las tecnologías predictivas parte del mismo fenómeno interno del capitalismo, que trata de  asegurar su supervivencia?

 Discursos como el del “inmigrante peligroso”, asentado en la prensa generalista, no sólo proporciona una justificación moral para vigilar a los migrantes o a las poblaciones pobres, sino que está contribuyendo a cambiar el sistema tradicional de prevención del delito

Además de las consideraciones más sociológicas y relacionadas con la ciencia política sobre el papel del Estado en el capitalismo español, también existen otras cuestiones en las que podemos fijarnos para delimitar los peligros de continuar usando tecnologías racistas en un clima como el actual. Los estudios señalan que discursos como el del “inmigrante peligroso”, extremadamente asentado en la prensa generalista, no sólo proporciona una justificación moral para vigilar a los migrantes o a las poblaciones pobres, sino que está contribuyendo a cambiar el sistema tradicional de prevención del delito dentro del propio estado nacional. A su vez, la propaganda ultraderechista vincula la migración con crisis socioeconómicas, desórdenes o incluso delitos, incrementando la vigilancia policial de los migrantes (especialmente, en las  fronteras o en las abundantes redadas callejeras), pero también cambia progresivamente el foco de interés político o burocrático hacia acciones anticipatorias, imponiendo así la lógica de precaución, la anticipación y la preparación ante posibles ataques a la seguridad nacional. 

Esta tendencia no es perceptible en los discursos reaccionarios, sino que también puede encontrarse de una manera más sutil en las sesiones de tecnología predictiva sesgadamente punitivas celebradas con la Guardia Civil, la Policía Nacional, Ertzaintza, Mossos d'Esquadra y Policía Foral de Navarra. También en las declaraciones de las distintas patas de los Cuerpos de Seguridad. En España, por ejemplo, la Policía Nacional ha recurrido a los algoritmos para hacer más eficiente y efectivo el trabajo de sus agentes, indicando que Veripol, una herramienta que detecta denuncias falsas de robos, tiene un 90% de efectividad. Las tecnologías de este tipo también se naturalizan y divulgan en artículos de prensa, sin ninguna referencia histórica, para indicar que pueden predecir todo tipo de crímenes. Incluso desde las voces académicas dentro del Consejo de Estado y la Secretaría de Estado de Seguridad se ha señalado “los beneficios que puede reportar la aplicación de modelos predictivos en la gestión de los recursos policiales”. Nos referimos al recién ascendido a Coordinador de Innovación Tecnológica y Ciberseguridad del Cuerpo Nacional de Policía.

A pesar del manto de cientificidad y de neutralidad con la que se quieren cubrir estas aparentemente nuevas tecnologías desde todos los frentes, lo cierto es que portan una carga política excepcional, estando firmemente ancladas en la ideología clasista y racista que envolvió el War on Drugs de los Estados Unidos. Por ejemplo, uno de los más insignes abanderados del partenariado público-privado en materia policial en España es el colaborador de Eurocop y actual Jefe de Policía de Palma, Jose Luís Carque. A esta privatización, criminalización de la pobreza y automatización de la represión se le ha venido a denominar, no sin cierta ironía, como de “participación vecinal” por medio de “policía de proximidad”. Conocido como programa Proxpol, según la prensa levantina representa “una nueva filosofía de intervención policial de acercamiento al ciudadano.” 

El modelo que proponen estos teólogos de la policía predictiva no es otro que de la policía de Nueva York, uno de los cuerpos policiales más señalados por su racismo y clasismo estructurales

No obstante, una lectura atenta de la propia documentación de Eurocop describiendo el programa Proxpol revela que el modelo que proponen estos teólogos de la policía predictiva no es otro que de la policía de Nueva York, uno de los cuerpos policiales más señalados por su racismo y clasismo estructurales. Huelga decir que este cuerpo es también uno de los mayores clientes globales de compañías de software predictivo, cuyo uso, por cierto, no ha hecho sino acrecentar las denuncias por racismo.

Como vemos, las aplicaciones predictivas vienen a ofrecer soluciones digitales (esto es, fórmulas matemáticas) a problemas sociales, abriendo la puerta a la privatización y mercantilización de cruciales funciones públicas.  Tal y como hemos detallado, cuerpos de policía de toda España se han lanzado a implementar muchas de estas tecnologías sin ni siquiera contar con una cierta claridad jurídica. Por mencionar algunos vacíos que llaman la atención, no contamos con un procedimiento real que obligue a las administraciones a evaluar el impacto social de los algoritmos. Tampoco con una agencia que supervise, de seguimiento y evalúe los algoritmos corporativos, usados por los cuerpos policiales. Desconocemos el alcance real de la extensión de software predictivo y de reconocimiento automatizado entre los cuerpos de policía. Ahora bien, contamos con otra serie de evidencias empíricas que ni siquiera se han analizado en el debate público.

Como muestran los estudios criminológicos, el éxito de los enfoques predictivos dependen en buena medida de la determinación y precisión de las medidas represivas o preventivas policiales que siguen al pronóstico algorítmico, no sólo de la tecnología utilizada. De este modo, la cabeza de un miembro de cualquier cuerpo policial, esas que como hemos visto en las últimas semanas han decidido dar palizas a civiles en función de su atuendo, se convierte en una caja negra.

Pongamos que las evaluaciones de riesgo de un sistema predictivo pueden ofrecer varios tipos diferentes de resultados, los cuales serán aplicados en términos de equidad o de precisión. De hecho, expertos en criminología sostienen que no puede haber ninguna solución técnica que tenga en cuenta todas las opciones y dicotomías. Y menos si tenemos en cuenta la agencia de los agentes. En base a distintos hallazgos académicos, también puede afirmarse que la capacidad del software predictivo para neutralizar la subjetividad del trabajo policial suele pasar por alto las luchas en curso del oficial de policía de turno para evitar que se uberice su trabajo y mediar así en las predicciones. Esto significa que el policía se reconoce como un trabajador, el cual es más proclive a seguir órdenes del patrón, superior en el cuerpo y con una ideología determinada, que a obedecer al algoritmo. Ahora bien, el hecho de obviar las predicciones algorítmicas sobre una decisión policial no significa que un miembro del cuerpo pueda tener acceso a una cantidad enorme de datos y técnicas de vigilancia personalizadas. De hecho, esta es la ventaja que ofrecen empresas como Eurocop, cuyo negocio principal es el software policial.

Por lo tanto, si bien algunas predicciones indican que las fuerzas policiales profesionales no tienen por qué ser una característica inevitable o permanente de los sistemas de justicia penal del futuro, cabe reflexionar sobre lo que podría permitir que ambos (humano y máquina) coexistan pacíficamente, en lugar de aceptar la erosión de los Cuerpos del Estado. Por otro lado, existen procesos históricos que, al menos en España, nos indican que la policía no será sustituida por un algoritmo. En todo caso, como alertan distintos estudios, asistiremos al auge de un estado cada vez más gerencial, asentado sobre la vigilancia policial preventiva excesiva, que incluso puede amenazar la relación que la ley debe mantener con los sujetos jurídicos.

Ese proceso de dataficación y automatización de la seguridad se está desarrollando en la sombra. La inclusión de tecnologías predictivas, de reconocimiento biométrico, y de gestión masiva de datos por parte de cuerpos policiales requiere la apertura de un debate público transparente, que lanze sin temor preguntas de relevancia. ¿Hasta qué punto es legal o deseable que este tipo de tecnologías pasen a formar parte del día a día de la policía? ¿Se trata de medidas proporcionadas y adecuadas a la finalidad de estos cuerpos o por el contrario suponen una injustificada violación de derechos fundamentales y de delegación de funciones a un software privado? ¿En qué medida queremos que agencias privadas suplanten importantes funciones públicas? ¿Quién supervisará y monitorizará el desenvolvimiento de estos algoritmos? ¿Ante quién puede acudir la ciudadanía para ejercitar sus derechos ante posibles casos de discriminación algortímica a manos de la policía? ¿Quién será el responsable por las posibles consecuencias negativas de los mismos?

No someter estos desarrollos al escrutinio democrático de la sociedad civil y de las instituciones es profundamente antidemocrático y tremendamente peligroso. Aunque, teniendo en cuenta la historia de este país, ¿a quién le puede extrañar semejante desenlace?

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Policía
Fabien Jobard “La abolición de la policía no es ninguna utopía”
Este politólogo ha dedicado gran parte de sus estudios a investigar cómo funcionan las organizaciones policiales de Francia y Alemania. Ahora presenta algunas de sus conclusiones en forma de cómic.
Granada
Violencia policial Golpes y huesos rotos: tres mujeres denuncian agresiones de la policía en el intento de desalojo en Granada
La denuncia expone que las agresiones se cometieron el pasado 20 de enero en la Calle Azacayas durante el intento de la empresa AMA desokupa de desalojar el CSOA La Madriguera.
Madrid
Violencia policial Serigne Mbaye: “Toda España es testigo de cómo se trata a las personas negras”
El político madrileño que milita en Podemos declara este martes en los juzgados de Madrid por una demanda de supuestas “injurias graves” a la Policía.
#86917
9/4/2021 22:57

Cuando España tenga una III Republica y Pablo Casado sea el jefe de estado y Santiago Abascal sea el presidente del gobierno los policias seran una mezcla entre Pinochet y Billy el niño pero no pasa nada porque la culpa será de el diario El Pais,la cadena SER y el Partido Socialista Obrero Español osea lo mismo que en los años 90 cuando Aznar tenia a su "Grupo Salvaje " de la calle Genova junto a Izquierda
Unida y a el llamado "Sindicato del crimen " de la letra impresa .

0
0
#82296
10/2/2021 11:26

Pues espera a que hagan un algoritmo para detectar a los 'lanzas', que son los compinches cuya única tarea es marear la perdiz y distraer a la víctima para que no se fije en quién es el delincuente que le roba. Esto es como la Rockefeller y JP Morgan, que cuando polucionan y destruyen el medio ambiente con sus empresas no son ellos los que lo hacen, es el Cambio Climático, así, en abstracto.

1
2
Madrid
La burbuja del alquiler Sumar, Podemos y sindicatos de inquilinos presionan para convertir en indefinidos los contratos de alquiler
Sumar lanza una propuesta legislativa para transformar en indefinidos los contratos de alquiler, una de las principales demandas de la manifestación por la vivienda del 5 de abril. Una moción de Podemos, rechazada en el Congreso, pedía lo mismo.
Líbano
Ocupación israelí Israel incumple el acuerdo de paz y mantiene tropas en el sur de Líbano para “vigilar” a Hezbollah
El Ejército sostiene la ocupación de cinco colinas a lo largo de la frontera tras evacuar sus soldados de decenas de municipios. Miles de civiles regresan a sus casas para descubrir que lo han perdido todo.
Galicia
Galicia La Xunta de Feijóo, condenada por negar visitas a una mujer que murió de cáncer por tener covid-19
La jueza dice que la situación exigía “flexibilizar” las medidas de prevención. Falleció a inicios de 2022 en el Hospital Álvaro Cunqueiro durante los últimos meses de la administración del jefe del PP con Julio García Comesaña de conselleiro.
Egipto
Egipto Ashraf Omar continúa en prisión provisional por dibujar
Ashraf Omar, caricaturista político del medio digital AlManassa, sigue en prisión preventiva indefinida tras ser arrestado violentamente en su domicilio el 22 de julio de 2024.

Últimas

Justicia
Justicia Rubiales, condenado por agresión sexual y absuelto del delito de coacciones
18 meses de multa con cuota de 20 euros al día por un delito de agresión sexual. Es la condena al expresidente de la RFEF Luis Rubiales por los hechos ocurrido en la ceremonia de entrega e medallas del pasado mundial celebrado en agosto en Sidney.
Tribuna
Tribuna Verde de ecosocial, verde de educación pública
En nuestras aulas se ha colado una prisa ansiosa, que juzga al alumnado como un gasto, que lo dirige, poco a poco, a un mundo laboral tecnoptimista y completamente atomizador.
Más noticias
El Salto Radio
El Salto Radio Humedales necesarios
Damos un paseo radiofónico por algunos de los humedales de Andalucía, espacios fronterizos entre el mar y la tierra, tan necesarios para nuestra supervivencia. Lo hacemos con Juan Martín Bermúdez, de SALARTE y algunos oyentes.
Fascismo
Memoria antifascista Allí donde hay humo, hay fuego
A unos días de las elecciones alemanas, donde la ultraderecha acude fortalecida, un repaso sobre el proceso de desnazificación posterior a la Segunda Guerra Mundial y sus medias verdades.

Recomendadas

Feminismos
Ana Bueriberi “El activismo tiene que ser colectivo: para contribuir al cambio es imprescindible despersonalizar la causa”
La periodista madrileña Ana Bueriberi reconoce que no sintió la discriminación hasta que llegó a la Universidad. Hoy, desde el proyecto Afrocolectiva reivindica una comunicación antirracista, afrofeminista y panafricanista.
Inteligencia artificial
Militarismo La máquina de los asesinatos en masa: Silicon Valley abraza la guerra
Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla.
América Latina
Extrema derecha Los soldados de Donald Trump en América Latina
Mientras algunos presidentes latinoamericanos, con mayor o menor ímpetu, intentan ponerle freno, otros tantos se arrodillan y le rinden pleitesía sin recibir nada a cambio. ¿Quiénes son los súbditos latinoamericanos de Trump?