We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Análisis
AI Act: un reglamento nuevo para afianzar el orden racial y colonial de siempre
Después de casi tres años desde que echara a andar la propuesta y, al menos dos de negociaciones, el pasado mes de marzo el Parlamento Europeo aprobó el reglamento de la Ley de Inteligencia Artificial (AI Act por sus siglas en inglés). Tras el visto bueno dado el 21 de mayo por los miembros del Consejo de Europa, al texto le queda como último paso su publicación en el Diario Oficial de la UE, lo que puede suceder en cualquier momento y tras lo cual entrará en vigor. Aunque se da un plazo de entre dos y cinco años para su aplicación plena por parte de los diferentes Estados miembro.
Este marco, presentado como el primero de su ámbito en el mundo, se ha vendido desde el inicio como la panacea en lo que respecta a la regulación del desarrollo y uso de tecnologías de IA. De hecho, incluye aspectos positivos como la prohibición de determinados sistemas automatizados en el ámbito de las prestaciones sociales, de la policía predictiva basada en perfilación y de los comportamientos delictivos anteriores (datos históricos), así como los sistemas de identificación biométrica en tiempo real. Además, prevé la creación de un registro público de sistemas de IA en uso en la UE.
No obstante, plantea un problema estructural al establecer una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales, así como en aquellos escenarios que puedan ser justificados desde conceptos vagos como lo es la “seguridad nacional”. Bajo esta premisa, las prohibiciones establecidas en la ley no se extienden para los usos policiales, algo preocupante si tomamos en cuenta, por ejemplo, el avance del Ministerio del Interior en la implementación de sistemas de reconocimiento facial “para identificar sospechosos”, criticados por inexactos y racistas. Estas prohibiciones tampoco se extienden al ámbito del control migratorio, lo que provocará un trato desigual hacia la población dependiendo de si es europea o migrante.
Pese a que los sistemas de identificación biométrica quedan prohibidos por implicar un riesgo alto para la población al vulnerar derechos fundamentales, sí se podrán usar en personas migrantes y solicitantes de asilo
Es lo que ocurre con los sistemas de identificación biométrica. Pese a que en teoría quedan prohibidos por implicar un riesgo alto para la población al vulnerar derechos fundamentales, sí se podrán usar en personas migrantes y solicitantes de asilo. De hecho, la mal llamada “frontera inteligente” prevista en Ceuta y Melilla, cuya infraestructura está instalada, contempla la recogida de imágenes del rostro de personas que crucen estos pasos fronterizos mediante tecnología de reconocimiento facial, a quienes además se les podría aplicar tecnología de reconocimiento de emociones con un detector de mentiras en fase de prueba llamado “policía virtual”, y elaborado en el marco del proyecto europeo iBorderCtrl para identificar a viajeros “de alto riesgo”.
Por otro lado, pese a que el reglamento establece una escala de riesgos, no incluyó en la lista de “riesgo alto” aquellos ya en uso en contextos migratorios, quedando exentos de los requisitos de supervisión y rendición de cuentas establecidos para los catalogados con este nivel de riesgo. De este modo, las bases de datos a gran escala empleadas en la UE en el control migratorio (prohibidas sobre población europea), como es el caso de Eurodac o Schengen, que se basan especialmente en la recogida de datos biométricos, quedarán exentas de regulación hasta el año 2030.
Inteligencia artificial
Inteligencia artificial La Unión Europea abraza la ley del algoritmo más fuerte
No solo hablamos de un marco que establece diferentes categorías de personas, sino que las tecnologías de reconocimiento facial han sido ampliamente criticadas por conllevar fallos sistemáticos y peligrosos. Investigaciones del MIT y del Instituto Nacional de Estándares y Tecnologías de Estados Unidos han probado empíricamente cómo estas herramientas producen falsos positivos y falsos negativos en rostros de personas no caucásicas. En cuanto a los sistemas detección de emociones, un experimento reciente de la revista The Intercept demostró cómo una de sus periodistas fue calificada de “mentirosa” por el policía virtual del proyecto IBorderCtrl, pese a responder con honestidad todas preguntas que se le formularon.
Otro problema de base que plantea la AI Act es que deja fuera una multitud de sistemas de IA debido a la definición planteada, que describe un sistema de IA como aquel que funciona con diversos niveles de autonomía, sin delimitar la misma, y que puede tener capacidad de adaptación tras su despliegue. Una definición discutida al margen de la sociedad civil, que deja fuera sistemas como los empleados en los servicios públicos.
Es el caso de SyRI, un algoritmo empleado por Países Bajos para elaborar perfiles de ciudadanos y ciudadanas que supuestamente podían defraudar al Estado, enfocándose fundamentalmente en población pobre y racializada. SyRI fue declarado ilegal por el Tribunal de Distrito de la Haya al no cumplir las exigencias de proporcionalidad y transparencia y por vulnerar las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del CEDH. En el caso de España, esta regulación deja fuera sistemas empleados por la Administración como el usado por la Seguridad Social para rastrear bajas laborales y “cazar fraudes”, así como el sistema BOSCO, que decide quién recibe el bono social, y sobre el que CIVIO lleva desde 2018 pidiendo el código fuente tras detectar que dejaba fuera a usuarios y usuarias con derecho al mismo.
Tecnología de vigilancia fronteriza
Otras tecnologías que no se incluyeron en los listados de usos peligrosos de IA son aquellas desarrolladas para impedir y restringir la movilidad humana del sur al norte global. En 2021 Frontex firmó contratos millonarios para incrementar su vigilancia marítima a través del uso de drones, cuyo objetivo es frenar los flujos migratorios actuando como una alarma temprana para los países receptores. El uso de drones no tripulados exime de la obligación de proporcionar ayuda a embarcaciones que se encuentran en situación de peligro en el mar y también contraviene el derecho internacional de solicitud de asilo al impedir que las embarcaciones lleguen a tierra.
El reglamento de la AI Act no impide que tecnologías desarrolladas por empresas con sede en la UE, prohibidas en el territorio europeo por su peligrosidad para la población, sean exportadas a otros países
En la actualidad, hay distintas tecnologías cuestionables en uso o en fase de prueba en contextos fronterizos, como las cámaras de visión nocturna o el denominado proyecto Sniffer, desarrollado para reconocer el olor corporal de personas que intentan cruzar fronteras escondidas en vehículos. Todos estos dispositivos pensados para usarse en frontera tienen un claro beneficiario: la industria del control migratorio, que se embolsa contratos millonarios gracias al desarrollo de tecnologías pensadas para impedir que las personas del sur global se desplacen libremente hacia el norte, generando en consecuencia mayores riesgos y mortalidad en rutas migratorias. Una industria que se alimenta de la política de una UE que sitúa la migración como problema de seguridad.
A todo lo anterior se añade el hecho de que el reglamento de la AI Act no impide que tecnologías desarrolladas por empresas con sede en la UE, prohibidas en el territorio europeo por su peligrosidad para la población, sean exportadas a otros países. Se podrá vender fuera lo que se prohíbe dentro. La AI Act, que dice basarse en los principios de proporcionalidad y responsabilidad, no solo deja fuera y sin protección a aquellos grupos demográficos considerados desechables, sino que se vale de una narrativa de “lucha contra el terrorismo” y “garantía de la seguridad nacional” para señalar a la población migrante y racializada mientras impide su libre movilidad. De esta forma, refuerza la criminalización racial y la lógica colonial que rige las políticas de la UE.
Un Pacto racial contra el derecho a migrar
El AI Act tardará años en entrar en vigor. Mientras tanto, se seguirán probando, desarrollando e implantando sistemas de IA nocivos en muchos ámbitos de la vida. Además, este marco es sólo uno de los que la UE implementa en esta materia, como lo es el anteriormente nombrado Eurodac, reformulado recientemente junto al Código de Fronteras de Schengen para ampliar los controles policiales sobre personas migrantes, y para facilitar aún más la perfilación racial y las devoluciones en frontera.
No obstante, la vigilancia, la discriminación y la criminalización de las personas no blancas y migrantes no se limitan a la AI Act, Eurodac o Schengen. Así lo evidencia el nuevo Pacto sobre Migración y Asilo, aprobado el pasado mes de abril por el Parlamento Europeo, que supondrá un conjunto de reformas que amplían la criminalización y la vigilancia digital de las personas migrantes y racializadas. Un pacto que, como indica la coalición internacional Proteger no vigilar (#ProtectNotSurveil), “viene a normalizar el uso arbitrario de la detención de migrantes, incluidos niños y familias, aumentar el perfilamiento racial, utilizar procedimientos de 'crisis' para permitir y facilitar devoluciones en caliente, así como la devolución de migrantes a los llamados 'países terceros seguros', donde corren riesgo de sufrir violencia, tortura y encarcelamiento arbitrario”.
Migración
Fronteras Europa apunta a profundizar el control biométrico de las personas migrantes con la reforma del EURODAC
El Pacto crea un extenso sistema de vigilancia masiva al contemplar la recopilación de datos en masa y compartidos entre las diferentes fuerzas policiales de la UE, empleando tecnologías de identificación biométrica para rastrear todos los movimientos de las personas migrantes e incrementar la vigilancia sobre ellas, llegando a reducir la edad mínima para la recopilación de datos de catorce a seis años. También plantea el uso de tecnologías intrusivas en las diferentes etapas del proceso de solicitudes de asilo, incautando los dispositivos electrónicos de las personas solicitantes o permitiendo el uso de entrevistas remotas o videoconferencias.
Hablamos de un marco legal de “gestión” de la migración que plantea la creación de centros de detención (además de los ya existentes Centro de Internamiento de Extranjeros) de personas migrantes, incluyendo niños y familias enteras, con características similares a las prisiones (pero con menos derechos) y que se basa en la restricción de circulación, empleando sensores de movimiento, sistemas de cámaras y un control continuo mediante huellas dactilares, uso de tecnologías predictivas y detectores de mentiras (prohibidos ambos sobre población europea), así como el uso de tecnologías de vigilancia también en las fronteras internas de la UE.
El marco regulatorio establecido por la AI Act viene a facilitar la implementación de todas estas tecnologías de vigilancia y criminalización racial. Marcos y mecanismos pensados para el mantenimiento de la Europa Fortaleza. En definitiva, el mantenimiento de un orden racial y colonial construido sobre la explotación de personas migrantes, en beneficio de la industria del control y el modo de vida europeo.