We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Migración
El uso del la Inteligencia Artificial en las fronteras a debate en el Parlamento Europeo
Ayer 11 de mayo, en el Parlamento Europeo se votaba sobre el contenido de la Ley Europea de Inteligencia Artificial. En este marco, la opción en la Comisión de libertades civiles y mercados internos fue mayoritaria contra los posibles usos dañinos de la IA en el ámbito de las migraciones, introduciendo medidas de protección para las personas en tránsito.
La plataforma PICUM (Plataforma para la Cooperación Internacional sobre Migrantes Indocumentados) y la Red BVMN (Red para el Monitoreo de la violencia en la frontera) —a la que pertenecen 180 organizaciones en toda Europa— han celebrado en un comunicado el posicionamiento de la Comisión. Sin embargo, muestran su preocupación sobre algunas cuestiones inquietantes que permanecen en el texto legislativo. La Ley europea sobre IA, constituye la primera legislación vinculante que regula el uso de la IA, y afecta también al marco migratorio, ámbito donde han saltado las alarmas en estas entidades de la sociedad civil.
Se prohíben sistemas policiales preventivos, que usan presunciones para prever el grado de peligrosidad de las personas y así tomar decisiones policiales respecto grupos y espacios
Las limitaciones incluidas tras la votación en el Parlamento Europeo incluyen las tecnologías de reconocimiento de las emociones, que quedan prohibidas de manera explícita en las fronteras. Se trata de tecnologías que, en base a una determinada concepción de cómo debería sentirse alguien en condiciones concretas, pueden ser usadas para valorar la credibilidad de un sujeto. Desde PICUM y BVMN señalan que estas tecnologías ya han sido aplicadas por algunos estados para decidir si las personas que solicitan asilo tendrán acceso a protección internacional.
Quedan prohibidos también los sistemas de categorización biométrica, que sirven para clasificar a las personas en función de sus características personales y hacer inferencias a partir de ellas. Este tipo de tecnología puede servir para determinar si el dilecto que alguien habla coincide con el de la región de la que afirma proceder, ejemplifican las organizaciones. Por último, también se prohíben sistemas policiales preventivos, que usan presunciones para prever el grado de peligrosidad de las personas y así tomar decisiones policiales respecto grupos y espacios.
Junto a las prohibiciones, el texto introduce una serie de salvaguardias reforzadas para usos de la IA que clasifica como de “alto riesgo” de tener como consecuencia la vulneración de los derechos de las personas migrantes. Las organizaciones ponen como ejemplo de estas salvaguardias, la obligación para fabricantes y compradores de valorar el posible impacto o eventuales violaciones de los derechos humanos en las que puedan incurrir estos sistemas, que incluyen herramientas de prevención diseñadas para predecir los movimientos en las fronteras. Desde PICUM se alerta de que este tipo de tecnologías se usan para provocar rechazos en frontera, exponiendo a las personas a grandes peligro, y lamentan que su uso no haya quedado totalmente prohibido.
Inteligencia artificial
Inteligencia artificial Los planes del Gobierno para la supervisión de la inteligencia artificial excluyen a la sociedad civil
Otra de las tecnologías consideradas de “alto riesgo” son las de vigilancia —drones, cámaras de temperatura térmica, radares, etc— cuyo objeto es perseguir a las personas y devolverlas. La organizaciones pertenecientes a la BVMN cuentan con testimonios en los que se señala la presencia de drones previa a expulsiones sumarias, desde esta red esperan que las salvaguardias introducidas sean el principio de mayores controles sobre tecnología que podría ser usada para localizar personas migrantes en riesgo y rescatarlas en lugar de para expulsarlas en operaciones a menudo violentas.
El tercer tipo de estas tecnologías se refiere a los sistemas de identificación biométrica no- remotos. Se trata de escaners —faciales, de huellas o de palmas de las manos— portátiles que la policía puede llevar para identificar una persona y tener acceso inmediato a su estado de residencia.
Las entidades de derechos humanos muestran preocupación por las grandes bases de datos biográficos y biométricos de las que dispone la UE, con información sobre personas migrantes que se comparte por todo el territorio europeo
Desde PICUM y MVMN recuerdan que las tecnologías señaladas se fundamentan en asunciones a menudo sin soporte científico, discriminatorias o sesgadas. Pese a ello, denuncian, se usan para tomar decisiones en el mundo real, con consecuencias reales sobre la vida de la gente. Las organizaciones apuntan así que las prohibiciones aprobadas son limitadas, dejando fuera otros usos de la IA para evaluar riesgos, junto a sistemas de perfilamiento, en el contexto migratorio. Además, señalan, se ha perdido la oportunidad de prohibir los sistemas de análisis preventivo para monitorear movimientos migratorios, rastreo muchas veces funcional al rechazo en frontera.
Por último, las redes que firman el comunicado muestran su preocupación por las grandes bases de datos biográficos y biométricos de las que dispone la UE, información sobre personas migrantes que se comparte por todo el territorio europeo y a la que también podrían tener acceso terceros países socios en las políticas migratorias. Una realidad que, si no se incluyen garantías de salvaguardia de los derechos humanos, plantea importantes dudas sobre el respeto al derecho a la privacidad, subrayan. El balance se cierra con una conclusión agridulce: PICUM y BVMN dan la bienvenida a la introducción de limitaciones en cuanto al uso de estas bases de datos, pero lamenta el extenso plazo propuesto para poner en marcha estas limitaciones: cuatro años, en los que estas bases de latas seguirán siendo explotadas sin limitaciones ni garantías.