Funcionarios de la Agencia Tributaria

Análisis
Los riesgos del uso de IA para evitar fraudes en el pago de impuestos. ¿Quién nos protege?

Detrás del uso frenético de sistemas algorítmicos y de IA está el discurso manido que nos habla de herramientas objetivas y resultados neutrales, pero la experiencia demuestra que esto está lejos de ser así.
3 sep 2024 06:00

En mayo pasado, la Agencia Estatal de Administración Tributaria (AEAT) presentó su Estrategia de Inteligencia Artificial, en la que destaca el desarrollo exitoso de “nuevos algoritmos y métodos de aprendizaje automático”, y en la que afirma que la IA es “una de las tecnologías con una mayor capacidad transformadora de las economías y las sociedades”.

El documento —que se enmarca en la Estrategia Nacional de Inteligencia Artificial 2024 elaborada por el gobierno— refleja la apuesta decidida de la Agencia Tributaria por el uso de IA con el fin de “prestar servicios y asistencia al contribuyente”, “incrementar la eficiencia” y “luchar contra el fraude fiscal y aduanero”. De esta forma, la AEAT va a reforzar a través de herramientas de IA el cruce de datos entre los formularios presentados por los y las contribuyentes con su propia información interna, con el fin de conseguir que los datos declarados “contengan menos errores”.  El documento pone énfasis en que esto impedirá que las personas hagan declaraciones con información errónea y que, a su vez, permitirá ahorrar los recursos y el tiempo que actualmente se invierten en procedimientos de comprobación. 

El programa del gobierno de Países Bajos cruzaba a escala masiva datos privados de personas beneficiarias de una ayuda social para crear informes de riesgo de individuos proclives a defraudar al Estado

Lo cierto es que la apuesta de la Agencia Tributaria por el uso de algoritmos para luchar contra el fraude no es algo nuevo. Uno de los casos más conocidos es el de SyRI (acrónimo de Systeem Risico Indicatie), puesto en marcha por el gobierno de Países Bajos en 2014, que cruzaba a escala masiva datos privados de personas beneficiarias de una ayuda social, como nivel de ingresos, pensiones, bienes muebles e inmuebles, educación, multas, deudas, subsidio de desempleo, “integración”, etc., con el objetivo de crear informes de riesgo de individuos proclives a defraudar al Estado. En otras palabras, con el fin de predecir perfiles de “personas sospechosas”. 

El Ministerio de Asuntos Sociales y Empleo neerlandés extraía toda esta información de agencias públicas como la Seguridad Social, el sistema público de empleo, de información almacenada por los gobiernos locales y de las autoridades fiscales, entre otras, y luego aplicaba este algoritmo en barrios de clases trabajadoras y migrantes, consideradas zonas “problemáticas”.

Desde el inicio SyRI comenzó a ser cuestionado por violar la privacidad de la ciudadanía y discriminar y estigmatizar a grupos demográficos concretos, al punto de que en 2018 una coalición de organizaciones de la sociedad civil presentó una demanda contra el estado neerlandés, que concluyó en 2020 con una sentencia histórica del tribunal de La Haya, que paralizó este sistema por considerar que vulneraba el artículo 8 del Convenio Europeo de Derechos Humanos relativo al derecho a la vida privada y familiar. Además, señalaba el riesgo de discriminación real al tratarse de un algoritmo que tomaba en cuenta, entre otras cosas, el estatus socioeconómico y los antecedentes migratorios de las personas. Este dictamen se conoció como la primera sentencia conocida en Europa que declaró ilegal el uso de algoritmos para evaluar características personales de la ciudadanía. 

Pese a ello, Países Bajos ha continuado usando sistemas parecidos a SyRI. En 2021 estalló un escándalo al hacerse público que habían estado utilizando un algoritmo para determinar si en las solicitudes de subvención para el cuidado infantil había peticiones fraudulentas. Miles de familias de bajos ingresos, pero sobre todo mujeres migrantes, fueron señaladas falsamente de cometer fraude, y aunque el escándalo llevó a la dimisión al completo del gobierno neerlandés de entonces, este país continúa usando sistemas algorítmicos en sus Administraciones.

La digitalización del estado de bienestar 

España no escapa a esta euforia por la digitalización del estado. Ya en 2018, mucho antes del anuncio de la Agencia Tributaria, la Seguridad Social había comenzado a utilizar un sistema de IA para rastrear bajas laborales y detectar fraudes. Una investigación conjunta de Lighthouse Reports y El Confidencial sobre el funcionamiento de este sistema, señala que un algoritmo analiza los datos contenidos en los expedientes de baja laboral con el fin de “predecir” qué personas deberían estar ya de vuelta en su trabajo, si después de una fecha concreta estas personas no han pedido el alta, sus expedientes se clasifican como un posible caso de fraude y son revisados de forma prioritaria por los médicos inspectores del Instituto Nacional de la Seguridad Social (INSS). De este modo, el algoritmo define el orden en que las y los trabajadores deberán visitar a un médico para saber si pueden seguir cobrando el subsidio. 

La investigación afirma que, pese a que han podido desgranar a grandes rasgos su funcionamiento, el sistema sigue siendo opaco, cuestión que corroboran los médicos inspectores que están en contacto directo con la herramienta y que fueron entrevistados en profundidad, quienes aseguran que no sabrían explicar exactamente cómo funciona este sistema. No hay información sobre qué datos se usaron para entrenar el algoritmo, qué peso se le asignó a cada variable o cómo se hace la puntuación final. 

Debido a esta opacidad se desconoce si los datos que se manejan, altamente sensible por tratarse de información médica, están siendo tratados de manera correcta y de acuerdo a la ley de protección de datos. Tampoco se sabe si se están haciendo evaluaciones internas sobre su funcionamiento, o si su uso está derivando en una vulneración al derecho al acceso a una prestación pública. Todo ello, sin contar con el hecho de que las personas investigadas no han dado su consentimiento explícito para este uso de sus datos personales.

Inteligencia artificial
Panorama Tecnología del futuro, explotación del pasado
El control de los ritmos de trabajo por parte de los algoritmos combina el uso más avanzado de la tecnología con prácticas y métodos que recuerdan a los sistemas de explotación laboral del siglo XIX y al vasallaje del medioevo.

En su libro La automatización de la desigualdad, herramientas de tecnología avanzada para supervisar y castigar a los pobres, la investigadora Virginia Eubanks realiza una exhaustiva investigación sobre cómo la minería de datos y las políticas sociales basadas en algoritmos están afectando negativamente en los derechos y la equidad económica. “Sistemas de elegibilidad automatizados, algoritmos de clasificación y modelos de predicción de riesgos controlan qué barrios se someten a vigilancia policial, qué familias reciben los recursos necesarios, a quién se preselecciona para un empleo y a quién se investiga por fraude”, afirma Eubanks.

Uno de los casos expuestos en su investigación es el de las familias del estado de Maine (Estados Unidos) que recibían prestaciones del programa de Asistencia Temporal a Familias Necesitadas (TANF por sus siglas en inglés) y quienes en 2014 fueron acusadas por el gobernador republicano Paul LePage de defraudar al Estado. 

Estas prestaciones se cargan en tarjetas de transferencia electrónica que dejan un registro digital del lugar y la fecha en que se retira el dinero. El gobierno de LePage cruzó datos de organismos estatales y federales y elaboró una lista de cerca de cuatro mil retiradas de dinero en cajeros de estancos y de fuera del estado de Maine. A pesar de que estas transacciones sólo representaban el 0,03 por ciento del total del dinero retirado en el marco del programa TANF, y de que no se podía saber en qué se había gastado el dinero, LePage usó esta información para insinuar que las familias beneficiarias de esta prestación estaban defraudando al estado invirtiendo el dinero recibido en cigarrillos y alcohol. Además, amplificó el señalamiento poniendo estos datos a disposición del público en Google Docs. 

En el corazón de la digitalización del estado de bienestar, yace la obsesión de los gobiernos por la caza del fraude, cuya idea base es la creencia de que las personas siempre engañan al Estado

Este caso no solo es un ejemplo de cómo la vigilancia digital de los datos está derivando en criminalización de grupos ya vulnerabilizados, sino de cómo, en el corazón de la digitalización del estado de bienestar, yace la obsesión de los gobiernos por la caza del fraude, cuya idea base es la creencia de que las personas siempre engañan al Estado. 

En Reino Unido, una investigación de The Guardian reveló que el gobierno de este país utiliza en al menos ocho ministerios herramientas de IA para tomar decisiones sobre justicia penal, bienestar e inmigración, lo que refleja “una forma descontrolada y potencialmente discriminatoria de utilizar la tecnología”, según el periódico británico. Entre los ejemplos que cita está el algoritmo utilizado por el Ministerio del Interior para detectar matrimonios fraudulentos, que “casualmente” recomienda investigar uniones civiles cuando uno de los cónyuges posee una nacionalidad concreta. 

Los riesgos 

El uso masivo de tecnologías de IA para cazar fraudes es una realidad en aumento. De hecho, en 2023 la Organización para la Cooperación y el Desarrollo Económico (OCDE) publicó un informe en el que señala que de los 52 países que forman parte de su Foro de Administración Tributaria, casi el 50 por ciento utiliza herramientas de IA para la detección de evasión y fraude en el pago de impuestos. 

Ante esto cabe preguntarse ¿qué perfiles de personas estamos en la primera línea de vigilancia?, ¿y quién vigila a quienes nos vigilan?  

A pesar de que en su documento de Estrategia de Inteligencia Artificial la Agencia Tributaria dice que “se trabajará en la detección y corrección de eventuales sesgos que pudieran estar contenidos en los datos”, y de que afirma que harán una “recogida de la evaluación del funcionamiento de los sistemas por parte de los usuarios finales de los mismos”, en ninguna parte del texto se explica la manera exacta en que estos procedimientos de supervisión y evaluación se llevarán a cabo. No se plantea una metodología ni se explica de qué manera organizaciones y colectivos que trabajan por los derechos digitales podrán participar en estudios de evaluación de impacto o proponer auditorías externas.

Análisis
Análisis AI Act: un reglamento nuevo para afianzar el orden racial y colonial de siempre
La nueva normativa de Inteligencia Artificial establece una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales.

Por otro lado, en cuanto a los equipos, la Agencia Tributaria dice que “el diseño, desarrollo y despliegue de los proyectos de IA se realizará por equipos multidisciplinares que integrarán tanto expertos en el negocio, como técnicos informáticos y científicos de datos especializados en IA”. Es decir, no está contemplada ni la participación de perfiles sociales diversos ni de expertos y expertas que trabajan por la justicia social en el actual contexto de las sociedades datificadas. 

Esto quiere decir que quienes van a hacer la interpretación de los datos —datos fríos que podrían cruzarse con el análisis de información como la nacionalidad del contribuyente, su lugar de nacimiento, edad, sexo o nivel de estudios… no lo sabemos—, serán técnicos probablemente más centrados en buscar patrones e identificar anomalías que en aplicar de manera justa el sistema de inteligencia artificial.  El texto tampoco plantea de qué forma la ciudadanía podrá presentar una queja ante una decisión tomada por el sistema, qué canales de reclamación serán habilitados, cuáles serán los plazos, etc. 

Detrás del uso frenético de sistemas algorítmicos y de IA está el discurso manido que nos habla de herramientas objetivas y resultados neutrales, pero los ejemplos expuestos arriba demuestran que esto está lejos de ser así. Por el contrario, estas herramientas están reproduciendo patrones históricos de poder, perjudicando a los mismos grupos demográficos vulnerabilizados de siempre. 

Hasta ahora ninguna herramienta tecnológica ni de IA ha sido diseñada para cazar a los grandes estafadores, blanqueadores de capitales ni a las grandes compañías evasoras de impuestos. Preguntémonos por qué. 

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Tecnología
Ayona Datta “En las manos equivocadas, la IA puede hacer más daño que otras tecnologías previas”
Arquitecta y geógrafa urbana, el trabajo de esta investigadora gira en torno a los binomios “ciudad inteligente” e “inteligencia artificial”, pero cuestiona ambos conceptos para trabajar con perspectiva decolonial y desde las periferias.
Análisis
Análisis Israel, Gaza y la Inteligencia Artificial: un inquietante precedente
Las consecuencias sobre la población civil del uso de la Inteligencia Artificial por el Ejército de Israel en Gaza evidencian la urgente necesidad de su regulación en base a principios éticos.
Crisis climática
Cinco omnicidios Amenazados por cinco omnicidios II
La esperanza reside en las sociedades con prácticas democráticas deliberativas y tradiciones de compromiso cívico.
3jackdaws
3jackdaws
3/9/2024 11:49

Creo que el origen de todo esto es el Ministro Escrivá, primero estuvo en seguridad social y ahora en tecnología, un Ministro liberal "infiltrado" en este supuesto gobierno progresista.

0
0
Congreso de los Diputados
Edmundo gate El voto del PNV contra el Gobierno agita el temor a una unión de las derechas a medio plazo
Los nacionalistas vascos apoyaron una proposición no de ley del PP y fueron partícipes de una derrota legislativa del PSOE con más impacto simbólico que real.
Educación pública
Marea verde El profesorado de la Escuela Pública madrileña inicia curso 2024-25 con dos manifestaciones y paros parciales
Este domingo la Marea Verde ha salido a la calle en su habitual cita al empezar el curso escolar reivindicando la deuda en derechos que siguen arrastrando, mientras que la Asamblea Menos Lectivas agenda paros y una marcha el día 25 de septiembre.
Honduras
Honduras Sicarios matan a balazos al ambientalista Juan López, defensor del río Guapinol
López luchaba contra el 'Monstruo de Siete Cabezas': dos minas, una termoeléctrica, una peletizadora y tres pozos, construidos en el espacio protegido del Parque Nacional Montaña Botaderos.
La vida y ya
La vida y ya Salir del barrio
Tenía claro que las cosas están bastante más determinadas por el lugar en el que naces que por tu esfuerzo, por eso quiso probar a romper las reglas del juego.
Medio ambiente
Operación en Montegancedo La irrisoria multa a una constructora por talar sin permiso 214 árboles: 542 euros por ejemplar
Aedas Homes, la inmobiliaria del fondo Castlelake, taló sin autorización pinos en un bosque mediterráneo de Pozuelo de Alarcón (Madrid), donde la Justicia mantiene paralizado un megaproyecto de viviendas de lujo.
Guerra en Ucrania
Diplomacia armada Misiles más cerca y negociaciones más lejos en una semana clave en la guerra de Rusia y Ucrania
Estados Unidos ultima la concesión del permiso de uso de misiles de largo alcance a petición del Gobierno de Zelensky. Rusia amenaza con consecuencias por lo que consideran una escalada de la OTAN en su auxilio a Kiev.
África
Fotografía Toronto no es una ciudad
Un recóndito club de música abre sus puertas en la frontera etíope somalí

Últimas

Sudáfrica
Sudáfrica Prostitutas y madres sudafricanas: “La gente se cree que no tenemos hijos, que sólo somos nuestro trabajo”
En 2013, tras más de dos décadas dedicada a la prostitución, Duduzile Dlamini decidió impulsar un programa que velara por los derechos de mujeres que, como ella, estaban obligadas a conciliar el trabajo sexual con la crianza de sus niños.
Turismo
Turismo y especulación Un 66% de los españoles apoya las protestas contra la turistificación
Una encuesta de YouGov para toda Europa revela que la mayoría de la población simpatiza con las protestas contra el turismo y que un tercio de los españoles considera que hay un exceso de visitantes extranjeros en su zona.
Ejército Zapatista de Liberación Nacional (EZLN)
30 años del levantamiento del EZLN ¿Qué aprendimos de la Gira Zapatista? Otra Europa es posible
Décimo sexta, y última entrega, del especial que conmemora la aparición pública del EZLN hace tres décadas. El autor se centra en tres posibles aprendizajes que la “Europa insumisa” pudo experimentar con la Gira Zapatista de 2021.
Eutanasia
Muerte digna “A mi tía le negaron la eutanasia en paliativos”: los obstáculos para morir dignamente
Elena murió con dolor tras una metástasis, después de sortear diversas barreras administrativas que no le permitieron someterse a una muerte digna. En España, casi un tercio de las personas mueren mientras se tramita su solicitud.
Más noticias
Que no te lo cuenten
Que no te lo cuenten De exclusivas y acoso
VV.AA.
En este capítulo del noticiero destacamos el caso de “Marta la Estupa”, una policía infiltrada en distintos movimientos sociales
Crisis climática
Crisis climática La Haya se convierte en la primera ciudad que prohíbe anuncios de combustibles fósiles
Una nueva ordenanza municipal elimina del espacio público los mensajes de carácter comercial de empresas dedicadas a los combustibles fósiles, así como de productos y servicios con un alto nivel de emisiones de gases de efecto invernadero.
Abusos a la infancia
Acuerdo con Fiscalía Empresarios evitan la cárcel por la demora del juicio en un caso de explotación sexual a varias chicas
La Policía Nacional desmanteló en 2015 una red que captaba a chicas de entre 14 y 17 años en colegios y discotecas en Murcia. El acuerdo deja en cinco meses la condena, por lo que no ingresarán en prisión.

Recomendadas

Literatura
Literatura Paco Cerdà: “Es curioso que el amor surja a pesar del horror”
El autor cuenta en 'Presentes' el traslado del féretro de José Antonio Primo de Rivera desde Alicante hasta Madrid a través de una voz que se detiene en la vida y la muerte de muchos de los nadie de la España de la posguerra.
Fronteras
Italia “El sistema al que se somete a las personas migrantes impide que se sientan clase”
Entrevistamos a dos trabajadores y militantes italianos del ámbito de las migraciones. Una mirada desde abajo hacia distintos aspectos de un fenómeno cultural, social y político cada vez más relevante para la vida común en Europa.
Balcanes
Cine El cine, una forma de resistir en los Balcanes
El Festival de Cine de Sarajevo y el Dokufest de Kosovo son dos ejemplos de cómo en los Balcanes el cine actúa como un espacio para lidiar con la encrucijada identitaria, mirar al pasado o imaginar el futuro.