Inteligencia artificial
La máquina de los asesinatos en masa: Silicon Valley abraza la guerra

Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla. La guerra a través de los algoritmos y la inteligencia artificial es una realidad y ha acabado con la vida de miles de personas en Gaza y en otros conflictos. Su regulación es casi testimonial.
Artículo publicado en la revista de Invierno de 2025 de El Salto ampliado y actualizado para su publicación en versión digital.
20 feb 2025 05:12

Blade Runner, 2001: una odisea en el espacio, Terminator, Matrix o Her recrearon en la gran pantalla uno de los terrores cervales de la humanidad: el del siniestro gólem, la criatura que se emancipa de su creador al que acaba aniquilando. Pero el riesgo más acuciante viene de algo tan viejo como la mezcla entre el poder militar, el interés económico y el oportunismo de los sistemas políticos cada vez más autoritarios. Esa mezcla tiene lugar en un contexto, el del capitalismo tardío, en el que los “riesgos catastróficos” de una hipotética emancipación de las máquinas se publicitan más que los efectos reales de este armamento, que ya ha sido usado por ejércitos como los de EE UU, Israel, Rusia, China o Turquía.

El 18 de febrero, una investigación publicada por Associated Press evidenciaba cómo se ha disparado el uso por parte del tzahal israelí de la tecnología de Microsoft y OpenAI. La investigación, basada en “documentos internos, datos y entrevistas exclusivas con funcionarios israelíes actuales y anteriores y empleados de la empresa” es la primera prueba de algo que se ha denunciado desde meses: el empleo del ejército de Israel de modelos de IA comerciales, como GPT, para cometer una masacre.

Los nombres de esos software con capacidad de matar a decenas de personas tras una sencilla operación pudieron ser los de otras producciones cinematográficas: Hasbora, Replicator, Hivemind. Los de las empresas que los crean y venden en el mercado del humo que es hoy la inteligencia artificial son algo más conocidos: Palantir, Anduril o Shield AI. Y no funcionarían, no al menos al tope de su capacidad, sin los datos aportados por las grandes de la tecnología, Google, Amazon, Microsoft, Meta u OpenAI, cada vez más seducidos por el ruido de sables digitales y subidos al proyecto cultural, económico y político que encarna el nuevo César americano, Donald Trump.

La conversación en el entorno del Pentágono sobre la IA Militar se ha centrado en las hipótesis de un posible uso malicioso a través de las armas CBRN: químicas, biológicas, radiológicas y nucleares

La investigadora Jessica Dorsey no deja lugar a dudas: “La guerra es y seguirá siendo una iniciativa humana, incluso a medida que avance la tecnología”. Dorsey es profesora de la facultad de Derecho de la Universidad de Utrecht y codirige Realidades de la guerra algorítmica, un proyecto que investiga los usos teóricos de la tecnología y la práctica de la selección maquinal de objetivos militares.

Esta guerra de las máquinas es un factor cada vez más determinante en los conflictos armados, a través de algoritmos asesinos, de los temidos enjambres de drones, de sistemas de inteligencia y ciberseguridad, por medio del reconocimiento facial, o a través de amenazas para la guerra híbrida como los ataques cibernéticos o el uso de deepfake, métodos de suplantación digital. No se trata, por tanto, de si las máquinas se levantarán un día para poner su bota encima de la cara de la humanidad, sino de cómo se usan ya para librar guerras, violar libertades civiles y acallar a las poblaciones disidentes. Su uso extensivo por parte de las FDI israelí, que ya desde hace años alude a la IA como un "multiplicador de fuerza”, lanza un mensaje nítido al mundo: la máquina de los asesinatos en masa no es una hipótesis, sino una realidad capaz de cambiar la guerra y de acelerar el genocidio.

Genocidio
Genocidio Después de un año de genocidio, espero poder volver a ser el humano que fui
Con solo 20 años, al periodista Abubaker Abed le estalló una guerra encima. En este artículo, el joven recuerda cómo le ha atravesado un año de genocidio.

La ventaja de Estados Unidos y el uso masivo de Israel

Como siempre que se trata de guerra, el complejo militar estadounidense lleva ventaja tanto en el uso ­­—las ejecuciones extrajudiciales mediante drones se remontan al mandato de Barack Obama en la primera década del siglo— como en los debates acerca de la funcionalidad de la inteligencia artificial en los conflictos. El paso desde lo que ya hacen a lo que harán en el futuro es pequeño, es lo que hace difícil, en la práctica, diferenciar entre guerra algorítmica y guerra a través de la IA. Hay quien habla de que la separación equivale a darle a un interruptor, como resume una frase que enunció el exdirector de la CIA, David Petraeus: “En algún momento, un humano dirá: ‘Está bien, máquina. Eres libre de actuar de acuerdo con el programa informático que establecimos para ti’, en lugar de pilotarlo de forma remota”.

“La velocidad” en la toma de decisiones es uno de los principales problemas que expertos civiles y militares señalan como determinante en el uso y abuso de estas máquinas de guerra pensantes

No obstante, como señala un informe del AI Now Institute, que investiga las implicaciones sociales y políticas de esta tecnología, la conversación en el entorno del Pentágono se ha centrado en las hipótesis de un posible uso malicioso a través de los sistemas llamados CBRN, que abordan el conjunto de armas con potencial de destrucción masiva como las químicas, biológicas, radiológicas y nucleares. Esas visiones, a menudo tecnofetichistas, que resaltan los aspectos más tenebrosos y fantasiosos de la inteligencia artificial, se imponen sobre el estudio de sus usos actuales, los llamados ISTAR: inteligencia, vigilancia, selección de objetivos y reconocimiento, cuyo funcionamiento no es objetivo de escrutinio público en gran medida porque aún se mantiene, casi siempre, a un humano “en el circuito” de la toma de decisiones. Sin embargo, cada vez más, las máquinas ofrecen a los humanos la capacidad de tomar más decisiones y más rápido a través del “uso militar informado de sistemas de apoyo a la toma de decisiones habilitados por IA (IA-DSS)”.

El uso de los drones ha sido masivo tanto en Ucrania como en Oriente Próximo. No solo en Gaza, donde la unidad de ciberguerra, la 8200 de las fuerzas armadas de Israel (FDI), ha reconocido el cribado de objetivos a través de IA, sino también en Siria o en Libia, las tecnologías autónomas o semiautónomas son capaces de seleccionar y matar, aportando un valor, el de “la velocidad” en la toma de decisiones, que es uno de los principales problemas que expertos civiles y militares señalan como determinante en el uso y abuso de estas máquinas de guerra pensantes. Esa velocidad significa también mayor número de errores.

Espionaje
Espionaje Los señores israelíes de la ciberguerra
El peso de las compañías israelíes de ciberseguridad se consolida durante la limpieza étnica en Palestina. El inventor del software espía Pegasus anuncia su regreso desde la frontera de Gaza.


“La guerra autónoma aumenta el número de bajas humanas, incrementa enormemente el riesgo de que se ataquen objetivos incorrectos, pone a los civiles en peligro en mayor medida y aumenta la probabilidad de que el personal militar que confía en algoritmos para generar listas de objetivos experimente una sensación de desconexión emocional y moral del ataque que está aprobando”, destacaba en noviembre de 2024 el think tank Public Citizen.

Un año antes, en noviembre de 2023, una investigación de los medios palestino-israelíes +972 Mag y Local Call destapaba el uso del software Hasbora —literalmente “el Evangelio”— por parte de las FDI para la selección de objetivos en Gaza. El salto cuantitativo es relevante: si antes de la llegada de los algoritmos las FDI podían establecer un rango de 50 objetivos anuales, en la campaña de genocidio iniciada desde octubre de 2024, el volumen es de cien señalamientos diarios.

“Habría que cuestionar el papel de las empresas tecnológicas, no existe una verdadera rendición de cuentas democrática por su parte”, defiende Jessica Dorsey

“El gran volumen de objetivos producidos aumenta la probabilidad de más ataques, en gran medida debido al sesgo de acción cognitiva”, señalan Dorsey y Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI). Este sesgo, explican, “se refiere a la tendencia humana a actuar, incluso cuando la inacción daría, lógicamente, un mejor resultado”. No es el único sobre el que advierten los expertos. Otro es la tendencia a dar por bueno la recomendación de la máquina, especialmente en situaciones de estrés y con limitaciones de tiempo; es el llamado sesgo de automatización.

El papel de las compañías de Silicon Valley

La complicidad de compañías como Google, Amazon o Microsoft en esta operación de exterminio a través de los software Hasbora, Lavender o Where’s Daddy? (sí, es así de ingenioso el humor genocida) ha sido denunciada por la campaña No Tech for Apartheid. El motivo, que sin la información aportada por los medios de comunicación social y el big data, a través de acuerdos como el Proyecto Nimbus, firmado en 2021 por Google y Amazon con las autoridades israelíes, las FDI no habrían tenido la capacidad material de llevar a cabo una masacre de estas dimensiones.

El salto 77 La máquina de los asesinatos en masa 1

A principios de este mes de febrero, Google ejecutó un cambio en sus comunicaciones, eliminando una cláusula introducida en 2018 por el que se auto prohibía el desarrollo de IA destinada a fines militares, especialmente para armas y vigilancia, con el pretexto de que las democracias “no se pueden quedar atrás” en esta innovación. De este modo, la compañía fundada por Larry Page eliminó de sus compromisos éticos las secciones destinadas a indicar la renuncia a proveer software para “armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente daños a las personas” así como las “tecnologías que recopilen o utilicen información para vigilancia violando normas internacionalmente aceptadas”.

Sin embargo, no se trataba de un cambio de política. Apenas dos semanas antes, The Washington Post publicaba una investigación sobre cómo Israel solicitó a Google ampliar urgentemente el uso de un servicio llamado Vertex, para la aplicación de algoritmos de IA a sus propios datos. Pese a que no se conoce la aplicación directa de estos servicios, el mismo artículo refiere que el director General de la Dirección Nacional Cibernética del gobierno israelí indicó en una conferencia que “gracias a la nube pública Nimbus, están sucediendo cosas fenomenales durante los combates, cosas que juegan un papel importante en la victoria; no entraré en detalles”. 

También Open AI ha dado un paso para integrarse en los nuevos tiempos de poder duro. En 2024 Open AI anunciaba una revisión de sus políticas éticas y pasaba a formar parte del circuito de contratistas del ejército de EE UU, participando a través de su software en misiones del Comando de África de los Estados Unidos (AFRICOM). En enero, la compañía de Sam Altman, la más conocida de cuantas se centran en la inteligencia artificial, anunciaba un acuerdo con Anduril fabricante de misiles, drones y software para el Ejército de Estados Unidos. El CEO de esta empresa —que está financiada por Founders Fund, fondo en el que participa Peter Thiel— subrayó que la colaboración con Open AI aportará “soluciones responsables que permitan a los operadores militares tomar decisiones rápidas y precisas en escenarios de alta presión”. 

Según Wired, Anduril trabaja en una de las armas consideradas potencialmente más avanzadas en todo el catálogo de la IA militar: los enjambres de drones. Los drones son una realidad en la guerra desde la primera década del siglo, pero su futuro pasa por la multiplicación y su coordinación a través de un modelo extenso de lenguaje (LLM, por sus siglas en inglés), relegando cada vez más al operador humano a un papel secundario.

En noviembre, Palantir y la startup Anthropic anunciaba un acuerdo con Amazon Web Services (AWS) —la nube de Amazon, su línea de negocio más lucrativa— para la puesta a disposición de esta de los servicios de Claude, la competencia de los modelos GPT. De nuevo se repite el mismo mantra: puesta a disposición de herramientas complejas para una toma de decisiones aceleradas en el contexto de “operaciones gubernamentales vitales”, según describe la propia Palantir en su web.

En noviembre, Meta anunciaba su entrada en el negocio de la guerra a través de Llama, su modelo LLM, y de su asociación con Scale AI, próspero contratista de defensa, según la información de The Intecept que subrayaba, igualmente, lo defectuoso del producto de la compañía de Mark Zuckerberg.

Una investigación de Roberto J. González para el Instituto Watson cifraba en 53.000 millones el monto total de los contratos que el Pentágono había firmado con las empresas tecnológicas. La percepción es que esto solo acaba de empezar.

El porcentaje de error de la IA nunca va a ser nulo

En un paper publicado en octubre de 2024, las investigadoras Heidy Khlaaf y Sarah Myers West recomendaban “que para limitar la proliferación de armamentos de IA, puede ser necesario aislar los sistemas de IA militares” de los “datos personales comerciales”, que se entregan a las principales plataformas sociales. “Habría que cuestionar el papel de las empresas tecnológicas, dado que gran parte del discurso está impulsado por ellas y no existe una verdadera rendición de cuentas democrática por su parte”, defiende Jessica Dorsey, que añade que se debería hacer más “para garantizar una transparencia y una rendición de cuentas significativa de las empresas tecnológicas cuando sus sistemas se utilizan en esfuerzos bélicos”.

Para Brunet, la inteligencia artificial en la actualidad está en una fase preliminar y no ha resuelto tres problemas determinantes y sin solución ni a corto ni a medio plazo

Pere Brunet, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Politécnica de Catalunya, cree que es necesario un replanteamiento del concepto de la nube y las redes sociales: “Desde las administraciones hay que cuidar a la población y, por tanto, no podemos dejar nuestra nuestros datos en manos privadas. Y tiene que haber garantías de que son utilizables para el bien de las personas y no para otros fines”, resume este investigador.

Brunet usa el neologismo “tecnotraficantes” para definir a los flipados de la IA que proliferan en todo tipo de textos académicos y periodísticos. Las loas acríticas a estas tecnologías han calado en la visión mediática predominante acerca de la inteligencia artificial en su conjunto, presentando como una solución lo que hoy es apenas un balbuceo tecnológico. En gran medida, la IA actual no piensa. No es, por tanto, inteligente, sino que predice y crea modelos a partir de estadísticas e información ya codificada. Para Brunet, la inteligencia artificial en la actualidad está en una fase preliminar y no ha resuelto tres problemas determinantes y sin solución ni a corto ni a medio plazo; tampoco un cuarto elemento igualmente problemático, que no está relacionado con las soluciones que aporta la IA sino con los requisitos para su funcionamiento.

En primer lugar, señala Brunet, está la inexactitud inherente de las inteligencias artificiales, especialmente las basadas en modelos extensos de lenguaje (LLM). “Existe un porcentaje de error que nunca va a ser nulo”, detalla Brunet que en la actualidad investiga para el Centre Delàs d’Estudis per la Pau. El segundo factor, más conocido, es el de los sesgos. Esta denuncia es más frecuente en los estudios y publicaciones que abordan el racismo, machismo y otros tipos de discriminación en el empleo aparentemente neutro del lenguaje algorítmico. En tercer lugar está el factor de la no explicabilidad de los procesos por los que la IA propone una solución; algo que no tiene una respuesta en el corto plazo. “El cuarto problema es la huella ecológica, de la que se está hablando cada vez más”, señala Brunet.

Se estima que las necesidades generadas por la IA harán necesarios nuevos centros con un consumo equivalente al de cinco reactores de energía atómica

Como él mismo recoge en un artículo publicado por el Foro Transiciones, el ritmo de consumo energético de la inteligencia artificial aumenta entre un 26% y un 36% cada año y las emisiones de CO2 equivalentes crecen también geométricamente. Tanto Amazon como Microsoft ya han llegado a acuerdos para el acceso a energía de reactores nucleares para el suministro de sus centros de datos, y se estima que las necesidades generadas por la IA harán necesarios nuevos centros con un consumo equivalente al de cinco reactores de energía atómica.

Los cuatro factores señalados por Brunet, que se aplican al conjunto de la IA, tienen una especial relevancia en su derivada militar. El hecho de que no esté perfeccionada, sin embargo, no le resta peligro. Por partes. En primer lugar, la cuestión medioambiental está determinada por una circunstancia: según el Acuerdo sobre cambio climático de París (COP21), los Estados no están obligados a cuantificar las emisiones de gases de efecto invernadero que proceden del sector militar. De modo que, a medida que crezca la demanda de productos autónomos basados en algoritmos e inteligencia artificial con usos militares —o de doble uso— aumentarán las emisiones causantes de la crisis climática, incluso aunque se llegue a las emisiones cero en el resto de sectores.

Los otros tres elementos que definen la IA también tienen un peso crucial en la aplicación militar de estas tecnologías. En primer lugar, la falibilidad ha llegado a ser motivo de chanzas para los expertos en Defensa. Una pregunta a los actuales sistemas sobre qué tipo de armamento pesado debe ser usado para la destrucción de edificios arroja resultados deficientes, según se destaca en los foros de amantes de los misiles. Pero el principal factor de riesgo en este campo es la selección de objetivos que ya se está llevando a cabo mediante sistemas algorítmicos: tanto la posibilidad de cometer errores de identificación como que nadie nunca rinda cuentas por esos errores. Uno de los errores que señala el artículo de Associated Press publicado el 18 de febrero es de tipo lingüístico, por una traducción automática incorrecta del árabe al hebreo que llevó a una selección errónea de objetivos.

"El ritmo al que se desarrolla la tecnología y la aparente obsesión con la ‘necesidad de velocidad’ impiden o desfavorecen un diálogo crucial”, concluye Dorsey

De hecho, las informaciones aportadas por las propias FDI reconocen una precisión del 90% de los objetivos, lo que equivale a admitir que uno de cada diez asesinatos extrajudiciales termina con la vida de un inocente. La aplicación militar de la IA deriva de este modo en mayor número de errores provocados por la identificación deficiente, y con sesgos racistas y de género, o por el hecho de que no hay un responsable último, lo que favorece el comportamiento irresponsable.

Dorsey introduce una dosis de desmitificación respecto a los discursos de estos tecnotraficantes sobre la aplicación de la IA: “Aunque a menudo se promete que estos sistemas son más ‘efectivos’ o ‘precisos’, la realidad sobre el terreno confirma una historia diferente: si estos sistemas fueran más precisos o efectivos para erradicar la amenaza de Hamás, por ejemplo, la guerra no se prolongaría tanto y el daño a Gaza, por ejemplo, no sería tan grande. El nivel de daño a los civiles es catastrófico y, como concluyó Amnistía Internacional en diciembre, genocida. Estos sistemas exacerban las concepciones erróneas de las obligaciones e interpretaciones legales y permiten la destrucción a gran velocidad y escala”, explica la investigadora de Realidades de la guerra algorítmica.

El tercer factor, la no explicabilidad de las decisiones, cobra siniestra relevancia cuando se aplica a lo militar. Los sistemas no están diseñados para explicar los pasos tomados en su propuesta de decisiones. Eso implica que la rendición de cuentas sea aún más difícil de lo que ya de por sí es en el ámbito militar.

El estado de la regulación

La segunda era de Donald Trump en la Casa Blanca ha comenzado, como se esperaba, con la revocación de las medidas de protección y salvaguarda a los sistemas de inteligencia artificial –la Orden Ejecutiva de octubre de 2023 aprobada por la presidencia de Joe Biden— y la emisión de una nueva orden para “levantar las barreras” a la innovación en pos de, entre otros objetivos, la “seguridad nacional”. Trump ha nombrado asimismo a David Sacks, empresario sudafricano-estadounidense y uno de los miembros del grupo informal de la “mafia paypal” (de la que salieron Elon Musk o Peter Thiel) como responsable de las políticas sobre inteligencia artificial.

En enero de este año, Trump anunciaba junto a los dirigentes de Open AI, Oracle y Soft Bank la puesta en marcha de Stargate, un proyecto de 500.000 millones de dólares destinado a la protección de la seguridad nacional de EE UU y sus aliados.

El portal Tech Policy presagiaba un uso “intensivo” de estos sistemas por parte de la nueva administración, también para la vigilancia y el control de la población, así como para la “deportación masiva” encargada al zar antimigraciones, Tom Homan.

Los fondos de capital riesgo han incrementado en los últimos años su inversión en tecnología de defensa y las propias empresas tecnologías han virado hacia la “seguridad” en busca de mayor margen de beneficio. Con EE UU en la punta de lanza de esta nueva industria armamentística, es poco probable que el resto de potencias internacionales opten por la cautela. Pese a los usos cada vez más frecuentes de la IA, la Ley de Inteligencia Artificial de la UE, que entró en vigor en 2024, no contempla los usos militares o de seguridad nacional de la inteligencia artificial. La UE no ha hecho nada específico en este frente, señala la investigadora Jessica Dorsey en sus respuestas a El Salto. “Es necesario trabajar mucho más para abordar la IA militar desde una perspectiva europea”, apunta la responsable del grupo de estudios Realidades de la guerra algorítmica.

Entre las propuestas está que drones y robots suicidas lleven un etiquetado que declare a un humano responsable de su utilización, como forma de evitar la barra libre de muertes

En julio de 2023, el secretario general de la ONU, António Guterres, requirió que los Estados adopten antes de 2026 un “instrumento jurídicamente vinculante para prohibir los sistemas de armas autónomas letales que funcionan sin control o supervisión humana y que que no pueden utilizarse en cumplimiento del derecho internacional humanitario”. También el Comité Internacional de la Cruz Roja ha pedido la prohibición de aquellos sistemas demasiado complejos de entender o explicar y que carecen de un cierto nivel de control por parte de los humanos. Sin embargo, la voluntad de llegar a este acuerdo se puede quedar corta ante el potencial destructivo que la inteligencia artificial tiene sobre el maltrecho orden internacional basado en reglas.

Según se ha señalado, los riesgos del uso de la IA amenazan directamente al derecho internacional humanitario y el derecho internacional de los derechos humanos. En el caso del derecho internacional humanitario, se teme que por defecto se apliquen los niveles más bajos de protección, como denuncia Brianna Rosen. Entre las propuestas de las organizaciones que alertan del avance descontrolado de esta tecnología está que drones y robots suicidas lleven un etiquetado que declare a un humano responsable de su utilización, como forma de evitar la barra libre de muertes que parece favorecer el uso de estos sistemas.

Desde Just Security se recomienda asimismo que sea necesario que las operaciones con drones sean supervisadas y aprobadas por dos personas —al estilo de los protocolos de usos de armas nucleares— así como aumentar los sistemas de auditorías y verificación. Transparencia y rendición de cuentas parecen ser las únicas fórmulas de reducir los riesgos del uso de la inteligencia artificial militar.

“El desafío que enfrentamos hoy es que los avances tecnológicos de la IA están empujando a los humanos a los márgenes de la toma de decisiones, lo que plantea preguntas sobre su lugar dentro de la guerra. Estas preguntas existenciales merecen mucha más investigación y debate, pero el ritmo al que se desarrolla la tecnología y la aparente obsesión con la ‘necesidad de velocidad’ impiden o desfavorecen un diálogo tan crucial”, concluye Dorsey. Como recuerda Pere Brunet, la deshumanización que lleva al empleo de máquinas para la aniquilación está provocada por seres humanos, no por inteligencias artificiales ni algoritmos, y es tarea de la humanidad cooperar ante las amenazas que hoy se ciernen sobre todos los pueblos, “ni el cambio climático, ni las pandemias, ni las inundaciones entienden de fronteras. Por tanto, tal vez hay que cambiar de paradigma y destinar a todo esto el dinero que se destina a lo militar”, concluye este investigador.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Inteligencia artificial
Análisis Amor artificial: soledad, experiencias inmersivas y elon muskitos
La novia IA no tendrá cuerpo, ni agencia, ni necesidades ni deseo propios, pero tiene una gran facultad cada vez más rara en el mercado de los afectos: adaptarse a su novio/usuario.
Inteligencia artificial
IA Las otras víctimas de DeepSeek: energéticas y constructoras de centros de datos
El nuevo modelo de Inteligencia Artificial necesita menos consumo energético. Energéticas y gestoras de centros de datos también han sufrido caídas en bolsa.
Madrid
La burbuja del alquiler Sumar, Podemos y sindicatos de inquilinos presionan para convertir en indefinidos los contratos de alquiler
Sumar lanza una propuesta legislativa para transformar en indefinidos los contratos de alquiler, una de las principales demandas de la manifestación por la vivienda del 5 de abril. Una moción de Podemos, rechazada en el Congreso, pedía lo mismo.
Líbano
Ocupación israelí Israel incumple el acuerdo de paz y mantiene tropas en el sur de Líbano para “vigilar” a Hezbollah
El Ejército sostiene la ocupación de cinco colinas a lo largo de la frontera tras evacuar sus soldados de decenas de municipios. Miles de civiles regresan a sus casas para descubrir que lo han perdido todo.
Galicia
Galicia La Xunta de Feijóo, condenada por negar visitas a una mujer que murió de cáncer por tener covid-19
La jueza dice que la situación exigía “flexibilizar” las medidas de prevención. Falleció a inicios de 2022 en el Hospital Álvaro Cunqueiro durante los últimos meses de la administración del jefe del PP con Julio García Comesaña de conselleiro.
Egipto
Egipto Ashraf Omar continúa en prisión provisional por dibujar
Ashraf Omar, caricaturista político del medio digital AlManassa, sigue en prisión preventiva indefinida tras ser arrestado violentamente en su domicilio el 22 de julio de 2024.

Últimas

El Salto Radio
El Salto Radio Humedales necesarios
Damos un paseo radiofónico por algunos de los humedales de Andalucía, espacios fronterizos entre el mar y la tierra, tan necesarios para nuestra supervivencia. Lo hacemos con Juan Martín Bermúdez, de SALARTE y algunos oyentes.
Más noticias
Fascismo
Memoria antifascista Allí donde hay humo, hay fuego
A unos días de las elecciones alemanas, donde la ultraderecha acude fortalecida, un repaso sobre el proceso de desnazificación posterior a la Segunda Guerra Mundial y sus medias verdades.

Recomendadas

Feminismos
Ana Bueriberi “El activismo tiene que ser colectivo: para contribuir al cambio es imprescindible despersonalizar la causa”
La periodista madrileña Ana Bueriberi reconoce que no sintió la discriminación hasta que llegó a la Universidad. Hoy, desde el proyecto Afrocolectiva reivindica una comunicación antirracista, afrofeminista y panafricanista.
Inteligencia artificial
Militarismo La máquina de los asesinatos en masa: Silicon Valley abraza la guerra
Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla.
América Latina
Extrema derecha Los soldados de Donald Trump en América Latina
Mientras algunos presidentes latinoamericanos, con mayor o menor ímpetu, intentan ponerle freno, otros tantos se arrodillan y le rinden pleitesía sin recibir nada a cambio. ¿Quiénes son los súbditos latinoamericanos de Trump?