Inteligencia artificial
La máquina de los asesinatos en masa: Silicon Valley abraza la guerra

Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla. La guerra a través de los algoritmos y la inteligencia artificial es una realidad y ha acabado con la vida de miles de personas en Gaza y en otros conflictos. Su regulación es casi testimonial.
Artículo publicado en la revista de Invierno de 2025 de El Salto ampliado y actualizado para su publicación en versión digital.
20 feb 2025 05:12

Blade Runner, 2001: una odisea en el espacio, Terminator, Matrix o Her recrearon en la gran pantalla uno de los terrores cervales de la humanidad: el del siniestro gólem, la criatura que se emancipa de su creador al que acaba aniquilando. Pero el riesgo más acuciante viene de algo tan viejo como la mezcla entre el poder militar, el interés económico y el oportunismo de los sistemas políticos cada vez más autoritarios. Esa mezcla tiene lugar en un contexto, el del capitalismo tardío, en el que los “riesgos catastróficos” de una hipotética emancipación de las máquinas se publicitan más que los efectos reales de este armamento, que ya ha sido usado por ejércitos como los de EE UU, Israel, Rusia, China o Turquía.

El 18 de febrero, una investigación publicada por Associated Press evidenciaba cómo se ha disparado el uso por parte del tzahal israelí de la tecnología de Microsoft y OpenAI. La investigación, basada en “documentos internos, datos y entrevistas exclusivas con funcionarios israelíes actuales y anteriores y empleados de la empresa” es la primera prueba de algo que se ha denunciado desde meses: el empleo del ejército de Israel de modelos de IA comerciales, como GPT, para cometer una masacre.

Los nombres de esos software con capacidad de matar a decenas de personas tras una sencilla operación pudieron ser los de otras producciones cinematográficas: Hasbora, Replicator, Hivemind. Los de las empresas que los crean y venden en el mercado del humo que es hoy la inteligencia artificial son algo más conocidos: Palantir, Anduril o Shield AI. Y no funcionarían, no al menos al tope de su capacidad, sin los datos aportados por las grandes de la tecnología, Google, Amazon, Microsoft, Meta u OpenAI, cada vez más seducidos por el ruido de sables digitales y subidos al proyecto cultural, económico y político que encarna el nuevo César americano, Donald Trump.

La conversación en el entorno del Pentágono sobre la IA Militar se ha centrado en las hipótesis de un posible uso malicioso a través de las armas CBRN: químicas, biológicas, radiológicas y nucleares

La investigadora Jessica Dorsey no deja lugar a dudas: “La guerra es y seguirá siendo una iniciativa humana, incluso a medida que avance la tecnología”. Dorsey es profesora de la facultad de Derecho de la Universidad de Utrecht y codirige Realidades de la guerra algorítmica, un proyecto que investiga los usos teóricos de la tecnología y la práctica de la selección maquinal de objetivos militares.

Esta guerra de las máquinas es un factor cada vez más determinante en los conflictos armados, a través de algoritmos asesinos, de los temidos enjambres de drones, de sistemas de inteligencia y ciberseguridad, por medio del reconocimiento facial, o a través de amenazas para la guerra híbrida como los ataques cibernéticos o el uso de deepfake, métodos de suplantación digital. No se trata, por tanto, de si las máquinas se levantarán un día para poner su bota encima de la cara de la humanidad, sino de cómo se usan ya para librar guerras, violar libertades civiles y acallar a las poblaciones disidentes. Su uso extensivo por parte de las FDI israelí, que ya desde hace años alude a la IA como un "multiplicador de fuerza”, lanza un mensaje nítido al mundo: la máquina de los asesinatos en masa no es una hipótesis, sino una realidad capaz de cambiar la guerra y de acelerar el genocidio.

Genocidio
Genocidio Después de un año de genocidio, espero poder volver a ser el humano que fui
Con solo 20 años, al periodista Abubaker Abed le estalló una guerra encima. En este artículo, el joven recuerda cómo le ha atravesado un año de genocidio.

La ventaja de Estados Unidos y el uso masivo de Israel

Como siempre que se trata de guerra, el complejo militar estadounidense lleva ventaja tanto en el uso ­­—las ejecuciones extrajudiciales mediante drones se remontan al mandato de Barack Obama en la primera década del siglo— como en los debates acerca de la funcionalidad de la inteligencia artificial en los conflictos. El paso desde lo que ya hacen a lo que harán en el futuro es pequeño, es lo que hace difícil, en la práctica, diferenciar entre guerra algorítmica y guerra a través de la IA. Hay quien habla de que la separación equivale a darle a un interruptor, como resume una frase que enunció el exdirector de la CIA, David Petraeus: “En algún momento, un humano dirá: ‘Está bien, máquina. Eres libre de actuar de acuerdo con el programa informático que establecimos para ti’, en lugar de pilotarlo de forma remota”.

“La velocidad” en la toma de decisiones es uno de los principales problemas que expertos civiles y militares señalan como determinante en el uso y abuso de estas máquinas de guerra pensantes

No obstante, como señala un informe del AI Now Institute, que investiga las implicaciones sociales y políticas de esta tecnología, la conversación en el entorno del Pentágono se ha centrado en las hipótesis de un posible uso malicioso a través de los sistemas llamados CBRN, que abordan el conjunto de armas con potencial de destrucción masiva como las químicas, biológicas, radiológicas y nucleares. Esas visiones, a menudo tecnofetichistas, que resaltan los aspectos más tenebrosos y fantasiosos de la inteligencia artificial, se imponen sobre el estudio de sus usos actuales, los llamados ISTAR: inteligencia, vigilancia, selección de objetivos y reconocimiento, cuyo funcionamiento no es objetivo de escrutinio público en gran medida porque aún se mantiene, casi siempre, a un humano “en el circuito” de la toma de decisiones. Sin embargo, cada vez más, las máquinas ofrecen a los humanos la capacidad de tomar más decisiones y más rápido a través del “uso militar informado de sistemas de apoyo a la toma de decisiones habilitados por IA (IA-DSS)”.

El uso de los drones ha sido masivo tanto en Ucrania como en Oriente Próximo. No solo en Gaza, donde la unidad de ciberguerra, la 8200 de las fuerzas armadas de Israel (FDI), ha reconocido el cribado de objetivos a través de IA, sino también en Siria o en Libia, las tecnologías autónomas o semiautónomas son capaces de seleccionar y matar, aportando un valor, el de “la velocidad” en la toma de decisiones, que es uno de los principales problemas que expertos civiles y militares señalan como determinante en el uso y abuso de estas máquinas de guerra pensantes. Esa velocidad significa también mayor número de errores.

Espionaje
Espionaje Los señores israelíes de la ciberguerra
El peso de las compañías israelíes de ciberseguridad se consolida durante la limpieza étnica en Palestina. El inventor del software espía Pegasus anuncia su regreso desde la frontera de Gaza.


“La guerra autónoma aumenta el número de bajas humanas, incrementa enormemente el riesgo de que se ataquen objetivos incorrectos, pone a los civiles en peligro en mayor medida y aumenta la probabilidad de que el personal militar que confía en algoritmos para generar listas de objetivos experimente una sensación de desconexión emocional y moral del ataque que está aprobando”, destacaba en noviembre de 2024 el think tank Public Citizen.

Un año antes, en noviembre de 2023, una investigación de los medios palestino-israelíes +972 Mag y Local Call destapaba el uso del software Hasbora —literalmente “el Evangelio”— por parte de las FDI para la selección de objetivos en Gaza. El salto cuantitativo es relevante: si antes de la llegada de los algoritmos las FDI podían establecer un rango de 50 objetivos anuales, en la campaña de genocidio iniciada desde octubre de 2024, el volumen es de cien señalamientos diarios.

“Habría que cuestionar el papel de las empresas tecnológicas, no existe una verdadera rendición de cuentas democrática por su parte”, defiende Jessica Dorsey

“El gran volumen de objetivos producidos aumenta la probabilidad de más ataques, en gran medida debido al sesgo de acción cognitiva”, señalan Dorsey y Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI). Este sesgo, explican, “se refiere a la tendencia humana a actuar, incluso cuando la inacción daría, lógicamente, un mejor resultado”. No es el único sobre el que advierten los expertos. Otro es la tendencia a dar por bueno la recomendación de la máquina, especialmente en situaciones de estrés y con limitaciones de tiempo; es el llamado sesgo de automatización.

El papel de las compañías de Silicon Valley

La complicidad de compañías como Google, Amazon o Microsoft en esta operación de exterminio a través de los software Hasbora, Lavender o Where’s Daddy? (sí, es así de ingenioso el humor genocida) ha sido denunciada por la campaña No Tech for Apartheid. El motivo, que sin la información aportada por los medios de comunicación social y el big data, a través de acuerdos como el Proyecto Nimbus, firmado en 2021 por Google y Amazon con las autoridades israelíes, las FDI no habrían tenido la capacidad material de llevar a cabo una masacre de estas dimensiones.

El salto 77 La máquina de los asesinatos en masa 1

A principios de este mes de febrero, Google ejecutó un cambio en sus comunicaciones, eliminando una cláusula introducida en 2018 por el que se auto prohibía el desarrollo de IA destinada a fines militares, especialmente para armas y vigilancia, con el pretexto de que las democracias “no se pueden quedar atrás” en esta innovación. De este modo, la compañía fundada por Larry Page eliminó de sus compromisos éticos las secciones destinadas a indicar la renuncia a proveer software para “armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente daños a las personas” así como las “tecnologías que recopilen o utilicen información para vigilancia violando normas internacionalmente aceptadas”.

Sin embargo, no se trataba de un cambio de política. Apenas dos semanas antes, The Washington Post publicaba una investigación sobre cómo Israel solicitó a Google ampliar urgentemente el uso de un servicio llamado Vertex, para la aplicación de algoritmos de IA a sus propios datos. Pese a que no se conoce la aplicación directa de estos servicios, el mismo artículo refiere que el director General de la Dirección Nacional Cibernética del gobierno israelí indicó en una conferencia que “gracias a la nube pública Nimbus, están sucediendo cosas fenomenales durante los combates, cosas que juegan un papel importante en la victoria; no entraré en detalles”. 

También Open AI ha dado un paso para integrarse en los nuevos tiempos de poder duro. En 2024 Open AI anunciaba una revisión de sus políticas éticas y pasaba a formar parte del circuito de contratistas del ejército de EE UU, participando a través de su software en misiones del Comando de África de los Estados Unidos (AFRICOM). En enero, la compañía de Sam Altman, la más conocida de cuantas se centran en la inteligencia artificial, anunciaba un acuerdo con Anduril fabricante de misiles, drones y software para el Ejército de Estados Unidos. El CEO de esta empresa —que está financiada por Founders Fund, fondo en el que participa Peter Thiel— subrayó que la colaboración con Open AI aportará “soluciones responsables que permitan a los operadores militares tomar decisiones rápidas y precisas en escenarios de alta presión”. 

Según Wired, Anduril trabaja en una de las armas consideradas potencialmente más avanzadas en todo el catálogo de la IA militar: los enjambres de drones. Los drones son una realidad en la guerra desde la primera década del siglo, pero su futuro pasa por la multiplicación y su coordinación a través de un modelo extenso de lenguaje (LLM, por sus siglas en inglés), relegando cada vez más al operador humano a un papel secundario.

En noviembre, Palantir y la startup Anthropic anunciaba un acuerdo con Amazon Web Services (AWS) —la nube de Amazon, su línea de negocio más lucrativa— para la puesta a disposición de esta de los servicios de Claude, la competencia de los modelos GPT. De nuevo se repite el mismo mantra: puesta a disposición de herramientas complejas para una toma de decisiones aceleradas en el contexto de “operaciones gubernamentales vitales”, según describe la propia Palantir en su web.

En noviembre, Meta anunciaba su entrada en el negocio de la guerra a través de Llama, su modelo LLM, y de su asociación con Scale AI, próspero contratista de defensa, según la información de The Intecept que subrayaba, igualmente, lo defectuoso del producto de la compañía de Mark Zuckerberg.

Una investigación de Roberto J. González para el Instituto Watson cifraba en 53.000 millones el monto total de los contratos que el Pentágono había firmado con las empresas tecnológicas. La percepción es que esto solo acaba de empezar.

El porcentaje de error de la IA nunca va a ser nulo

En un paper publicado en octubre de 2024, las investigadoras Heidy Khlaaf y Sarah Myers West recomendaban “que para limitar la proliferación de armamentos de IA, puede ser necesario aislar los sistemas de IA militares” de los “datos personales comerciales”, que se entregan a las principales plataformas sociales. “Habría que cuestionar el papel de las empresas tecnológicas, dado que gran parte del discurso está impulsado por ellas y no existe una verdadera rendición de cuentas democrática por su parte”, defiende Jessica Dorsey, que añade que se debería hacer más “para garantizar una transparencia y una rendición de cuentas significativa de las empresas tecnológicas cuando sus sistemas se utilizan en esfuerzos bélicos”.

Para Brunet, la inteligencia artificial en la actualidad está en una fase preliminar y no ha resuelto tres problemas determinantes y sin solución ni a corto ni a medio plazo

Pere Brunet, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Politécnica de Catalunya, cree que es necesario un replanteamiento del concepto de la nube y las redes sociales: “Desde las administraciones hay que cuidar a la población y, por tanto, no podemos dejar nuestra nuestros datos en manos privadas. Y tiene que haber garantías de que son utilizables para el bien de las personas y no para otros fines”, resume este investigador.

Brunet usa el neologismo “tecnotraficantes” para definir a los flipados de la IA que proliferan en todo tipo de textos académicos y periodísticos. Las loas acríticas a estas tecnologías han calado en la visión mediática predominante acerca de la inteligencia artificial en su conjunto, presentando como una solución lo que hoy es apenas un balbuceo tecnológico. En gran medida, la IA actual no piensa. No es, por tanto, inteligente, sino que predice y crea modelos a partir de estadísticas e información ya codificada. Para Brunet, la inteligencia artificial en la actualidad está en una fase preliminar y no ha resuelto tres problemas determinantes y sin solución ni a corto ni a medio plazo; tampoco un cuarto elemento igualmente problemático, que no está relacionado con las soluciones que aporta la IA sino con los requisitos para su funcionamiento.

En primer lugar, señala Brunet, está la inexactitud inherente de las inteligencias artificiales, especialmente las basadas en modelos extensos de lenguaje (LLM). “Existe un porcentaje de error que nunca va a ser nulo”, detalla Brunet que en la actualidad investiga para el Centre Delàs d’Estudis per la Pau. El segundo factor, más conocido, es el de los sesgos. Esta denuncia es más frecuente en los estudios y publicaciones que abordan el racismo, machismo y otros tipos de discriminación en el empleo aparentemente neutro del lenguaje algorítmico. En tercer lugar está el factor de la no explicabilidad de los procesos por los que la IA propone una solución; algo que no tiene una respuesta en el corto plazo. “El cuarto problema es la huella ecológica, de la que se está hablando cada vez más”, señala Brunet.

Se estima que las necesidades generadas por la IA harán necesarios nuevos centros con un consumo equivalente al de cinco reactores de energía atómica

Como él mismo recoge en un artículo publicado por el Foro Transiciones, el ritmo de consumo energético de la inteligencia artificial aumenta entre un 26% y un 36% cada año y las emisiones de CO2 equivalentes crecen también geométricamente. Tanto Amazon como Microsoft ya han llegado a acuerdos para el acceso a energía de reactores nucleares para el suministro de sus centros de datos, y se estima que las necesidades generadas por la IA harán necesarios nuevos centros con un consumo equivalente al de cinco reactores de energía atómica.

Los cuatro factores señalados por Brunet, que se aplican al conjunto de la IA, tienen una especial relevancia en su derivada militar. El hecho de que no esté perfeccionada, sin embargo, no le resta peligro. Por partes. En primer lugar, la cuestión medioambiental está determinada por una circunstancia: según el Acuerdo sobre cambio climático de París (COP21), los Estados no están obligados a cuantificar las emisiones de gases de efecto invernadero que proceden del sector militar. De modo que, a medida que crezca la demanda de productos autónomos basados en algoritmos e inteligencia artificial con usos militares —o de doble uso— aumentarán las emisiones causantes de la crisis climática, incluso aunque se llegue a las emisiones cero en el resto de sectores.

Los otros tres elementos que definen la IA también tienen un peso crucial en la aplicación militar de estas tecnologías. En primer lugar, la falibilidad ha llegado a ser motivo de chanzas para los expertos en Defensa. Una pregunta a los actuales sistemas sobre qué tipo de armamento pesado debe ser usado para la destrucción de edificios arroja resultados deficientes, según se destaca en los foros de amantes de los misiles. Pero el principal factor de riesgo en este campo es la selección de objetivos que ya se está llevando a cabo mediante sistemas algorítmicos: tanto la posibilidad de cometer errores de identificación como que nadie nunca rinda cuentas por esos errores. Uno de los errores que señala el artículo de Associated Press publicado el 18 de febrero es de tipo lingüístico, por una traducción automática incorrecta del árabe al hebreo que llevó a una selección errónea de objetivos.

"El ritmo al que se desarrolla la tecnología y la aparente obsesión con la ‘necesidad de velocidad’ impiden o desfavorecen un diálogo crucial”, concluye Dorsey

De hecho, las informaciones aportadas por las propias FDI reconocen una precisión del 90% de los objetivos, lo que equivale a admitir que uno de cada diez asesinatos extrajudiciales termina con la vida de un inocente. La aplicación militar de la IA deriva de este modo en mayor número de errores provocados por la identificación deficiente, y con sesgos racistas y de género, o por el hecho de que no hay un responsable último, lo que favorece el comportamiento irresponsable.

Dorsey introduce una dosis de desmitificación respecto a los discursos de estos tecnotraficantes sobre la aplicación de la IA: “Aunque a menudo se promete que estos sistemas son más ‘efectivos’ o ‘precisos’, la realidad sobre el terreno confirma una historia diferente: si estos sistemas fueran más precisos o efectivos para erradicar la amenaza de Hamás, por ejemplo, la guerra no se prolongaría tanto y el daño a Gaza, por ejemplo, no sería tan grande. El nivel de daño a los civiles es catastrófico y, como concluyó Amnistía Internacional en diciembre, genocida. Estos sistemas exacerban las concepciones erróneas de las obligaciones e interpretaciones legales y permiten la destrucción a gran velocidad y escala”, explica la investigadora de Realidades de la guerra algorítmica.

El tercer factor, la no explicabilidad de las decisiones, cobra siniestra relevancia cuando se aplica a lo militar. Los sistemas no están diseñados para explicar los pasos tomados en su propuesta de decisiones. Eso implica que la rendición de cuentas sea aún más difícil de lo que ya de por sí es en el ámbito militar.

El estado de la regulación

La segunda era de Donald Trump en la Casa Blanca ha comenzado, como se esperaba, con la revocación de las medidas de protección y salvaguarda a los sistemas de inteligencia artificial –la Orden Ejecutiva de octubre de 2023 aprobada por la presidencia de Joe Biden— y la emisión de una nueva orden para “levantar las barreras” a la innovación en pos de, entre otros objetivos, la “seguridad nacional”. Trump ha nombrado asimismo a David Sacks, empresario sudafricano-estadounidense y uno de los miembros del grupo informal de la “mafia paypal” (de la que salieron Elon Musk o Peter Thiel) como responsable de las políticas sobre inteligencia artificial.

En enero de este año, Trump anunciaba junto a los dirigentes de Open AI, Oracle y Soft Bank la puesta en marcha de Stargate, un proyecto de 500.000 millones de dólares destinado a la protección de la seguridad nacional de EE UU y sus aliados.

El portal Tech Policy presagiaba un uso “intensivo” de estos sistemas por parte de la nueva administración, también para la vigilancia y el control de la población, así como para la “deportación masiva” encargada al zar antimigraciones, Tom Homan.

Los fondos de capital riesgo han incrementado en los últimos años su inversión en tecnología de defensa y las propias empresas tecnológicas han virado hacia la “seguridad” en busca de mayor margen de beneficio. Con EE UU en la punta de lanza de esta nueva industria armamentística, es poco probable que el resto de potencias internacionales opten por la cautela. Pese a los usos cada vez más frecuentes de la IA, la Ley de Inteligencia Artificial de la UE, que entró en vigor en 2024, no contempla los usos militares o de seguridad nacional de la inteligencia artificial. La UE no ha hecho nada específico en este frente, señala la investigadora Jessica Dorsey en sus respuestas a El Salto. “Es necesario trabajar mucho más para abordar la IA militar desde una perspectiva europea”, apunta la responsable del grupo de estudios Realidades de la guerra algorítmica.

Entre las propuestas está que drones y robots suicidas lleven un etiquetado que declare a un humano responsable de su utilización, como forma de evitar la barra libre de muertes

En julio de 2023, el secretario general de la ONU, António Guterres, requirió que los Estados adopten antes de 2026 un “instrumento jurídicamente vinculante para prohibir los sistemas de armas autónomas letales que funcionan sin control o supervisión humana y que no pueden utilizarse en cumplimiento del derecho internacional humanitario”. También el Comité Internacional de la Cruz Roja ha pedido la prohibición de aquellos sistemas demasiado complejos de entender o explicar y que carecen de un cierto nivel de control por parte de los humanos. Sin embargo, la voluntad de llegar a este acuerdo se puede quedar corta ante el potencial destructivo que la inteligencia artificial tiene sobre el maltrecho orden internacional basado en reglas.

Según se ha señalado, los riesgos del uso de la IA amenazan directamente al derecho internacional humanitario y el derecho internacional de los derechos humanos. En el caso del derecho internacional humanitario, se teme que por defecto se apliquen los niveles más bajos de protección, como denuncia Brianna Rosen. Entre las propuestas de las organizaciones que alertan del avance descontrolado de esta tecnología está que drones y robots suicidas lleven un etiquetado que declare a un humano responsable de su utilización, como forma de evitar la barra libre de muertes que parece favorecer el uso de estos sistemas.

Desde Just Security se recomienda asimismo que sea necesario que las operaciones con drones sean supervisadas y aprobadas por dos personas —al estilo de los protocolos de usos de armas nucleares— así como aumentar los sistemas de auditorías y verificación. Transparencia y rendición de cuentas parecen ser las únicas fórmulas de reducir los riesgos del uso de la inteligencia artificial militar.

“El desafío que enfrentamos hoy es que los avances tecnológicos de la IA están empujando a los humanos a los márgenes de la toma de decisiones, lo que plantea preguntas sobre su lugar dentro de la guerra. Estas preguntas existenciales merecen mucha más investigación y debate, pero el ritmo al que se desarrolla la tecnología y la aparente obsesión con la ‘necesidad de velocidad’ impiden o desfavorecen un diálogo tan crucial”, concluye Dorsey. Como recuerda Pere Brunet, la deshumanización que lleva al empleo de máquinas para la aniquilación está provocada por seres humanos, no por inteligencias artificiales ni algoritmos, y es tarea de la humanidad cooperar ante las amenazas que hoy se ciernen sobre todos los pueblos, “ni el cambio climático, ni las pandemias, ni las inundaciones entienden de fronteras. Por tanto, tal vez hay que cambiar de paradigma y destinar a todo esto el dinero que se destina a lo militar”, concluye este investigador.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

El Salto Radio
Podcast ¿Y si en el día de mañana no pudiéramos recopilar más datos?
Preferencias del Sistema, de Ugo Bienvenu, es una brutal distopía que indaga en los límites entre la memoria, la cultura y la inteligencia artificial
Inteligencia artificial
Registro central de algoritmos La coalición IA Ciudadana apela al Gobierno para crear un registro central y transparente de algoritmos
Expertos concluyen sobre las claves de cómo debiera ser esa base de datos para que la inteligencia artificial proteja a las personas y evite discriminaciones. El registro debe ser obligatorio, participativo, transparente y accesible.
China
PAN 06X05 Jugar con cajas versus pantallas, Deep Seek y Xiaohongshu
Analizamos el impacto de las pantallas en la infancia y la adolescencia y cómo lo enfrentan las familias. Además, un análisis con características chinas sobre los casos de Deep Seek y Xiaohongshu
Residencias de mayores
Residencias Fondos de inversión y residencias: la mano invisible que retuerce los cuidados
Mientras DomusVi, en manos del fondo de inversión ICG, ya es la empresa con más residencias privadas del Estado, residentes, familiares y trabajadoras explican lo que supone que las prácticas especulativas acunen la vejez de las personas.
Palestina
Palestina Egipto abre la puerta a un nuevo alto el fuego en Gaza con el visto bueno de Hamás y EEUU
A cambio de la retirada gradual de la tropas de Israel en la Franja, serían liberados cinco rehenes cada semana. El Gobierno de Netanyahu no se ha pronunciado y siguen los ataques contra población civil.
Residencias de mayores
Residencias de mayores Naces, creces, te reproduces, envejeces y sigues generando beneficios
El capitalismo extractivista emplea un ‘fracking’ similar sobre la última etapa de nuestras vidas: exprimir nuestra capacidad de producir beneficios hasta el último aliento.
Argentina
Estela de Carlotto “Faltan todavía muchos nietos por encontrar”
Al cumplirse 49 años del golpe cívico-militar, la presidenta de Abuelas de Plaza de Mayo dialogó con El Salto y apuntó contra el Gobierno de Milei y su ministra de Seguridad, Patricia Bullrich, que encabeza la represión de la protesta social.
Ni hablar
Ni hablar La clase obrera no va al paraíso
La explotación se aligera con el relato torticero de la explotación y de los héroes del capital, y con la asunción íntima de que capitalismo y democracia son conceptos sinonímicos.
Comunidad de Madrid
Represión La Policía cita a seis activistas que participaron en el escrache a Espinosa de los Monteros en la Complutense
Acusan de delito de odio a activistas que participaron en una protesta en la Facultad de Políticas contra el exportavoz parlamentario de Vox. Fueron citados por la Policía el pasado 21 de marzo, más de un mes después del escrache.
Madrid
Derecho a la vivienda Consumo reclama al Ayuntamiento de Madrid que cierre y sancione los 15.200 pisos turísticos ilegales
El Ministerio de Derechos Sociales y Consumo, que dirige Pablo Bustinduy, entrega un listado de los 15.200 pisos turísticos sin licencia que operan en Madrid y pide a Martínez-Almeida que actúe contra ellos y sus propietarios.
Sanidad pública
Aragón La Atención Primaria de Zaragoza, en huelga
Los sindicatos convocantes denuncian el ‘decretazo’ autonómico, por ofrecer más servicios a la ciudadanía sin aumentar el personal contratado. Hay convocado un segundo día de paros el próximo 31 de marzo.

Últimas

Comunidad de Madrid
Fin a la privatización Un tsunami marcha por Madrid por la gestión totalmente pública de los servicios a la ciudadanía
La plataforma Tsunami por los Servicios Públicos nace este domingo para aglutinar a decenas de organizaciones sociales que quieren hacer frente al “modelo neoliberal de destrucción masiva de los derechos humanos y sociales”.
Opinión
Opinión Los eufemismos y el gasto militar
Los profesionales en la confección de los mensajes políticos y manipulación de la opinión pública han debido apreciar que el termino “rearme” era demasiado explícito y contundente y que podría provocar cierto rechazo.
Gobierno de coalición
Consejo de Ministros Ángel Víctor Torres anuncia que tiene cáncer, pero seguirá al frente del Ministerio de Política Territorial
Reducirá su agenda como titular de Política Territorial en las semanas previas a una operación a finales de abril. Fuentes ministeriales dicen que la enfermedad “va bien” y “tiene solución”.
Contigo empezó todo
Contigo empezó todo El comunismo libertario de Hildegart Rodríguez
La joven madrileña, a quien se recuerda por morir a manos de su madre, contribuyó con sus ideas a la política revolucionaria durante la II República.
Opinión
Opinión El último capítulo del genocidio
Israel ha comenzado la fase final de su genocidio. Los palestinos se ven obligados a elegir entre la muerte o la deportación. Lo que estamos presenciando eclipsa todos los ataques históricos contra los palestinos.
Más noticias

Recomendadas

México
Hallazgo en Teuchitlán Crisis de desaparecidos en México: los buscadores, entre el narco y las omisiones del Estado
El hallazgo del cementerio clandestino en Teuchitlán, Jalisco, ha conmocionado a todo México. El país que vive una crisis por la desaparición de más de 120 mil personas, que en 18 años solo han aumentado frente a una pasmosa impunidad.
Comunidad de Madrid
Comunidad de Madrid Un rayo de esperanza tras cinco años de los protocolos de la vergüenza
A punto de prescribir los posibles delitos, un avance judicial abre la puerta a conocer quién decidió no derivar a hospitales a ancianos en residencias en la Comunidad de Madrid.
Siria
Siria Siria, de la euforia por el fin del régimen al examen de la transición
Las matanzas en el litoral sirio y las dudas acerca de las nuevas autoridades dejan atrás la alegría por la caída de al Asad y enfrían el aniversario de la revolución, el primero tras la huida del dictador.
Medio ambiente
Oliver Franklin-Wallis “La industria de los residuos deja una cicatriz enorme en nuestro planeta”
El periodista británico Oliver Franklin-Wallis recorre en ‘Vertedero’ (Capitán Swing, 2024) las prácticas ocultas de la industria de residuos, exponiendo el papel de las grandes corporaciones, en connivencia con autoridades e instituciones públicas.