We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Ocupación israelí
Nuevas trincheras para la guerra: la optimización del genocidio y la viralidad de la resistencia palestina
En el artículo “El evangelio según Google: el rol de las tecnologías y las Big Tech en el genocidio palestino” abordamos cómo las tecnologías digitales se transforman en instrumentos para librar la guerra, reprimir a la población palestina y controlar el relato a escala internacional. Un año más tarde, ante la llegada de un posible alto el fuego y tras más de 45.000 víctimas palestinas, repasamos la situación, ampliando el análisis de las herramientas utilizadas. Nos sumergimos así en el inquietante situación de ver el genocidio a través de una pantalla, donde la “experiencia” de la violencia contribuye a deshumanizar al pueblo palestino y allana el camino hacia una guerra con tintes futuristas, cada vez más distante y mediada por datos. Buscamos no solo documentar un conflicto, sino cuestionar la lógica insidiosa de una maquinaria digital en la que el sufrimiento se convierte en un producto, reiterando que la defensa de los derechos digitales es, intrínsecamente, la defensa de los derechos humanos.
En 2024, mientras la tensión en Gaza alcanzaba niveles insólitos, emergieron nuevas herramientas tecnológicas que, en manos de Israel, no solo optimizaban la eficiencia militar, sino que también profundizaban la capacidad de control y deshumanización del régimen sionista de Netanyahu.
El discurso de la innovación al servicio de la muerte
En nuestro primer análisis, explicamos el funcionamiento de herramientas como “Evangelio” (The Gospel) y las aplicaciones sobre las cuales se construye el panóptico israelí (Manada de Lobos, Lobo Azul, etc), una sofisticada infraestructura digital que permite al Ejército de Israel automatizar la selección de objetivos y optimizar la eficiencia de la guerra. Inspeccionamos cómo estas tecnologías, desarrolladas y facilitadas con la complicidad de las grandes empresas tecnológicas, han permitido transformar dispositivos cotidianos en herramientas de vigilancia y control, haciendo que la guerra se configure cada vez más alrededor de una amalgama de algoritmos letales.
En 2024, mientras la tensión en Gaza alcanzaba niveles insólitos, emergieron nuevas herramientas tecnológicas que, en manos de Israel, no solo optimizaban la eficiencia militar, sino que también profundizaban la capacidad de control y deshumanización del régimen sionista de Netanyahu. Estas herramientas, lejos de ser meras “mejoras operativas” tal y como las describieron las fuentes del gobierno, redefinen la manera en que se ejecuta la violencia, desdibujando aún más las fronteras entre lo civil y lo militar, y complicando aún más la rendición de cuentas.
En marzo de 2024, The New York Times expuso cómo las capacidades de reconocimiento facial de “Corsight” se habían integrado con el vasto repositorio de Google Photos para crear un sistema de vigilancia sin precedentes en Gaza. Esta red de arrastre facial permite identificar y seguir a individuos, convirtiendo una utilidad pensada para uso civil en una herramienta militar de control absoluto. Matt Mahmoudi, investigador de Amnesty International, declaró al periódico estadounidense que esta tecnología contribuye a una “completa deshumanización de los palestinos”, que no son vistos como individuos. Mosab Abu Toha, un reconocido poeta palestino, es una de las víctimas de los falsos positivos de este tipo de tecnologías. El 19 de noviembre de 2023 fue falsamente identificado como un operativo de Hamas mediante este sistema, resultando en su detención, tortura y eventual liberación sin cargos reales. Así pues, esos despliegues tienen un gran impacto en la población civil, exacerbando su sufrimiento.
Esta automatización elimina el “cuello de botella provocado por el humano”, permitiendo que los soldados dediquen apenas 20 segundos a revisar cada objetivo antes de autorizar un bombardeo.
En abril de 2024, +972 Mag y Local Call dieron a conocer otro sistema que conmocionó al mundo: “Lavender”. Lavender es un sistema de gran capacidad para procesar datos e identificar patrones, una inteligencia artificial diseñada específicamente para marcar a decenas de miles de personas palestinas como objetivos de asesinato. Analiza datos recolectados mediante el entramado de vigilancia masiva que ya desgranamos hace un año. Evalúa la probabilidad de que un individuo pertenezca a alas militares de Hamas o al Frente de Liberación de la Jihad Islámica Palestina (PIJ). Asigna una puntuación del 1 al 100 basada en indicadores que van desde pertenecer a ciertos grupos de WhatsApp hasta cambios frecuentes de teléfono o dirección. Esta automatización elimina el “cuello de botella provocado por el humano”, permitiendo que los soldados dediquen apenas 20 segundos a revisar cada objetivo antes de autorizar un bombardeo. Con una tasa de error de aproximadamente el 10% según las fuentes oficiales, “Lavender” no solo incrementa las víctimas colaterales, sino que también difumina la responsabilidad, ya que las decisiones letales se basan en los cálculos matemáticos de un algoritmo al que los soldados consideran más “objetivo”.
En abril de 2024, El proyecto “Where’s Daddy?”, descubierto también por +972 Mag, representaba una escalada aún mayor en la automatización de la violencia. Este software de seguimiento utiliza los datos generados por “Lavender” para localizar a los individuos señalados y bombardearlos cuando se encuentran en las residencias familiares. “Where’s Daddy?” envía alertas automáticas a los oficiales del IOF, quienes ordenan ataques que a menudo resultan en la destrucción total de hogares y el asesinato de famílias enteras. Este sistema convierte el sufrimiento humano en una serie de coordenadas digitales, reduciendo a las víctimas a simples puntos en un mapa automatizado.
Escalabilidad y amplificación del genocidio
Estas innovaciones tecnológicas, presentadas como mejoras en el rendimiento militar, en realidad amplifican la capacidad de matar y deshumanizar. La automatización casi total de estos sistemas crea un entorno donde la violencia se ejecuta a través de capas de opacidad, dificultando la rendición de cuentas y perpetuando una opresión sistemática. Los soldados, al operar bajo criterios establecidos por algoritmos y sistemas automatizados, se encuentran en una posición donde la responsabilidad moral se diluye, permitiendo una brutalidad mecanizada que minimiza el espacio para la disidencia interna y la reflexión ética.
Los soldados, al operar bajo criterios establecidos por algoritmos y sistemas automatizados, se encuentran en una posición donde la responsabilidad moral se diluye, permitiendo una brutalidad mecanizada que minimiza el espacio para la disidencia interna y la reflexión ética.
La deshumanización provocada por esta automatización, junto con la distancia emocional que crean las interfaces tecnológicas, contribuye a una idealización de la violencia militar. Los movimientos de los soldados se vuelven espectaculares y desprovistos de empatía, presentando la guerra como un proceso frío y calculador. Este ensamblaje mecanizado no solo dificulta la persecución de responsabilidades apuntada anteriormente, sino que también reduce la posibilidad de resistencia interna dentro de las fuerzas militares. La sofisticación tecnológica de la guerra actual parece ser una consecuencia directa de una innovación impulsada por una ideología sionista que justifica la deshumanización del otro como un medio para alcanzar fines necro-estratégicos.
La modernidad bélica se encuentra vestida de algoritmos y vigilancia digital, pero, en esencia, la responsabilidad y el sufrimiento continúan siendo profundamente humanos.
Además, estas estrategias tecnológicas nos muestran un horizonte de guerra que, por muy futurista que parezca, ya está en pleno funcionamiento. La integración de sistemas como “Lavender”, “Corsight” y “Where’s Daddy?” no es el preludio de nada, sino una realidad presente que parece intentar redefinir la naturaleza misma del conflicto. Pero nada más lejos de la realidad. La modernidad bélica se encuentra vestida de algoritmos y vigilancia digital, pero en esencia, la responsabilidad y el sufrimiento continúan siendo profundamente humanos. La realidad de una guerra tecnificada es una cuestión de incremento de escala.
La doble cara de las redes sociales: solidaridad performativa y llamada al boicot de perfiles de usuarios
En nuestro anterior artículo apuntamos el papel de los algoritmos de moderación de las redes sociales en el control de la información en redes sociales, advirtiendo que faltaban datos concretos pero la sensación de censura orquestrada era palpable. El informe de 7amleh “Erased and Suppressed: Palestinian Testimonies of Meta's Censorship” desvela con contundencia cómo las políticas de moderación y censura de las plataformas de Zukerberg están siendo empleadas para silenciar voces críticas y evidencias sobre el genocidio en Palestina. Periodistas y cronistas, como Motaz Azaiza y Bisan Owda, han sufrido la supresión sistemática de sus testimonios en plataformas dominadas por las grandes tecnológicas. Los relatos que documentan la devastadora realidad en el terreno se ven borrados o atenuados, impidiendo que la opinión pública acceda a una información esencial y veraz, mientras se aniquilan periodistas en el campo de batalla. La estrategia de censura recurre a la moderación agresiva, en la que algoritmos y decisiones editoriales –respaldadas por políticas opacas de las propias empresas– actúan como herramientas de represión. Se perpetúa así una narrativa oficial que contribuye a la deshumanización y marginación de la población palestina.
Los relatos que documentan la devastadora realidad en el terreno se ven borrados o atenuados, impidiendo que la opinión pública acceda a una información esencial y veraz, mientras se aniquilan periodistas en el campo de batalla.
En el terreno de la cultura digital, sin necesidad de ser periodistas, los influencers también han sido blanco de esta represión. Hamada Sho, conocido inicialmente por su pasión gastronómica, ha trascendido en la red y se ha convertido en un símbolo de esperanza, ofreciendo platos y relatos que invitan a imaginar un futuro en el que la cocina sea un acto de resistencia. Pero, al igual que otros, se ve inmerso en un sistema que limita su alcance, evidenciando cómo la censura digital afecta a toda una gama de narrativas, desde las más informacionales hasta las crónicas de la vida cotidiana. Otro ejemplo emblemático es el de los jóvenes creadores detrás del Mohammed and Omar Show. A lo largo de más de 80 videos, estos dos jóvenes han mostrado con crudeza la realidad de la vida en Gaza, aportando matices humanos y simpáticos, con el optimismo propio de su edad, que desdibujan la fría imagen de la violencia. Sin embargo, sus contenidos han oscilado en visibilidad; momentos de gran repercusión se han visto seguidos por períodos en los que sus publicaciones han sido oscurecidas y, en ocasiones, hasta apagadas, como ellos mismos han contado en su perfil. Esta alternancia entre la exposición y el silencio ilustra la lucha diaria de quienes buscan contrarrestar la narrativa hegemónica, sin perder la esperanza de que sus voces puedan, algún día, contribuir a la liberación de su pueblo.
Por un lado, se despliega una solidaridad que, a través de la viralidad, ofrece un respiro momentáneo ante la desesperación; por otro, emergen formas de boicot digital y presión que evidencian la profunda indignación de una juventud que se niega a callar.
La respuesta en las redes al conflicto en Gaza ha demostrado ser tan compleja como ambivalente. Por un lado, se despliega una solidaridad que, a través de la viralidad, ofrece un respiro momentáneo ante la desesperación; por otro, emergen formas de boicot digital y presión que evidencian la profunda indignación de una juventud que se niega a callar. El análisis de Guillermo Zapata sobre las ‘swifties’ ilustra este fenómeno.
Mientras las ‘swifties’ se preparaban para su concierto, el Estado de Israel asesinaba a 50 refugiados en Rafah, entre ellos varios niños. La noticia y sus imágenes desgarradoras recorrieron el mundo, y apenas unas horas después apareció en Instagram una imagen generada con inteligencia artificial que decía “All Eyes on Rafah” – “Todos mirando a Rafah”. Con más de 40 millones de comparticiones, esta imagen se erigió en un símbolo omnipresente en la red. Según Zapata, su viralidad movilizó a millones y abrió un debate sobre el activismo digital: ¿es simplemente una respuesta performativa que mitiga la desesperación o una invitación a una implicación más profunda? El fenómeno generó tres líneas de crítica: se cuestionó el uso de inteligencia artificial en lugar de testimonios visuales reales; se criticó la renuncia a imágenes genuinas de Rafah; y se advirtió que compartir la imagen sin acciones concretas podría ser solo un consuelo pasajero y una denuncia superficial.
Simultáneamente, surgió un movimiento de boicot digital contra celebridades que, según sus seguidores, permanecían en silencio sobre la crisis en Gaza. La acción se encendió durante la Met Gala, cuando el contraste entre el glamour del evento y la operación militar en Rafah despertó la furia en redes. Un TikToker, bajo el nombre @blockout2024, instó a bloquear a las celebridades argumentando que “cuando les odiamos, ganan dinero; cuando les alabamos, ganan dinero; pero si bloqueamos sus cuentas, lo pierden todo”. Esta campaña, difundida a través de hashtags como #blockout y #blockout2024, llegó a impactar en múltiples plataformas, afectando a figuras reconocidas como Taylor Swift, Cristiano Ronaldo y Beyoncé.
El reto, entonces, es convertir esa efímera solidaridad digital en un compromiso sostenible.
Estos movimientos reflejan la tensión inherente en el activismo digital contemporáneo. Por un lado, la imagen “All Eyes on Rafah” capta la atención global y recuerda la brutalidad de Rafah; por otro, surge una exigencia por mayor compromiso que trasciende la conmoción inmediata y busca transformar la indignación en presión real sobre las figuras públicas y los sistemas de poder. Como concluye Zapata, el activismo no reside únicamente en la denuncia estética, sino en la capacidad de tejer comunidades basadas en el amor por la justicia y la defensa de los derechos humanos.
El reto, entonces, es convertir esa efímera solidaridad digital en un compromiso sostenible. Se requieren herramientas fáciles de usar que se ajusten a la dispersa atención de una audiencia saturada de información. La verdadera respuesta radica en canalizar este impulso para construir redes de apoyo que generen acciones concretas: campañas de recaudación de fondos, organización de protestas y presión política, o incluso boicots que perjudiquen a quienes se benefician del silencio y la complicidad.
Retos para la tecnopolítica en tiempos de genocidio por streaming
Queda patente y demostrado que la guerra dejó de ser algo que se libra únicamente en el terreno físico, se despliega a través de pantallas y algoritmos. La narración del genocidio a través de dispositivos digitales permite una cierta desensibilización del espectador, ya que la virtualidad diluye la inmediatez del sufrimiento humano. Al transformar la violencia en datos y cifras, en memes e imágenes creadas para la ocasión, se corre el riesgo de convertir el dolor en un producto consumible y controlable a distancia. Paralelamente, se observa la irrupción de herramientas gamificadas que acompañan las tareas de ocupación, banalizando la violencia. Estos mecanismos convierten la ejecución de actos letales en un proceso que puede parecer meramente mecánico o incluso lúdico. Esta ”experiencia de usuario” en el momento de ejercer violencia facilita que la brutalidad se administre como si de un juego se tratase, reconfigurando la guerra en términos que, a pesar de su futurismo, son profundamente deshumanizadores.
Este panorama anuncia las consecuencias para el futuro de la violencia sionista: la guerra es cada vez más tecnificada, la toma de decisiones letal se oculta tras una pantalla y la responsabilidad humana se fragmenta entre múltiples capas de automatización. Dicho proceso no solo hace que el sufrimiento se filtre y se transforme en entretenimiento o datos, sino que también dificulta la denuncia y la acción ética ante un conflicto donde el control y la eficiencia se anteponen a la humanidad.
Es indispensable responsabilizar a las empresas tecnológicas que permiten y facilitan estos sistemas de control, opresión y muerte, y repensar el futuro de la lucha de la resistencia palestina en un marco en el que la defensa de los derechos digitales sea, indisolublemente, la defensa de los derechos humanos.
La evolución tecnológica en la ocupación de los territorios palestino plantea pues, desafíos urgentes para la tecnopolítica y la defensa de los derechos digitales. Ya abordamos algunos de ellos en el anterior artículo e hicimos un llamamiento a la denuncia colectiva. Un año después insistimos: es indispensable responsabilizar a las empresas tecnológicas que permiten y facilitan estos sistemas de control, opresión y muerte, y repensar el futuro de la lucha de la resistencia palestina en un marco en el que la defensa de los derechos digitales sea, indisolublemente, la defensa de los derechos humanos. En definitiva, mientras la necropolítica sionista se configura en cifras y algoritmos, el imperativo ético nos llama a rescatar la humanidad en cada uno de los datos que, por muy frío que parezca, representa una vida.
Agradecimientos.
Este artículo ha sido posible gracias al trabajo colaborativo de Tecnosandías, una comunidad de personas interesadas en la tecnopolítica y el poder.