Inteligencia artificial
Mitos, realidades y posibilidades de la Inteligencia Artificial

En las últimas décadas hemos sido testigos de una aceleración en la producción e implementación de tecnologías de cognición técnica y decisión algorítmica. Sin embargo, más allá de sus aplicaciones reales, la IA parece estar rodeada de mitos ultramodernos, imaginarios prometeicos, peligros existenciales, sesgos culturales y confusiones cotidianas que despiertan interrogantes y demandan una visión crítica.
Dall-E
dall-e IA

La realidad no siempre supera la ficción: mitos y aplicaciones reales de la IA

La inteligencia artificial ha sido retratada a menudo como un peligro para los humanos. Desde clásicos como 2001: Una odisea en el espacio hasta películas más recientes como Transcendence exploran la posibilidad de que los robots tomen conciencia y se rebelen contra sus creadores. Esta idea no se encuentra únicamente en la ciencia ficción más distópica, sino que ha sido promulgada por científicos como Stephen Hawking o empresarios del sector tecnológico como Elon Musk, que coinciden en que la IA puede suponer una amenaza para nuestra civilización o incluso para la existencia de nuestra especie. 

Detrás de esta visión, que ha colonizado por completo el imaginario popular, se encuentran las predicciones de Raymond Kurzweil. Según este futurólogo estadounidense, la IA pasará por primera vez una prueba de Turing válida en 2029, demostrando así niveles humanos de inteligencia; y en 2045 se producirá la llegada de la singularidad, que define como el momento en que los humanos multiplicaremos nuestra inteligencia efectiva mil millones de veces al fusionarnos con la inteligencia que hemos creado, trascendiendo nuestras limitaciones biológicas y difuminando la distinción entre organismo y máquina. Ambas predicciones se basan en la Ley de Moore, que establece que el número de transistores de un procesador se duplica cada dos años, por lo que la complejidad de los circuitos integrados crece exponencialmente mientras los precios y costes de fabricación se reducen. 

Dicha “ley” ha sido puesta en entredicho y muchos la consideran estancada a causa de los límites físicos de la tecnología actual, como hemos podido observar recientemente con la crisis de semiconductores. Sin embargo, estos relatos de corte transhumanista ayudaron a generar el hype necesario para salir del invierno de la IA, que es como se conocen los períodos de reducción de fondos e interés en su investigación (en contraposición al verano en el que se invierten miles de millones de dólares), por lo que se podrían considerar hipersticiones, es decir, ficciones que actúan causalmente para producir su propia realidad. En palabras de Kurzweil: “Muchos observadores siguen pensando que el invierno de la IA fue el final de la historia y que no ha pasado nada desde entonces; sin embargo, hoy en día miles de aplicaciones de la IA están profundamente arraigadas en la infraestructura de todas las industrias”. Ahora bien, ¿cuáles son estas aplicaciones?

Lo cierto es que, a pesar de estos imaginarios prometeicos, la IA resulta ser algo mucho más banal que ya forma parte de nuestra cotidianidad. Sus aplicaciones en la actualidad atraviesan distintas escalas de nuestra realidad. A una escala personal o doméstica podemos observar la proliferación de los asistentes digitales (Siri, Alexa o Cortana), los traductores en línea, los servicios de atención al cliente mediante chatbots, los algoritmos de recomendaciones que usan los gigantes tecnológicos para ofrecer servicios de publicidad personalizada. Estamos interactuando con una IA cada vez que, por ejemplo, consultamos varias veces billetes de avión y los precios varían. A escala de la ciudad,  existen numerosos aplicaciones que están comenzando a poner en marcha las así llamadas smart cities, como por ejemplo, los semáforos o ambulancias inteligentes programados con sistemas de machine learning o el caso del sistema automatizado de vigilancia y control del tráfico ATSAC en Los Ángeles que controla una superficie 11.000 km.

Definición y modelos de IA

La forma tradicional de definir la IA postula que la misma es la ciencia que hace que los ordenadores produzcan comportamientos que serían considerados inteligentes si fueran realizados por humanos. Definir de esta manera la IA puede ser problemático, ya que los ordenadores son excepcionalmente buenos en muchas tareas que para nosotros son extremadamente difíciles como, por ejemplo, resolver complejas ecuaciones matemáticas en una fracción de segundos, pero espectacularmente malas en realizar tareas que nosotros encontramos muy fáciles como caminar, abrir una puerta o participar en una conversación. 

Esta definición de la IA centrada en “lo humano” aún funciona en algunos aspectos, pero tal como mencionan los autores de A Citizen's Guide to Artificial Intelligence, necesitaría una actualización: “Es cierto que muchas de las aplicaciones de la IA moderna involucran reproducir habilidades humanas de lenguaje, percepción, razonamiento y control motriz. Pero hoy en día los sistemas de IA son también usados en áreas menos visibles para llevar a cabo tareas cuya escala o velocidad exceden en gran medida las capacidades humanas. Por ejemplo, son usados en comercio en bolsa de alta frecuencia, buscadores en línea, y en operaciones de redes sociales. De hecho, es útil pensar en la escala industrial de los sistemas de IA como una mezcla de capacidades sub y supra humanas.” 

El informático teórico Jerry Kaplan ofrece otra definición quizás menos antropocéntrica, en la medida que resulta lo bastante amplia para incluir otras formas de vida como las plantas o los hongos, que -como los algoritmos- son capaces de comportamientos sofisticados que nos llevan a pensar en nuevas formas de resolver problemas, comunicarse, tomar decisiones, aprender y recordar. En este sentido, para Kaplan, “la esencia de la IA (y de la inteligencia en general) es la capacidad de hacer generalizaciones apropiadas de manera oportuna a partir de datos limitados. Cuanto más amplio sea el ámbito de aplicación y más rápido se extraigan conclusiones con un mínimo de información, más inteligente será el comportamiento.”

Según esto, se podría distinguir entre tres tipos de IA en función de cuánto se acercan a esa definición de inteligencia: una IA débil o estrecha, que es la que tenemos actualmente (especializada en una tarea e incapaz de hacer nada más allá de su dominio particular de funcionalidad); una IA fuerte o general (con capacidad para comportarse de forma inteligente en una amplia variedad de contextos y para aplicar los conocimientos aprendidos en un contexto a situaciones novedosas); y la superinteligencia artificial (que superaría con creces las capacidades cognitivas de los humanos).

Por ahora, la única que existe es la IA débil, que puede desarrollarse a partir de distintos modelos. El más popular es el aprendizaje automático o machine learning, que se basa en el reconocimiento de patrones siguiendo tres pasos: recopilar datos, entrenar un modelo con esos datos y utilizar el modelo entrenado para hacer predicciones con nuevos datos. El aprendizaje puede ser supervisado (los datos de entrada son etiquetados por humanos en distintas categorías y el sistema aprende esas categorías identificando patrones en los ejemplos suministrados), no supervisado (entrenándolo con suficientes datos como para que el sistema identifique por sí solo correlaciones sofisticadas y complejas en el conjunto de datos) o por refuerzo (no se le dice qué acciones debe realizar, sino que debe descubrir qué acciones producen la mayor recompensa al probarlas). Otros modelos son el aprendizaje profundo o deep learning, que utiliza redes neuronales (un modelo computacional basado en el funcionamiento del cerebro humano) con varias capas de procesamiento para que puedan aprender patrones más complejos; y este ha dado lugar a modelos de lenguaje autorregresivo como LaMDA o GPT-3, que son capaces de producir textos que simulan la redacción humana y han generado una gran controversia después de que uno de los ingenieros de Google fuese despedido por afirmar que LaMDA era consciente y tenía alma. Lo cierto es que muchos expertos consideran que GPT-3 podría ser la antesala de la IA general, pero esto se debe a una comprensión errónea del significado de “inteligencia”.

Herencias filosóficas y metafísicas en la noción de “inteligencia”

La palabra “inteligencia” proviene del latín intelligentia que es, a su vez, la traducción del “nous” griego. El nous corresponde al intelecto, el espíritu, o bien la parte más noble del alma. En este sentido, cabe destacar que la noción de inteligencia tiene un origen, no solo gnoseológico, sino también metafísico que, aunque parezca lejano, sigue presente hoy en día en ciertos mitos actuales de la IA. Platón diferenció claramente la realidad sensible y la inteligible como dos mundos separados. El intelecto para este filósofo es aquél que se relaciona con las esencias, las ideas y las formas puras y que opera en una realidad totalmente distinta de la aisthesis (estética), es decir, del conocimiento adquirido por los sentidos. Para Platón, el nous es la parte más elevada del alma, la que permite el conocimiento directo, la intuición de las ideas. 

La definición de la IA es problemática porque la propia noción de “inteligencia” incluso aplicada únicamente a los seres humanos resulta de por sí incierta y ha sido objeto de muchos debates filosóficos

Aristóteles intentó refundar la metafísica platónica uniendo el mundo material con el de las ideas pero, sin embargo, la diferencia en última instancia se mantuvo en su postulación del intelecto activo (nous poietikós) y el intelecto pasivo (nous pathetikós). Mientras la facultad sensible tiene la capacidad de aprehender los “aspectos sensibles” de las cosas, el intelecto pasivo tiene la capacidad de aprehender los “aspectos inteligibles”. Pero los “aspectos inteligibles” ofrecen una dificultad que no se encuentra en los “aspectos sensibles”. Ambos aspectos deben ser actualizados para ser aprehendidos. Mientras la actualización de los aspectos sensibles es un “movimiento”, la actualización de los aspectos inteligibles los realiza el  intelecto activo (nous poietikós), que no es otra cosa que el Primer Motor Inmóvil, es decir, aquello que mueve pero no es movido por nada. 

Los escolásticos heredaron esta visión aristotélica y algunos de ellos, como Alejandro de Afrodisia y Averroes, dieron lugar a interpretaciones trascendentalistas en estas controversias. Por ejemplo, según Averroes, no hay diferencia entre el intelecto activo y el pasivo; ambos forman un solo intelecto y, por consiguiente, los hombres no piensan, sino que es el intelecto único el que piensa en ellos. La herencia de estas ideas en la cultura occidental ha hecho que entendamos las cuestiones del intelecto o de la inteligencia como separadas o “trascendentes” a las de la sensibilidad y la realidad material. Se trata de una postura dicotómica -que separa mente y cuerpo- que podemos observar en corrientes actuales como el neorracionalismo, que considera que el verdadero interés de la IA está en que nos revela el funcionamiento de la inteligencia humana, que durante siglos ha sido un misterio: en realidad somos, como ella, meros sistemas de procesamiento de información. 

Históricamente se ha tendido a conceptualizar la mente según las tecnologías más avanzadas de cada época: un mecanismo de relojería en el siglo XVIII; una máquina de vapor en el siglo XIX; y la computadora digital en el siglo XX, con el cerebro como hardware y los estados mentales como software.

En este sentido, el neorracionalismo sostiene que la inteligencia puede reducirse a un conjunto de funciones que pueden ser realizadas en diversos soportes materiales con independencia de ellos. Sin embargo, como afirma Steven Shaviro en Discognition, “estamos empezando a abandonar la idea de que los estados mentales son patrones inmateriales e independientes de su plataforma o sustrato material”. Esto explica el interés que despierta actualmente la tesis contraria: la de la conciencia encarnada, que defiende la interdependencia de la mente y el cuerpo frente a la oposición tradicional de estas entidades en la que, como hemos visto, se fundamenta la mayor parte de la filosofía occidental, cuya somatofobia ha sido señalada por muchas feministas como intrínsecamente misógina.

Cognición no consciente 

La cognición suele estar asociada al pensamiento humano y a la conciencia. Pero ciertas ramas científicas, como la biología cognitiva, atribuyen comportamientos inteligentes a otros seres vivos no humanos. Ladislav Kovác afirma que incluso un organismo unicelular “debe tener un cierto conocimiento mínimo de las características relevantes del entorno”.  En palabras de Katherine Hayles: “El conocimiento, según el punto de vista tradicional, permanece casi por completo en el ámbito de la conciencia y, desde luego, en el cerebro. En la biología cognitiva, por el contrario, se adquiere a través de las interacciones con el entorno y se plasma en las estructuras de los organismos y en su repertorio de comportamientos”. Existe una fuerte tendencia hoy en día a asociar la inteligencia, no solo con la actividad mental consciente, sino con procesos biológicos adaptativos en general. Pero la misma sigue siendo pensada en términos de “atributo” de ciertos seres, en particular, de los seres vivos. 

¿Podemos entonces llamar inteligentes a los objetos técnicos? Siguiendo el planteamiento de Katherine Hayles en su libro Unthought, en relación a los objetos técnicos conviene hablar en términos de cognición más que de inteligencia. Si la inteligencia suele ser pensada como un atributo, la cognición hace más referencia a la idea de proceso, a un despliegue dinámico dentro de un entorno en el que la actividad misma marca la diferencia. Por ejemplo, un algoritmo informático escrito como instrucciones en un papel no es en sí mismo cognitivo, pues sólo se convierte en un proceso cuando se instala en una plataforma capaz de comprender el conjunto de instrucciones y llevarlas a cabo. 

La cognición, en este sentido, abarca procesos que no son necesariamente mentales ni conscientes. Shaviro propone justamente el término de “discognición” para designar “algo que perturba la cognición, excede sus límites, pero también es su condición de posibilidad”; lo cual se acerca a la noción de N. Katherine Hayles de lo “impensado” — procesos cognitivos no conscientes e inaccesibles a la introspección pero que sin embargo son esenciales para el funcionamiento de la conciencia. La cognición es definida por Katherine Hayles, más allá de la conciencia, como “un proceso que interpreta información dentro de contextos que la conectan con significado”. 

En áreas como la filosofía de la mente o las neurociencias se atribuyen cuatro características principales a la cognición, conocidas como “4E” por sus siglas en inglés: se rige por el sistema físico y sensoriomotor (encarnada), es un producto emergente de la interacción con el entorno físico y social (integrada o situada), refleja las acciones dirigidas a un objetivo (enactiva) y forma parte de un sistema configurado por un agente y los recursos fuera del agente (extendida). Esta última implica dejar de pensar la cognición como un atributo exclusivamente humano que acontece en nuestro cerebro y empezar a pensarla como un proceso que implica la interconexión entre humanos y sistemas técnicos, que conforman ensamblajes cognitivos distribuidos capaces de realizar las funciones identificadas con la cognición como atender con flexibilidad a las nuevas situaciones, incorporar este conocimiento a las estrategias de adaptación y evolucionar a través de la experiencia para crear nuevas estrategias y tipos de respuestas.

Si bien la cognición técnica se compara a menudo con las operaciones de la conciencia, los procesos realizados por la cognición humana no consciente constituyen un análogo mucho más cercano a las formas en las que opera una IA.

En palabras de Hayles: 

Al igual que la cognición humana no consciente, la cognición técnica procesa la información más rápido que la conciencia, discierne patrones y hace inferencias y, en el caso de los sistemas capaces de conocer sus estados, procesa las entradas de los subsistemas que dan información sobre el estado y el funcionamiento del sistema. Además, la cognición técnica está diseñada específicamente para evitar que la conciencia humana se vea abrumada por flujos masivos de información tan grandes, complejos y multifacéticos que nunca podrían ser procesados por el cerebro humano. Estos paralelismos no son accidentales. Su aparición representa la exteriorización de las capacidades cognitivas, que antes sólo residían en los organismos biológicos, en el mundo, donde están transformando rápidamente las formas en que las culturas humanas interactúan con las ecologías planetarias más amplias

IA para el bien social vs. IA desde la cooperación sociotécnica 

Si abandonamos los imaginarios miméticos y competitivos de la IA y la comenzamos a abordar desde un paradigma de ensamblajes cognitivos distribuidos, entonces se hace posible pensar en términos de sinergias o cooperación que nos permita aprovechar el capital cognitivo diferencial de humanos y máquinas.

Este marco propone pensar de otra forma la inteligencia, no ya como un atributo que nos distinguiría del resto de seres y justificaría el excepcionalismo humano; en realidad, no estamos tan separados del mundo como creemos ni hemos existido nunca fuera de esos ensamblajes. Puede entenderse en términos similares a la idea de “simbiosis” que se ha popularizado en las ciencias biológicas, y con la que Lynn Margulis quiso poner de manifiesto el carácter interdependiente de la vida en la Tierra, demostrando que es la cooperación -y no la competencia- el principal factor del desarrollo evolutivo. Ocurre lo mismo con la cognición: solemos vernos como superiores a lo no-humano y sentimos pánico cuando vemos nuestra posición amenazada, en lugar de entender que en nuestros procesos cognitivos participan muchos agentes no-humanos como la propia IA.

En este sentido, también cabe preguntarse si es posible pensar en la utilidad social de la IA. Y de hecho, un campo muy en boga estos últimos años es la IA4SG [IA for Social Good o IA para el bien social] que enfatiza la computación y el desarrollo de técnicas de análisis de big data, como las del machine learning, para abordar un amplio espectro de problemas sociales y medioambientales. Estos proyectos suelen asociarse a un esfuerzo por redefinir la innovación desde marcos responsables y éticos. El problema es que muchas de estas iniciativas de IA4SG están moldeadas por los intereses corporativos y monetarios de las propias empresas que desarrollan estas tecnologías, fuera de todo control democrático y, lo que es más importante, fuera de toda gestación desde una base social. Como afirma Cheryl Holzmeyer en su artículo “Beyond ‘AI for Social Good’ (AI4SG)”, muchas de las grandes corporaciones tecnológicas que se embarcan en este tipo de proyectos de IA4SG ponen en primer plano un problema social y una solución técnica a ese problema como supuesto “bien social”, desatendiendo muchas veces las causas profundas y estructurales de esos problemas, y desestimando los datos y la evidencia científica que ya existe en esas áreas.

Por ejemplo, en el ámbito de la salud, la mayoría de IA ponen el foco en las causas individuales de la salud de las personas, robusteciendo la medicina de precisión y ofreciendo tecnologías para dar diagnósticos más minuciosos y tratamientos cada vez más personalizados, pero dejando de lado las causas sociales que minan la salud y que favorecen la desigualdad, como lo son la falta de ingresos adecuados, de vivienda asequible, de acceso a de alimentos sanos, la discriminación, el hecho de no vivir en un ambiente con aire y agua limpios, la falta parques y espacios verdes accesibles, la imposibilidad de pagar educación de alta calidad o un seguro médico.

El gran problema de la AI4SG es que asume que el bien social es algo ya dado y predeterminado, algo que las empresas pueden conocer de antemano, sin que tenga que ser definido desde bases democráticas. Retomando las ideas de Simondon esta presunción imposibilita la individuación colectiva, porque reifica la social asumiéndolo como algo estable, sin contar que lo deja en manos de empresas que tienen su propia agenda e intereses y que pueden muy bien aprovechar estas etiquetas para realizar un lavado de cara (o ethics washing) en su reputación.

Pensar la IA desde proyectos sociales y desde la cooperación sociotécnica requiere que tengamos claro no qué soluciones queremos, sino qué preguntas debemos hacernos, es decir, cuáles son las problemáticas a las que queremos hacer frente y desde qué modelo social, político y económico abordamos estas problemáticas.

Porque, como afirma Cheryl Holzmeyer citando a Thomas Pynchon, “si consiguen que te hagas las preguntas equivocadas, las respuestas no importan”. 

Datadiversidad 

Cuando sabemos qué problemas queremos abordar, qué cuestiones resultan suficientemente significativas para invertir tiempo, dinero y esfuerzo en el desarrollo de sistemas de IA y en sinergias humano-técnicas, entonces se hace de crucial importancia qué datos tenemos que crear. 

Muchas de las críticas planteadas a la IA tienen que ver con los sesgos que se hallan presente en las bases de datos ya existentes, y las consecuentes “exclusiones” en función de la raza, el género y sexualidad que estas tecnologías siguen reproduciendo. El documental Coded Bias pone de manifiesto esto con el caso concreto de una base de datos llamada “Faces in the Wild”, que durante mucho tiempo se consideró una referencia para probar el software de reconocimiento facial, y gracias al trabajo de la activista Joy Buolamwini se ha probado que sus datos no son representativos: el 70% de los rostros son masculinos y el 80% blancos.

Pero si bien estas demandas de diversidad dentro de las bases de datos ya existentes son necesarias, siguen siendo insuficientes. De hecho, muchos investigadores señalan el peligro de entrenar mejor los sistemas de detección inteligentes en un sistema que es desigual y excluyente. Pensemos por ejemplo que en las llamadas “fronteras inteligentes”: utilizar este tipo de algoritmos, más que un beneficio, puede suponer mayor vulnerabilidad para personas de colectivos minoritarios o racializados. 

En esta línea, Ramón Amaro, citado por Mercedes Bunz y Claudia Aradau en su artículo “Dismantling the apparatus of domination? Left critiques of AI”, señala que una optimización de los algoritmos confirma más o menos “qué rasgos representan las categorías de humano, género, raza, sexualidad, etc.”, pero no las cambia, apuntando así a un profundo problema político de las izquierdas: ¿las demandas progresistas se limitan a parchear las grietas de un sistema, o el compromiso con esas grietas debe ser cambiar el propio sistema?

En las áreas en las que no hay datos de entrenamiento, la IA permanece ciega. Las bases de datos de entrenamiento determinan el tipo de acción que estas máquinas proyectarán en nuestra realidad. En otras palabras, el espectro de qué es posible hacer con estas tecnologías está supeditado en gran medida a la tipología de datos con la cual las alimentamos. Los datos son tan vitales para los sistemas de Inteligencia Artificial que Adam Harvey afirma incluso que “puede ser útil reconsiderar los algoritmos como código derivado de datos”. 

Vivimos en una cultura monotecnológica de los datos, donde los proyectos que definen los datos que creamos están basados en la competencia, el control y la mercantilización. Poco tienen que ver estos proyectos con las necesidades y deseos de la colectividad que, sin embargo, contribuye con sus datos a que se desarrollen e implementen estos sistemas técnicos y sufren muchas veces sus consecuencias negativas.

Cambiar el sistema significa tener un proyecto. El problema es que hoy en día las izquierdas carecen de un programa bien definido y se limitan a resistir; pero una de las formas de empezar a diversificar los posibles de la cognición técnica puede ser la de crear otras formas de percepción computacional, haciendo preguntas desde otras bases onto-epistemológicas que den lugar a proyectos que nos orienten a construir otras tipologías de bases de datos y experimentar e innovar en las modalidades de cognición y cooperación sociotécnica. 


Una versión preliminar de este texto fue debatida en la novena sesión del Vector de Conceptualización Sociotécnica sobre Inteligencia y Tecnología, celebrada en el Canòdrom (Ateneo de innovación digital y democrática) con el apoyo del Ayuntamiento de Barcelona. Incluyó una exposición a cargo de Toni Navarro y Alejandra López Gabrielidis y una conversación con Ulises Cortés del Barcelona Supercomputing Center, disponible aquí.

Sobre este blog
Atenea cyborg es un espacio de Tecnopolitica.net (red asociada al IN3 de la UOC) dedicado a explorar los conflictos y las contradicciones de nuestro tiempo, un tiempo marcado por la tecnopolítica y la tecnociencia. Es un lugar desde el que destejer la urdimbre de la ciencia, la tecnología y la sociedad contemporáneas para imaginar otros mundos y vidas posibles. Por un giro retrofuturista, aquí la vieja Atenea no es ya diosa sino cyborg y no es una sino muchas; ya no está sola, pero sigue en pie de guerra.
Ver todas las entradas
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Inteligencia artificial
PAN 06X01 Vuelve el PAN, integral, pero sin IA
Regresamos esta temporada con una edición mensual. Más ligera, integral. Un carrusel de Feeds N Chips y música porque los CEO's de las Big Tech y los criptobros no nos dejan descansar
Inteligencia artificial
Inteligencia Artificial Un manifiesto denuncia la desprotección de artistas y trabajadores culturales frente a la IA generativa
Asociaciones de autores, artistas y trabajadores del sector audiovisual, del libro y las artes escénicas presentan un manifiesto que pide al Gobierno protección ante “los abusos de las empresas de Inteligencia Artificial”.
Inteligencia artificial
Inteligencia artificial Malas artes
Ciertos movimientos en el sector editorial revelan intereses en el uso lucrativo de las inteligencias artificiales. ¿Qué futuro cabe esperar para los profesionales de la creación?
Sobre este blog
Atenea cyborg es un espacio de Tecnopolitica.net (red asociada al IN3 de la UOC) dedicado a explorar los conflictos y las contradicciones de nuestro tiempo, un tiempo marcado por la tecnopolítica y la tecnociencia. Es un lugar desde el que destejer la urdimbre de la ciencia, la tecnología y la sociedad contemporáneas para imaginar otros mundos y vidas posibles. Por un giro retrofuturista, aquí la vieja Atenea no es ya diosa sino cyborg y no es una sino muchas; ya no está sola, pero sigue en pie de guerra.
Ver todas las entradas
Genocidio
Genocidio El Tribunal Penal Internacional emite orden de detención contra Netanyahu y Gallant por crímenes de guerra
La Sala de Cuestiones Preliminares del TPI rechaza las impugnaciones de competencia formuladas por el Estado de Israel y emite órdenes de arresto contra Benjamin Netanyahu y Yoav Gallant.
Crisis climática
Informe de Unicef El cambio climático multiplicará por tres la exposición de los niños y niñas a las inundaciones para 2050
Es la proyección que hace Unicef en su informe 'El Estado Mundial de la Infancia 2024'. La exposición a olas de calor extremas será ocho veces mayor para 2050 respecto a la década del 2000. “El futuro de todos los niños y las niñas está en peligro”, advierte la agencia de la ONU.
Barcelona
Derecho a la vivienda El hartazgo por la vivienda impagable se da cita este 23 de noviembre en Barcelona
El amplio movimiento por la vivienda catalán, sindicatos y organizaciones vecinales, sociales y soberanistas demandan soluciones urgentes ante una crisis de vivienda sin solución a la vista
Tribuna
Tribuna Vivienda: es hora de organizarnos
La situación de crisis inmobiliaria nos exige leer el momento para acertar en las batallas que debemos dar ahora, reflexionar sobre los modos de acción colectiva y lograr articular una respuesta política amplia.
Turismo
Opinión Abolir el turismo
VV.AA.
Lleguemos a donde lleguemos, no puede ser que sea más fácil imaginar el fin del capitalismo que el fin del turismo.
Comunidad de Madrid
Sanidad Pública Los sindicatos denuncian a la Comunidad de Madrid por exponer a sus sanitarios a “gravísimos” riesgos
Solicitan la mayor indemnización económica pedida contra una administración por no contar con un verdadero plan de prevención de riesgos laborales para atención primaria.
Racismo
Racismo institucional Diallo Sissoko, una víctima más del sistema de acogida a migrantes
La muerte de este ciudadano maliense durante su encierro en el CAED de Alcalá de Henares ha puesto de manifiesto algunas de las deficiencias del sistema de acogida a migrantes en el Estado español.

Últimas

Unión Europea
Unión Europea La ultraderecha europea, ante la victoria de Trump
El triunfo de Donald Trump da alas a todas las formaciones ultraderechistas de Europa y del resto del mundo, que han visto cómo el millonario republicano ha conseguido volver a ganar las elecciones sin moderar un ápice su discurso.
Comunidad de Madrid
Paro del profesorado Nueva jornada de huelga en la educación pública madrileña
Este jueves 21 de noviembre el profesorado se vuelve a levantar contra las políticas del gobierno de Díaz Ayuso, que mantiene paralizadas las negociaciones para mejorar sus condiciones laborales.
Más noticias
Memoria histórica
Memoria histórica Museo del franquismo, ¿eso dónde está?
España sigue ajena a la proliferación mundial de espacios museísticos dedicados a dictaduras y resistencias democráticas.
València
dana A las 20:11, era tarde
Todavía conservamos el horror de cientos de coches amontonados y arrastrados por la riada. Es por esos millones de turismos y sus emisiones ─aunque no solo─ que vivimos en un planeta que se está calentando demasiado rápido.
Dana
Encuesta Tres de cada cuatro personas en España ligan la virulencia de la dana con el cambio climático
Una encuesta realizada por More in Common señala que una amplia mayoría de la población considera que el país está mal preparado para adaptarse a los fenómenos extremos que trae la crisis climática y debe hacer más esfuerzos al respecto.

Recomendadas

València
Dana y vivienda “La crisis de vivienda multiplicada por mil”: la dana evidencia el fracaso de las políticas del PP en València
La dana ha dejado a miles de familias sin hogar. Ante la inacción de las instituciones, han sido las redes familiares las que han asumido el peso de la ayuda. La Generalitat, tras décadas de mala gestión, solo ha podido ofrecer 314 pisos públicos.
Redes sociales
Redes sociales Bluesky, la red social donde se libra la batalla por el futuro de internet
Ni es descentralizada ni está fuera de la influencia de los ‘criptobros’ que han aupado a Trump a la Casa Blanca, pero ofrece funcionalidades útiles para recuperar el interés por participar en redes sociales.