We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Inteligencia artificial
Sobre el mito de la inteligencia artificial y el futuro que no vendrá
Un blog sobre ciencia y poder.
En marzo, el gobierno de Aragón anunció el lanzamiento de un canal de Telegram para resolver dudas sobre el coronavirus. El canal incorporaba un chatbot, es decir, un algoritmo de inteligencia artificial (IA) programado para interactuar en una conversación. De esta manera —argumentaba el gobierno local—se liberarían líneas telefónicas de atención a la ciudadanía, colapsadas en aquel entonces por el desconocimiento y miedo generalizado del inicio de la pandemia. Escépticas, por las limitaciones que la IA realmente tiene, nos pusimos a conversar con este bot.
Paradoja de Jevons: - Tengo fiebre.
COVID19AragonBot: - Los síntomas más comunes de la COVID-19 son 🤒fiebre, cansancio y tos seca. [...].
Paradoja de Jevons: - ¿Qué es la hidroxicloroquina?
COVID19AragonBot: - La verdad es que no te he entendido, intenta preguntarme por: ¿Qué hago con mi ropa cuando llego a casa? [...].
Paradoja de Jevons: - Vaya, parece que el equipo desarrollador no ha tenido en cuenta una respuesta ante uno de los fármacos más polémicos de la pandemia. Sigamos. Me encuentro sola.
COVID19AragonBot: - En mi opinión, tener ratos de soledad te ayuda a crecer.
Paradoja de Jevons: - Díselo a mi vecina del cuarto, 83 años, sin ningún familiar que se pueda hacer cargo de ella y en medio de esta pandemia, la cual los medios la bombardean cada día recordándole que es presa fácil para este virus. Tiene suerte de que no sepa utilizar Telegram.
El lunes 30 de noviembre volvimos a probar la aplicación.
Paradoja de Jevons: ¿Qué es la hidroxicloroquina?
COVID19AragonBot: …
Paradoja de Jevons: Tengo fiebre.
COVID19AragonBot: …
Paradoja de Jevons: - Crónica de una muerte anunciada. Otro capítulo más en el libro de “Mitos de la inteligencia artificial”.
En los últimos años, hemos visto una gran cantidad de soluciones basadas en esta tecnología dispuestas a proclamarse salvadoras (en los casos más optimistas) o facilitadoras (en los casos más realistas) de nuestro día a día. Este efecto tecnosolucionista se ha pronunciado durante la pandemia. IAs que dicen resolver dudas a la ciudadanía, que detectan coronavirus en imágenes de rayos X, que identifican si una persona lleva puesta la mascarilla o que detectan si el personal respeta la distancia de seguridad en sus puestos de trabajo. De hecho, un reciente artículo del MIT explica cómo “la IA se ha convertido en el juguete roto de la investigación científica”. En muchos casos, tanto gobiernos como medios de comunicación se sienten atraídos por estas soluciones tecnológicas inteligentes. Pero tal y como hemos visto en el ejemplo del chatbot, la IA está lejos de cambiar radicalmente nuestras vidas.
Entonces, ¿quién ha creado este mito?, ¿debemos temer a la IA? ¿cuál es el futuro que no vendrá?
Todo mito tiene un inicio
En 1996, la empresa lBM creó DeepBlue, un algoritmo programado para jugar ajedrez. La compañía retó a Kasparov, considerado el mejor jugador de ajedrez de la época. El primer intento salió mal, pues Kasparov venció a la máquina. No obstante, un año más tarde la máquina venció al humano. Veinte años más tarde, la compañía DeepMind, la cual fue comprada posteriormente por Google, desarrolló AlphaGo, otro algoritmo entrenado para jugar al Go. Tal y como hizo IBM con Kasparov, DeepMind invitó a Lee Sedol, considerado uno de los mejores jugadores del momento. ¿El resultado? AlphaGo venció a Sedol en cuatro de las cinco partidas. Más allá de las diferencias técnicas entre DeepBlue y AlphaGo, en ambos casos la prensa se hizo eco del hito histórico que supuso. La IA batiendo al humano a un juego inteligente. Fue así como, poco a poco, grandes corporaciones, universidades y gobiernos fueron introduciendo el concepto en sus agendas.
A pesar del progreso remarcable que la IA ha traído en ciertos aspectos, muchas organizaciones se aprovechan de la confusión general que existe sobre este concepto, vendiendo proyectos basados en esta tecnología cuando realmente son solo marketing.
Hoy en día, el mito se ha ido propagando aún más debido al proceso de datificación en el que estamos sumergidas. Uno de los talones de Aquiles de la IA es que se alimenta de datos para ser “inteligente”. Necesita datos para aprender y encontrar patrones en ellos a la vez que consume una ingente cantidad de recursos energéticos al requerir, también, de mucha potencia de cálculo. En el caso del chatbot del Gobierno de Aragón, el sistema necesita un conjunto de reglas diseñadas por la programadora para saber qué contestar al interactuar con una persona. En lenguaje de programación esto se traduce a un conjunto de condicionales, tales como: “Si aparece el concepto “fiebre”, entonces responde con este texto de los síntomas comunes del coronavirus”. A pesar de que los chatbots ofrecen ventajas veneradas por el dogma económico imperante (disponibilidad 24/7, reducción de mano de obra, etc.), sus desventajas son mucho más limitantes como hemos demostrado al inicio de este artículo.
Entonces, ¿son estos algoritmos tan inteligentes como se cree? ¿Es realmente la inteligencia artificial, inteligente?
¿Qué tipo de inteligencia tiene la inteligencia artificial?
La palabra “inteligencia” proviene del verbo en latín intellegere que significa comprender o percibir. No existe en la academia un consenso a la hora de definir este concepto, ni de establecer cuántos tipos de inteligencia existen. En un reciente artículo publicado por Skynet Today, varios académicos del campo definen la IA como la ciencia de crear máquinas inteligentes. Pero, si no existe una definición general de inteligencia, ¿podemos tener una definición de inteligencia artificial? La respuesta es sí, pero esta poco tiene que ver con la inteligencia humana. Por ejemplo, el grupo de expertos de la Comisión Europea la define como:
“Sistema de software (y posiblemente también hardware) diseñados por humanos que, dado un objetivo complejo, actúan en una dimensión física o digital percibiendo el entorno mediante el análisis de datos, ya sean estructurados o no estructurados, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidir la mejor o las mejores medidas a tomar para alcanzar el objetivo fijado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo el medio ambiente se ve afectado por sus acciones anteriores”.
Es decir, la IA se basa en un código informático que utiliza datos para analizarlos con técnicas puramente estadísticas y decide la mejor forma de realizar una tarea propuesta (ganar al ajedrez, detectar gatitos en imágenes, etc.). Además, también puede incluir una máquina física, ya sea en forma de robot, dron, automóvil, etc., la cual se alimenta del código y procesa sus órdenes. Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes. En el caso del DeepBlue o AlphaGo, el código fue lo suficientemente inteligente para procesar gran cantidad de datos, realizar cálculos rápidamente y tomar el mejor movimiento en cada estado de la partida. Una tarea que al ser humano le resulta imposible. Y por ello, consideramos a lo artificial, inteligente.
Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes.
Una de las grandes limitaciones de la IA es la generalización. Volviendo otra vez al caso del programa de ajedrez, si pusiéramos a jugar DeepBlue al Go no sabría por dónde empezar, pues las reglas del juego son totalmente diferentes. Y lo mismo si pusiéramos a jugar AlphaGo al ajedrez. De hecho, este efecto de falta de generalización también se demuestra en el Covid19AragonBot. Cuando le preguntamos qué es la hidroxicloroquina, no nos entiende y nos sugiere que le preguntemos otra pregunta la cuál seguramente formará parte de su conjunto de reglas o condicionales. Y hasta con tareas más asequibles, como distinguir un pájaro en una fotografía y encontrar un verbo en una frase. No existe aún un sistema inteligente que sea capaz de generalizar y resolver ambas tareas a la vez con gran precisión.
A pesar de lo lejos que nos encontramos de conseguir una IA generalizada, simplemente la idea teórica de que seremos capaces de construirla contribuye a su mito. No obstante, actualmente deberemos conformarnos con sistemas inteligentes que nos recomiendan la soledad para crecer en plena pandemia o confunden la cabeza de un árbitro con un balón.
El futuro que no vendrá
Pero que la IA confunda la cabeza de un árbitro con un balón no es el peor escenario distópico que se nos puede ocurrir. El problema que existe hoy en día con la IA y su mito reside en tres aspectos fundamentales: (1) el oligopolio de las big tech en el almacenamiento de datos y su consumo energético, (2) la poca diversidad que existe dentro de los equipos de investigación, y (3) la inyección de financiación en estrategias y proyectos de IA y la brecha digital.
Uno de los negocios más rentables de la última década es el almacenamiento en la nube. Este servicio consiste en ofrecer servidores que se encuentran en sitios remotos, a muy baja temperatura, para almacenar ingentes cantidades de datos. De hecho, se estima que Google, Amazon, Facebook y Microsoft almacenan un total de 1200 petabytes, es decir, algo más de 1200 millones de gigabytes. Y es que dentro de la comunidad tecnológica, pocas veces se cuestiona el consumo energético que esto supone. De hecho, se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna. Es más, se estima que su coste está entre 8,5 y 10 millones de euros. Un precio que pocas universidades públicas pueden permitirse. ¿Al servicio de quién estará la innovación en IA en los próximos años? Pero el problema no es solo la cantidad, también lo es el tipo de datos. Muchos gobiernos, y compañías privadas que ganan contratos públicos, utilizan servicios de estas big tech para almacenar sus datos. De hecho, Pedro Sánchez tuvo una reunión en 2019 con directivos de Amazon para contratar servicios de almacenamiento. Y es que Amazon tiene un departamento exclusivo para políticas públicas, en las que ofrecen no solo servicios de almacenamiento, también de inteligencia artificial y ciberseguridad. ¿Podemos entonces imaginarnos el futuro que no vendrá si estas big tech siguen haciendo su oligopolio más poderoso y hermético?
De hecho, se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna
Según un informe del Ministerio de Igualdad, menos del 25% del personal investigador en IA son mujeres. De hecho, los hombres representan un 88% de las personas que participan en el diseño y desarrollo de IA. Pero aún no existe un estudio que analice la interseccionalidad en este campo —¿cuántas mujeres gitanas trabajan diseñando algoritmos?—. Sasha Costanza-Chock muestra en su libro Design Justice un simple ejemplo del impacto que esta falta de diversidad tiene en nuestras vidas. Explica cómo las personas trans tienen mayor probabilidad de ser etiquetadas como peligrosas, al cruzar el sistema de seguridad de los aeropuertos estadounidenses. Al no tener un cuerpo normativo, el sistema detecta irregularidades, por lo que pasan a ser chequeadas por el personal de seguridad — con la consiguiente confusión que eso conlleva. Costanza-Chock argumenta que esto es debido al equipo de ingenieros que diseñaron la tecnología, el cual poco tuvieron en cuenta el colectivo trans y los cuerpos no normativos. La tecnología es política, y la mayoría de sistemas basados en IA reproducen desigualdades estructurales, pues están dominados por una mayoría masculina, blanca, cisgénero y capacitista.
Estas desigualdades, o sesgos, seguirán repitiéndose mientras se sigan omitiendo otras realidades y no se cuestione al servicio de quién están.
El gobierno de Pedro Sánchez ha anunciado esta misma semana la Estrategia Nacional de Inteligencia Artificial. En un acto retransmitido por el canal de Moncloa, el presidente anunció la inyección de 600 millones de euros, entre el periodo 2021-2023, repartidos en 6 ejes estratégicos. Durante todo el evento se dió mucho énfasis a la relación entre IA y el mundo corporativo: “España como nación emprendedora”, “emprendimiento digital”, “desarrollo de métricas de éxito que conecten universidades con el sector privado”. Y este hecho se ve reflejado en el reparto del pastel: de los 600 millones, 400 serán destinados a los ejes de investigación y tejido empresarial. Tan solo 8 millones serán destinados establecer un marco ético y normativo que refuerce derechos y libertades, el cual debería convertirse en un eje vertebral. A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización? Por ejemplo, el sistema de cita previa online del SEPE ha colapsado varias veces este año debido a la cantidad de personas en ERTE entrando al sistema. La página web de la Generalitat también colapsó hace unas semanas, después de anunciar la ayuda de 2000 euros para autónomos con bajos ingresos. En cuanto a la brecha digital, parte de la España vaciada sigue aún sin conexión a Internet y aún existen barrios de ciudades como Granada con cortes de luz.
A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización?
A puertas de empezar el nuevo año 2021, y lejos de ver el fin de esta pandemia, gobiernos, corporaciones y universidades seguirán anunciando a bombo y platillo tecnologías basadas en IA para combatir la COVID-19, y así inyectar un poco de optimismo en los ya desgastados ánimos de la población. Esto lo podemos ver claramente en el documento de la Estrategia Nacional que comentábamos anteriormente. En el Apéndice 2, el gobierno analiza el papel de la IA en esta pandemia de la siguiente forma:
“La Inteligencia Artificial está jugando un importante papel en la respuesta a la crisis. Se está aplicando para poner a punto nuevos tratamientos y vacunas, para analizar diversas versiones del genoma del virus y caracterizar la respuesta del sistema inmunitario [...] Se han desarrollado múltiples apps para teléfonos inteligentes que puedan servir para minimizar el contacto humano, apoyar el autodiagnóstico y detectar exposiciones con riesgo de contacto”.
Puede que algunas de ellas lleguen a implementarse y realmente supongan un avance científico y tecnológico. De hecho, la misma empresa de AlphaGo, DeepMind, presentó recientemente un modelo basado en IA capaz de predecir la estructuras proteicas con gran precisión. Esto podría ayudar a entender mejor el comportamiento de estas moléculas y desarrollar nuevos medicamentos. No obstante, DeepMind aún no ha publicado su código, y es que pocos estudios realizados por estas empresas privadas comparten la información para que otras investigadoras puedan replicar y validar los experimentos. Además, también tendremos que poner en cuestión el consumo energético que ello supondrá, pues como en el caso del algoritmo GPT-3, el modelo fue entrenado con procesadores de alto impacto medioambiental.
No obstante, la gran mayoría de ellas se quedarán en el tintero, como el chatbot del Gobierno de Aragón, y habrán supuesto otra inyección de dinero público a fondo perdido. Para evitarlo, tenemos que empezar a construir una masa social crítica que sepa discernir entre mito y realidad. Construir equipos diversos que se nieguen a diseñar cortinas de humo, con una moralidad sólida. Democratizar la IA. Crear un cuerpo independiente que audite algoritmos. Acompañar a personas afectadas por sistemas automáticos con herramientas legales para denunciar discriminaciones y vulneraciones. Cuestionar aplicaciones que supongan un enorme gasto energético. Acortar la brecha digital. Si esto no sucede en un futuro cercano, todo habrá servido para mantenernos entretenidas, mientras la élite siga recortando en derechos e inversión pública, a la misma vez que invirtiendo en cortinas de humo tecnológicas de aire emprendedor. La IA ha venido para quedarse, y la mayoría de sus aplicaciones estarán dirigidas a servir a dichas élites, saltándose el cumplimiento de los derechos humanos y la justicia social.
Lo estamos ya viviendo con los sistemas desarrollados en fronteras europeas y en campos de refugiados. Lo hemos vivido también con el reciente despido de Timnit Gebru, referente mundial en ética y IA, Google la ha despachado por cuestionar el consumo energético y las implicaciones éticas de una de sus herramientas
Muchas maldecirán la IA y sus algoritmos, pero pocas verán que los verdaderos responsables son los de siempre. Bienvenidas al futuro que no nos espera.
Relacionadas
Ciencia ficción
El Salto Radio Podcast | Ciencia ficción capitalista
Opinión
Opinión La distopía no es un género literario
Laboral
Laboral Microsoft plantea un ERE para deslocalizar de Barcelona a India parte del área financiera del Candy Crush
Tanto daño hace la publicidad exagerada de la IA, que nos vende que estamos a pocos años de lo que se cuenta en la ciencia ficción, como los comentarios detractores que usan falacias como "la IA no sirve para nada, miren si no un chatbot de Aragón del que nadie ha oído hablar".
Es cierto que estamos muy lejos de una IA general y que los modelos actuales se entrenan para resolver tareas muy concretas. Con explicar esto y decir que lo que hacen lo hacen sorprendentemente bien y lo que no hacen sencillamente no lo hacen, debería ser suficiente. Por otro lado, los sesgos son el pan de cada día de la ciencia de datos. Se sabe perfectamente que existen y se trabaja muy activamente para reducirlos o eliminarlos, pero eso no es nada fácil. Si, por ejemplo, el 90% de las fotografías de rostros disponibles en un conjunto de entrenamiento de un modelo, obtenidas de foma aleatoria de Internet, fuesen de personas blancas porque, por el sesgo cultural que sea, no existiese un porcentaje mayor de fotografías de personas no blancas, el algoritmo, lógicamente, aprendería mucho más acerca de las personas blancas que de las que tengan la piel de otro color. Los creadores del algoritmo lo notarán enseguida y usarán todas las herramientas a su alcance para compensar el desajuste, pero no podrán solucionar el sesgo de base sociocultural que existe. Eso es trabajo de otros y seguirá siendo un problema con cada nuevo modelo que se entrene, tanto si lo hace una gran corporación con recursos ilimitados como si lo hace un chaval en su casa con su ordenador. Los resultados están sesgados porque los datos están sesgados porque el mundo está sesgado (y algunas veces porque la realidad es así, sin más). Y añadir personal negro, chino, indio, latino o lo que sea al equipo de desarrollo de los algoritmos tampoco solucionará el problema, porque no se trata de algo desconocido sino algo de difícil solución. Un ingeniero de datos tendrá que lidiar con este sesgo igual que con muchos otros, como que en Internet haya menos fotos de niños por la protección de datos, por ejemplo, o que no haya acceso a más fotos de chinos por restricciones digitales de su país.
La IA, actualmente, se basa en obtener conclusiones de grandes cantidades de datos reales. Para que sus resultados no tengan sesgos hay que evitar esos sesgos en la realidad. Mientras tanto, se aplicarán parches a los datos de la mejor manera posible. Pero habrá que tener en cuenta que manipular los datos de entrada puede hacer que las conclusiones a las que llegue la IA sean erróneas o alejadas de la realidad imperfecta que nos rodea. Describamos la IA como lo que es, con sus grandes beneficios y sus grandes inconvenientes y alejémonos del hype y del rechazo total. Y tengamos en cuenta que es una tecnología en pañales y que está evolucionando a una velocidad de vértigo, gracias a gente que busca un lucro enorme y relativamente fácil, pero también gracias a personas con muchos principios que trabajan para hacer del mundo un lugar mejor.
Tienes que aprender más sobre machine learning. Y sobre redes neuronales profundas. Lo del chatbot con reglas es antediluviano. También Lee sobre AlphaFold. Parece que la inteligencia artificial ha resuelto algo que los biólogos computacionales no conseguimos en 50 años de duro y sesudo trabajo.
Ya estamos con el género de marras, ¿a caso las mujeres no pueden estudiar informática y computación? Es divertido leer siempre a profesionales que no eligieron estudiar ciencias quejándose de que las mujeres no estén en ciencia... Ya basta... por favor. Pena de un artículo que prometía, nuevamente contaminado por la obsesión de la ideología de género. Quieren mujeres en IA, ¿son mujeres? Estudien programación, yo mismo si quieren les paso links para aprenden Python por aquí.
Lamento comentarte que la autora de este post sí ha estudiado ciencias. Es matemática y doctora en ciencias de la computación.
muy bien, pero si quieren más mujeres en tecnologías dejen de hacer másteres sobre género y hagan másteres de tecnología, es más rápido y práctico y los hombres estamos encantados de trabajar con vosotras programando.
Lamentable leer este tipo de comentarios en este tiempo. Machismo puro y duro. Discriminación que es resultado de la poca inteligencia de esta persona. Las grandes Universidades del mundo tienen cursos y departamentos sobre diversidad, género. El mundo es demasiado grande y diverso para mentes tan cerradas y simples.