We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Sidecar
Máquinas de desaprendizaje
No pueden negarse los prodigios tecnológicos resultantes de la aplicación de modelos de aprendizaje profundo al aprendizaje automático. Ello representa un paso decisivo en una línea de investigación técnica que ha pasado la mayor parte de su historia pareciendo francamente ilusoria, al menos para sus iniciados más sobrios. En el campo de la izquierda, el reflejo crítico de considerar estos desarrollos como una vuelta de tuerca más del neoliberalismo o de apuntar la extracción de trabajo y de recursos que subyace a estos modelos, se queda un poco corto ante una máquina que por fin puede interpretar con bastante precisión instrucciones expresadas en el lenguaje natural y a continuación producir con fluidez texto e imágenes como respuesta a las mismas. No hace mucho tiempo estas tareas parecían imposibles. La respuesta adecuada a estos prodigios no es el rechazo, sino el temor fundado y quizá sea por este hecho por donde debamos empezar, ya que esta magia se concentra abrumadoramente en las manos de unas pocas personas, a menudo idiosincrásicas, situadas en la cúspide social de una potencia mundial inestable. Evidentemente sería temerario confiar a estas personas la inteligencia reificada de la humanidad concebida en su sentido más general, pero ahí es donde estamos.
Aquí, en el Reino Unido, los responsables de la gestión de las universidades, en general no demasiado duchos en cuestiones de tecnología, abogan actualmente por que el personal docente, sobrecargado de trabajo, recurra a la inteligencia artificial generativa para la producción de material didáctico. Más de la mitad de los estudiantes universitarios ya la utilizan para escribir sus trabajos con su ayuda, mientras entretanto se ponen a prueba diversas plataformas de inteligencia artificial para la automatización de la corrección. Llevadas a su conclusión lógica, estas iniciativas equivaldrían a la conversión del sistema educativo en un proceso de formación concebido en términos de modelos de aprendizaje automático de propiedad privada: estudiantes, profesores y catedráticos convertidos en una especie de administradores o técnicos subcontratados, que se ocupan del aprendizaje de una «inteligencia» de la que se desconoce su complejidad interna y que no les pertenece. Dado que no hay forma conocida de evitar que los Modelos grandes de lenguaje (Large language model) «alucinen», introduciendo falsedades e información absurda en sus resultados, de modo que pueden ser difíciles de detectar a menos que uno mismo ya haya hecho el trabajo pertinente de aprendizaje en el campo correspondiente, los encargados residuales de mantener los estándares intelectuales se verían reducidos a la función de proporcionar la consabida retroalimentación correctiva a las insensateces producidas por las máquinas.
Ante un mercado del libro saturado de basura autogenerada, la cultura en la que aprenderán los futuros educadores no puede darse por sentada
Si las personas no desempeñan esta función, las alucinaciones se propagarán sin control. Internet, que en su día se imaginó en las instalaciones del CERN como una especie de comunidad científica idealizada, está siendo inundada por los parloteos banales de los sistemas estadísticos. Al igual que los residuos físicos se envían al Sur global para su eliminación, los flujos de residuos digitales se están vertiendo sobre los pobres del mundo: más allá de las lenguas dotadas de más recursos, las traducciones automáticas de baja calidad de contenidos en inglés de baja calidad dominan ahora la web. Esto, por supuesto, corre el riesgo de envenenar uno de los principales pozos de los que han bebido hasta ahora los modelos generativos de inteligencia artificial, haciendo surgir el espectro de un bucle degenerativo análogo a los ciclos de proteínas de la enfermedad de Creutzfeldt-Jakob: el aprendizaje automático convirtiéndose en su opuesto.
Los humanos, sin duda, estarán llamados a corregir tales tendencias, filtrando, corrigiendo y estructurando los datos de entrenamiento para los propios procesos que están dejando este rastro de destrucción. Pero el educador debe, por supuesto, ser educado y ante un mercado del libro saturado de basura autogenerada, la cultura en la que aprenderán los futuros educadores no puede darse por sentada. En un célebre pasaje, el joven Marx argumentaba que el proceso de autotransformación inherente al aprendizaje real implicaba una transformación radical de las circunstancias del mismo. Si ahora el aprendizaje corre el riesgo de reducirse a una comprobación de los resultados de una máquina ajena, que afina unas relaciones de producción estructuralmente opuestas a quien aprende, el primer paso hacia la autoeducación tendrá que implicar el rechazo a participar en este despliegue tecnológico.
Aunque la inteligencia artificial conexionista que subyace a esta evolución hunde sus raíces en realidades que anteceden al ordenador electrónico, su ascenso es inextricable de la dinámica de un mundo plagado de crisis en serie. Un sistema educativo que ya amenaza con derrumbarse ofrece ahora un terreno fértil para el cultivo de una tecnología peligrosa, ya sea impulsado esta por la desesperación, la ingenuidad o el cinismo de los actores individuales que la utilizan. La sanidad, donde los riesgos inmediatos pueden ser aún mayores, es otro ámbito que a los promotores de la misma les gusta presentar como realmente maduro para una reestructuración integral basada en la inteligencia artificial. Podríamos percibir en estos avances un presagio de futuras respuestas a la emergencia climática. Olvídense de los escenarios apocalípticos que pregonan los profetas de la inteligencia artificial general, porque son simplemente una distracción del desastre que ya tenemos encima.
El reciente libro de Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence (2023) es probablemente el intento más sofisticado realizado hasta la fecha de construir una respuesta teórico-crítica a los cambios registrados en el campo de la inteligencia artificial. Su título es de algún modo inexacto: no hay mucha historia social aquí o al menos no la hay en un sentido convencional de la misma. De hecho, como sucedió con A People's History of Computing in the United States (2018) de Joy Lisi Rankin, sería difícil construir tal historia para un ámbito técnico que durante mucho tiempo ha permanecido en gran parte oculto en los enrarecidos entornos del mundo académico y de la actividad investigadora. Lo social entra aquí de la mano de una reinterpretación teórica de la historia capitalista centrada en torno a los análisis de Babbage y Marx sobre el proceso de trabajo, que ya identifica en la mecanización y la división del trabajo características del siglo XIX una especie de extrañamiento del intelecto humano, lo cual sienta los fundamentos para un análisis de la historia temprana de la inteligencia artificial conexionista. El «ojo» del título vincula la automatización del reconocimiento de patrones con la historia de la supervisión del trabajo.
Aunque no es realidad un trabajo de historia, el libro de Pasquinelli se estructura en torno a un determinado número de descubrimientos académicos sorprendentes, que merecen una seria atención. Es bien sabido que los primeros esfuerzos de Babbage por automatizar la computación estaban íntimamente relacionados con la perspectiva de la economía-política respecto a la división del trabajo. Una perspectiva más novedosa en este sentido proviene del rastreo que hace Pasquinelli de la noción de «general intellect» de Marx, que él remonta hasta el libro de 1824 del socialista ricardiano William Thompson, An Inquiry into the Principles of the Distribution of Wealth. La teoría del trabajo de Thompson destacaba el conocimiento implícito presente incluso en determinados tipos de trabajo relativamente humildes, conocimiento del que a continuación se apropiaban las máquinas para después oponerlo a las mismas personas de las que este había sido extraído, lo cual suscitó las consabidas especulaciones sobre las posibles consecuencias económicas de esta acumulación de tecnología, como sucede en el famoso «fragmento sobre las máquinas» de Marx.
Pero la separación de una supuesta «aristocracia del trabajo» presente en el seno del movimiento obrero propició que la concesión de cualquier tipo de relevancia a los aspectos más mentales del trabajo fuera peligrosa para la cohesión de este. A medida que el proyecto de El capital maduraba, Marx dejó pues de lado el general intellect para referirse al trabajador colectivo, restando importancia al conocimiento y al intelecto en pro de un planteamiento articulado en torno a la coordinación social del trabajo. En el curso de tal proceso, una teoría temprana del papel del conocimiento y del intelecto en la mecanización quedó en la sombra y, por lo tanto, requirió la reconstrucción desde la perspectiva de la era del modelo de lenguaje grande. La implicación para nosotros a este respecto es, por un lado, que la producción capitalista siempre implicó la alienación del conocimiento y, por otro, que la mecanización de la inteligencia siempre estuvo incrustada en la división del trabajo.
Si Pasquinelli se detuviera aquí, su libro constituiría una interesante iniciativa en el terreno de la marxología y de la historia de la economía política. Pero este material proporciona el telón de fondo teórico para una exploración académica de los orígenes de los planteamientos conexionistas del aprendizaje automático, primero en la neurociencia y las teorías de la autoorganización de pensadores cibernéticos como Warren McCulloch, Walter Pitts y Ross Ashby, que se formaron en plena Segunda Guerra Mundial y durante el periodo de la inmediata posguerra, y luego en la aparición a finales de la década de 1950 en el Cornell Aeronautical Laboratory del perceptron de Frank Rosenblatt, que es el antepasado directo más temprano de los modelos contemporáneos de aprendizaje automático. Entre los recursos intelectuales que contribuyeron al desarrollo del perceptron se encontraban la controversia suscitada entre cibernéticos y psicólogos de la Gestalt sobre la cuestión de la percepción gestalt o el reconocimiento de patrones; la teoría conexionista de la mente de Hayek, que este había empezado a desarrollar en una etapa poco conocida de su carrera como ayudante de laboratorio del neuropatólogo Constantin Monakow, la cual corría paralela a sus creencias económicas; y los métodos de vectorización que habían surgido de la estadística y la psicometría y que presentaban profundos vínculos históricos con el movimiento eugenésico. Esta última conexión tiene resonancias sorprendentes en el contexto de las preocupaciones tan publicitadas sobre los prejuicios raciales y otro tipo de sesgos presentes en la inteligencia artificial contemporánea.
Si bien la política de la maquinaria nunca fue neutral, el nivel de generalidad que la mecanización está alcanzando ahora debería hacer sonar las alarmas en todas partes
La inusual fuerza de Pasquinelli radica en este libro en la combinación de su capacidad para analizar los detalles de la evolución técnica e intelectual de la historia temprana de la inteligencia artificial con su aspiración de abordar la construcción de una teoría social más amplia. Su intento de vincular el perceptron de Frank Rosenblatt, así como todo lo que se ha derivado de él, con la división del trabajo mediante la concesión de una mayor importancia a la automatización no de la inteligencia en general, sino de la percepción, al hilo de la vinculación de esta con la tarea de la supervisión de la producción, se halla menos desarrollado. Pero Pasquinelli puede que siga teniendo razón en el nivel más abstracto, cuando intenta fundamentar la inteligencia alienada, que se abre paso actualmente a través de los medios digitales, los sistemas educativos, la atención sanitaria, etcétera, en una historia más profunda de la expropiación maquínica de una intelectualidad que previamente se hallaba integrada en procesos laborales de los que el trabajo mental constituía un aspecto inextricable.
La principal diferencia con la ola actual es, quizá, el estatus social y cultural de los objetos de la automatización. Donde antes se hallaba presente la capacidad mental del trabajo manual que se encarnaba en los nuevos dispositivos en un contexto de estratificaciones en el que se negaba la intelectualidad de tales ámbitos, en los actuales modelos de aprendizaje automático es el discurso humano per se el que se objetiva en la maquinaria. Si bien la política de la maquinaria nunca fue neutral, el nivel de generalidad que la mecanización está alcanzando ahora debería hacer sonar las alarmas en todas partes: estas cosas no pueden confiarse, si queremos sentirnos seguros, a un estrecho grupo de corporaciones y de élites técnicas. Mientras existan, estas herramientas, por muy mágicas que parezcan, serán nuestras enemigas y el descubrimiento de alternativas a las sendas de desarrollo técnico predominantes se tornará una cuestión apremiante.