We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Inteligencia artificial
Cuando los “robots asesinos” dejan de ser ciencia ficción
El Centre Delás alerta sobre la proliferación de armas autónomas y la falta de regulación que podría llevar en pocos años a un escenario de guerra o de control de fronteras dominado por sistemas robotizados que no precisan intermediación humana para atacar.
Para los coches voladores o las colonias espaciales parece que habrá que esperar. Pero otras innovaciones que la ciencia ficción lleva décadas incluyendo en todo tipo de libros y películas se están haciendo realidad a un ritmo imparable.
La “escalada hacia los sistemas armados autónomos” es una de estas nuevas tendencias que el reciente informe del Centre Delás califica de “ética y jurídicamente inaceptable”. Para esta ONG, “delegar en una máquina las decisiones de matar va en contra de la dignidad humana y de los derechos de las personas”.
En la última década, señala esta organización, las acciones militares y “de seguridad” que incluyen la utilización de sistemas militares robóticos y drones armados han “cambiado radicalmente los escenarios de guerra”. Los ataques con drones, señalan, no suelen salir en los telediarios, pero “muestran un ritmo de crecimiento continuado” y “acaban matando personas civiles, además de perpetrar ejecuciones sumarias y extrajudiciales”.
El Centre Delás describe en su informe, titulado Nuevas armas contra la ética y las personas. Drones armas y drones autónomos, una auténtica revolución en el negocio armamentístico. A la vez que los nuevos sistemas conseguían abaratar las operaciones militares —y minimizar las propias bajas— han incrementado el volumen de negocio del sector industrial militar. Unos sistemas que a menudo utilizan las ventajas de la inteligencia artificial para la vigilancia de las fronteras, incluyendo el “control armado con drones”. Estas herramientas diseñadas para vigilar —“y en su caso atacar”— migrantes se están utilizando en Israel, Corea del Sur, Estados Unidos o en la Unión Europea.
Control social
La vigilancia basada en la inteligencia artificial ya está presente en 75 países
La herramientas de inteligencia artificial para la vigilancia masiva han llegado para quedarse. Cerca de la mitad de los países del mundo ya la utilizan.
Frente a las críticas de organismos de derechos humanos, desde la industria militar se ha ido “construyendo una falsa narrativa sobre las bondades” de la inteligencia artificial como un factor que evita los inconvenientes derivados del famoso ‘factor humano’. Una narrativa falsa, según el Centre Delás: “Los sistemas militares robóticos con autonomía constructiva tienen comportamientos no explicables, con una probabilidad garantizada de error que es significativa y no pequeña. Esto los hace esencialmente no aptos en situaciones donde los errores serán vidas humanas”.
Para esta ONG que investiga sobre armamento y procesos de paz, los sistemas de armas autónomas “nos sitúan en un escenario de deshumanización”. El mayor peligro de la “autonomía que está viniendo” lo identifican en los minidrones —armados o de reconocimientos—, “drones que rondan” —que sobrevuelan determinada zona de forma continuada y captan información de todo lo que encuentran— y en los “enjambres de drones”, un conjunto de mini-drones que interactúan entre ellos imitando a los enjambres de abejas o las bandadas de pájaros. Todos estos sistemas, en investigación en varios países, pueden incorporar fácilmente sistemas autónomos de decisión y están al alcance de gran número de economías. La incorporación de estos sistemas autónomos cambiaría por completo el mapa geopolítico y los escenarios de guerra, señalan en el informe.
“Es cierto que los humanos somos falibles, pero esta es la característica de la condición humana. Delegar en una máquina la decisión de matar va en contra de la dignidad humana y de los derechos de las personas. El problema ético aparece cuando los sistemas militares dejan de ser operados por personas y ejecutan sus tareas con autonomía de uso, sin intervención humana en los procesos de decisión y ataque”, reflexionan.
Ante esta situación, el Centre Delás demanda un instrumento jurídico vinculante que prohíba los sistemas militares robóticos con autonomía de uso. Una reclamación enmarcada en una coalición internacional llamada Campaign to Stop Killer Robots, que ha conseguido iniciar conversaciones en el marco de Naciones Unidas para crear un marco legal que “prohíba los sistemas de armamento sin control humano significativo”.
“Todavía no estamos en el mundo de Terminator, donde las armas toman sus propias decisiones”, reconocen desde el Centre Delás, pero algunos modelos como el dron Reaper ya empiezan a acercarse. Los esfuerzos en el presente por regular las armas autónomas y los “robots asesinos” tendrá mucho que ver con que consigamos librarnos de las peores pesadillas de la ciencia ficción en el futuro.
Relacionadas
Inteligencia artificial
Inteligencia Artificial Un manifiesto denuncia la desprotección de artistas y trabajadores culturales frente a la IA generativa
Inteligencia artificial
Inteligencia artificial Malas artes
Redes sociales
Marta G. Franco “Lo que ocurre con la internet actual es que prácticamente no hay espacios públicos en ella”
Los robots no asesinan, los que asesinar son los políticos, los que los derigen puede que lo sean también , alguien ha dirigirlos, pero no las máquinas.