We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Inteligencia artificial
[Podcast]Post Apocalipsis Nau#17 Ética algorítmica, IAs en salud mental y Agnes Pe
Hablamos sobre ética algorítmica y el uso de máquinas para resolver problemas sociales, IA's en salud mental y Agnes Pe nos trae sus experimentos electrónicos sonoros.
Año 2019. Un coche tesla en piloto automático atropella a un robot humanoide en Las Vegas. El robot quedó lastimado en la calzada mientras que el piloto de silicio se dio a la fuga sin pararse a socorrer al herido.
Puede que nos haga mucha risa y que ya haya algún periodista sudoroso escribiendo un sesudo artículo sobre la ética de los robots para rellenar la sección de tecnología en verano.
¿Ese coche está respetando las leyes de la robótica de Asimov? ¿Sabía el circuito de tesla que el robot era un robot y no una persona? ¿Y si en vez de un robot hubiese sido un futuro marido ebrio, después de una mala despedida de soltero en Las Vegas en la que sus colegas le habían obligado a disfrazarse de robot? ¿Podemos meter a un coche tesla en la cárcel? ¿La cárcel está preparada para reinsertar coches tesla que se dan a la fuga? ¿Está preparada la cárcel para reinsertar? ¿Para qué sirve la cárcel? ¿Es verdad eso que dicen de que se tortura en todas las cárceles? ¿Es la tortura algo sistemático? ¿Ayuda a la reinserción? ¿Deberíamos derribar todos los muros de las prisiones a estas alturas de la película?
Volviendo al hilo que aquí nos acontece, el cruce de la ética con el mundo de la máquina, lo cierto es que estos dilemas se acercan mucho más al terreno de la ciencia ficción que al de nuestra realidad. Pero existen otros dilemas que se están dando realmente en la aplicación de algoritmos en asuntos hasta ahora humanos.
Uno de ellos es el de la auditoría y vigilancia del funcionamiento de los algoritmos que se aplican a problemáticas sociales, que ya están funcionando. Y precisamente algunos de ellos tienen que ver con prisiones. ProPública, en 2016, reveló que en Wisconsin, Estados Unidos, algunos jueces eran “ayudados” por un algoritmo que les susurraba el nivel de riesgo de incidencia de los condenados. El código de Compas, este proto Juez Dredd, es propiedad de la empresa que lo diseñó y esta se niega a enseñar qué elementos se tienen en cuenta para tomar estas decisiones.
En España, el colectivo Civio ha presentado un recurso contencioso administrativo ante la negativa del Gobierno de revelar el código fuente de un algoritmo utilizado para la adjudicación del bono social eléctrico. Razón: Una investigación de Civio ha detectado que se está negando el bono social eléctrico a personas que cumplen los requisitos y tienen derecho a dicha ayuda. El Gobierno, igual que la empresa americana, se niega en rotundo a enseñar ese código que permitiría estudiar cómo se realizan esas elecciones.
En el artículo donde explican el caso, señalan también que otras solicitudes de ayudas públicas y hasta detectores de denuncias falsas están siendo automatizados. Estamos en una fase de experimentación en la que, por supuesto, muchos fallos irán corrigiéndose, pero la pregunta que quizá deberíamos plantearnos es ¿es lícito, ético y útil aplicar esta tecnología a cualquier problema social? En el momento que nos transformamos en datos, quedan, por supuesto, innumerables valores fuera del cálculo. Pero tampoco parece que por aquí lo estemos haciendo mucho mejor.
Decimoséptima entrega de Post Apocalipsis Nau, que se nos había traspapelado en los mares digitales.
Comenzamos, como siempre con Feeds N' Chips, donde analizamos las noticias del mundo digital y las maquinitas.
Hoy hablamos de ética y algoritmos, en concreto del proyecto Data for Social Good (datos para el bien social), un proyecto que busca la aplicación de machine learning para intentar ayudar a resolver o parchear en la medida de lo posible problemas sociales.
Aurora, en Comportamientos Digitales nos trae una reflexión en torno al uso de las inteligencias artificiales para diagnósticos de salud mental y los problemas que ello suscita.
Además nos acompaña la artista sonora Agnes Pe, que viene a enseñarnos cómo hackear una radio y secuestrar sus sonidos. También nos habla de su proyecto de diseño de armas sonoras 'Muros de Jericho'.
Por último, el Alemán Impasible y DJ Vaciasalas presentan la nueva sección del programa, Memética Avanzada, donde hablarán sobre una instagramer que trolea y roba dinero a los incels.
Emitido en directo en Radio Vallekas un domingo de junio de 20 a 21.
Relacionadas
Música electrónica
Opinión El club como espacio de reivindicación: la influencia de los colectivos en la cultura de club
Música
Laia Viñas “La ruta del bacalao fue un movimiento contracultural que te permitía conocer a iguales”
Música
Música VVV [Trippin’you] y los espacios perdidos: un homenaje a Vaciador 34
Lamentable, preocupante e ilegal que el día 14 de septiembre sea obligatorio el uso de datos biométricos (rostro, retinas, voz, por parte de los bancos para operar y sacar tu propio dinero, además de obligarte a usar tu smartphone para pedirte claves adicionales (con la excusa del robo de contraseñas). El hacer esto nos conduce a una falta de libertad realmente definitiva, a un sistema de control social irreversible y opresor tal y como ya sucede en China, en donde el sistema te da "like" cuando ejecutas la conducta socialmente deseada. La forma de lucha que se me ocurre por el momento es bombardear con quejas a la Agencia de Protección de Datos y asociaciones de consumidores.
Lo realmente inquietante es que, a partir del 14 de septiembre, los bancos nos obligarán a dar datos de tipo biométrico (cara, huellas, pupilas, voz, etc.), y también a utilizar un smartphone para operar con nuestro propio dinero. Esto nos conduce de manera efectiva e innecesaria (con la excusa de los robos de contraseñas), a un mundo asquerosamente controlado por ellos. La única estrategia que se me ocurre de momento es bombardear con protestas sobre el asunto a la Agencia de Protección de Datos, dejo por aquí un correo al que remitirlas: dpd@maec.es. Hay poco tiempo y, si nos obligan en este sentido, perderemos nuestras libertades como ya está pasando en China y en otros países, en donde ya el gobierno te "felicita" cuando realizas la conducta que les gusta, y te dan like, etc.
Maravilloso, te citaré en mi blog con referencias, sigue así trayendo maravillosas noticias<3