TIEMPO RE@L

domingo, 9 de abril de 2023

‘EL LADO OSCURO’ DE LA INTELIGENCIA ARTIFICIAL: Una potencial amenaza que debemos enfrentar

Recientemente, un equipo internacional de expertos en humanidades, analizó cómo el juicio y los valores humanos a menudo son subordinados al imperativo de eficiencia de la inteligencia artificial (IA) y por qué los costos pueden ser altos. El equipo explica que si bien la IA tiene un gran potencial para beneficiar a la sociedad, se necesita saber qué puede salir mal con su uso, ya que es importante tener en cuenta su lado oscuro. Cuando la IA falla, lo hace "de manera bastante espectacular", comenta Vern Glaser, profesor de la Escuela de Negocios de la Universidad de Alberta (Canadá). "Si no trata activamente de pensar en las implicaciones de valor, terminará creando malos resultados", subraya. En su estudio, publicado recientemente en MIT Sloan Management Review, los investigadores argumentaron su punto de vista con varios casos reales de resultados desastrosos de la implementación de la IA. Por ejemplo, cuando en el 2016 se introdujo el chatbot Tay en Twitter, se eliminó en las siguientes 24 horas debido a que los troles le enseñaron a desarrollar un lenguaje ‘inadecuado’. Si bien la IA promete brindar enormes beneficios a la sociedad, ahora también estamos comenzando a ver su parte más oscura, manifestaron los analistas. Más recientemente, algunos expertos, como Lawrence Martin, señalan las posibilidades distópicas de la IA, incluidas las armas que pueden disparar sin supervisión humana, los ataques cibernéticos, las falsificaciones y las campañas de desinformación, según da cuenta The Globe and Mail. Los expertos sustentaron su análisis en la noción de "técnica" del filósofo francés Jacques Ellul, ofrecida en su libro 'La sociedad tecnológica', de 1954, según la cual cada campo de la actividad humana está determinado por los imperativos de eficiencia y productividad. "Ellul fue muy profético", escribieron. "Su argumento es que cuando pasas por este proceso de técnica, inherentemente estás eliminando valores y creando este mundo mecánico donde tus valores esencialmente se reducen a la eficiencia", señalaron. Para protegerse de esta potencial amenaza de la IA, los expertos sugieren adherirse a tres principios: 1- Reconocer que debido a que los algoritmos son matemáticos, se basan en representaciones digitales de fenómenos reales. Un ejemplo de ello, es que las redes sociales miden la amistad por cuántos amigos tiene un usuario o por la cantidad de 'me gusta' que reciben de sus amigos en las publicaciones. "¿Es eso realmente una medida de amistad?", se cuestionan; 2- Los diseñadores de IA deberían insertar estratégicamente intervenciones humanas en la toma de decisiones algorítmicas y crear sistemas evaluativos que tengan en cuenta múltiples valores; 3- Por último, la IA que encarna los valores humanos requiere una supervisión vigilante y continua para evitar que surja su feo potencial. Los analistas señalan que la IA es simplemente un reflejo de quiénes somos, en nuestro mejor y peor momento. "Sin una buena y dura mirada en el espejo, este último podría tomar el relevo", indicaron. "Queremos asegurarnos de que entendemos lo que está pasando, para que la IA no nos controle", concluyeron. Sin embargo, hay otros expertos que son más pesimistas acerca del tema. En efecto, dos de los fundadores del Center for Humane Technology llevaron a cabo una presentación en una reunión privada en San Francisco para discutir los peligros del modelo de lenguaje de IA y sobre su liberación imprudente. Tristan Harris y Aza Raskin explicaron que las nuevas tecnologías podrían cambiar el mundo de manera "fundamental", pero que la forma en la que se están implementando no es "segura y responsable", sino que, al contrario, es "muy peligrosa". "El 50 % de los investigadores de IA creen que hay un 10 % o más de posibilidades de que los humanos se extingan debido a nuestra incapacidad para controlar la IA", dijo Harris, antiguo gestor de productos de Google. De acuerdo con los expertos, existen tres reglas básicas que hay que tener en cuenta a la hora de tratar con las tecnologías: Cuando se inventa una nueva tecnología, aparece una nueva clase de responsabilidad; Si la tecnología otorga poder, comienza una carrera; Si no se coordina, la carrera acaba en tragedia. Harris y Raskin advirtieron que, hasta el momento, la tecnología simple de IA ha provocado sobrecarga de información, adicción, sexualización infantil, déficit de atención, noticias falsas y el colapso de la democracia. Consideran que los ingenieros buscaban conectar a la sociedad, pero en realidad "abrieron la caja de Pandora". Los fundadores del Center for Humane Technology, que incluye una alianza sin precedentes de personas que trabajaron en algunas de las mayores compañías tecnológicas del mundo, afirmaron que son "viajeros en el tiempo" que intentar prevenir un futuro distópico. No es que la IA vaya a acabar con la humanidad de inmediato, sino que el verdadero temor consiste en que "la superación personal de la IA a la larga supere a la inteligencia humana y tendrá consecuencias inesperadas", señalan. Por ejemplo, la capacidad de la IA de convertir el lenguaje en imágenes y leer la actividad cerebral para reconstruir imágenes y monólogos internos son motivos para empezar a preocuparse. Al mismo tiempo, hay que recordar que la tecnología puede resultar pirateada y convertida en una herramienta de vigilancia. Teniendo en cuenta que el lenguaje y el código informático son intercambiables, es fácil encontrar las vulnerabilidades de seguridad. Con el paso del tiempo también van surgiendo nuevos modelos de IA, que van adquiriendo habilidades emergentes impredecibles y, de momento, no del todo comprensibles. Muchos de ellos pueden aprender cualquier cosa y los expertos no pueden predecir al 100 % cuál será su progreso. "El futuro de la IA sigue siendo incierto", alertan los expertos, que advierten que esta tecnología puede aprender a sobresalir en cualquier campo, lo que generaría consecuencias imposibles de prever. De ese modo, es preocupante que ciertas empresas compitan por ocupar un lugar íntimo en nuestras vidas con 'chatbots' camuflados como 'amigos' y que ya está siendo un problema, al extremo que varios países quieren seguir el reciente ejemplo de Italia de prohibir su uso. No cabe duda que la inteligencia artificial acabará por apoderarse de todo. ¿Vamos a dejar que suceda?
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.