TIEMPO RE@L

domingo, 13 de noviembre de 2022

UN PELIGRO EN CIERNES: Científicos advierten que será imposible controlar a la inteligencia artificial

Hace unas semanas, nos hemos enterado que Tesla planea fabricar miles de robots humanoides, según una nueva lista de trabajos para el programa Tesla Bot. Con la ciencia ficción prometiéndonos vehículos voladores y mayordomos robóticos durante décadas, la gente no se ha tomado en serio a las compañías tecnológicas que anuncian robots humanoides. Cuando Elon Musk subió al escenario a un bailarín disfrazado de robot para anunciar el programa Tesla Bot en el Tesla AI Day el año pasado, no ayudó a que la gente se lo tomara en serio; muchos lo vieron como una broma y no creyeron que Tesla hablaba en serio al desarrollar un robot humanoide. Sin embargo, Musk dejó claro que el programa de robots humanoides se ha convertido en una prioridad para Tesla. En una actualización de la hoja de ruta del producto a principios del 2022, Musk -que hoy se ha hecho con el control de Twitter - dijo que Tesla está priorizando el desarrollo del producto del robot humanoide Optimus en el 2022 sobre los lanzamientos de nuevos productos, que se retrasaron hasta el 2023. En varias ocasiones desde entonces, Musk ha dicho que la gente no aprecia el valor que Tesla Bot podría aportar al mundo. Incluso dijo que podría cambiar por completo la economía mundial. Y esto ha llevado a comparar a Elon Musk con el mismísimo Anticristo. Y tal vez no estén del todo equivocados. En efecto, los científicos de la Sociedad Max Planck, una histórica institución de investigación europea, dicen que la humanidad nunca podrá controlar una inteligencia artificial superinteligente que podría salvar o destruir a la humanidad. Según una investigación publicada en la revista científica Journal of Artificial Intelligence Research, no hay forma de contener dicho algoritmo sin una tecnología mucho más avanzada que la que podemos construir hoy. El equipo se centró principalmente en el tema de la moderación. Si un algoritmo todopoderoso de alguna manera determinara que debería lastimar a las personas o, de una manera más parecida a “Terminator”, acabar con la humanidad por completo, ¿cómo evitaríamos que actuara? Proponen construir una especie de “algoritmo de contención” que simule el comportamiento del algoritmo peligroso y lo bloquee para que no haga daño, pero debido a que el algoritmo de contención tendría que ser al menos tan poderoso como el primero en hacerlo, los científicos declararon que el problema era imposible de resolver. Todo esto es un debate teórico. La inteligencia artificial (IA) lo suficientemente avanzada como para amenazar a la humanidad probablemente todavía esté muy lejos, pero personas muy inteligentes están trabajando muy duro para conseguirlo. Eso lo convierte en el tema perfecto para debatir con anticipación, por supuesto: nos gustaría saber el peligro antes de que llegue. “Una máquina superinteligente que controla el mundo podría sonar a ciencia ficción”, dijo en un comunicado de prensa el director del Grupo de Movilización Digital del Centro de Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano y coautor del estudio. “Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría volverse incontrolable y peligroso para la humanidad en algún momento” asevero. Aunque señala “que aún queda mucho” para que la IA se convierta en una amenaza para la humanidad, la realidad podría ser bien otra. Los científicos estiman que se puede crear una IA superinteligente en unas pocas décadas, sin embargo en la actualidad ya está superando a los humanos en los juegos de ordenador, como el ajedrez, Go y el Jeopardy!, por lo que hay cierto miedo de que puedan volverse más inteligentes que las mentes humanas. Al respecto, el investigador principal de un estudio en el 2021 sobre IA superinteligente, explicó que se remonta a la primera ley de la Ley de la Robótica de Isaac Asimov publicada en la década de 1940. Su primera ley establece: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”. Sin embargo, esa ley no se puede establecer si los humanos no entienden los escenarios que podría generar una IA. Los científicos dijeron que una vez que un sistema informático funciona en un nivel más allá del alcance humano, será un desafío establecer límites. Nick Bostrom, filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, describió dos posibles soluciones al problema de la IA superinteligente en el 2014. Primero, controlar lo que la IA puede hacer impidiendo que se conecte a Internet y la segunda solución es controlar lo que quiere hacer enseñándole reglas y valores para que actúe en favor de los mejores intereses de la humanidad. Tendremos que esperar para saber si la IA nos considerará una amenaza para la humanidad, aunque se da por descontado que si, por lo que no dudarían en exterminarnos completamente. Con el desarrollo de robots cada vez más autónomos y letales a los cuales no podremos controlar, tal como lo denuncian continuamente diversas organizaciones como Stop Killer Robots ¿Estamos creando el camino hacia nuestra propia autodestrucción? :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.