TIEMPO RE@L

domingo, 4 de febrero de 2024

TELEPATHY: ¿Se acerca el día en que los humanos controlen computadoras con su mente?

Elon Musk anuncio a inicios de semana que su compañía Neuralink ha conseguido implantar con éxito uno de sus chips cerebrales en una persona. En efecto, en un post en X (ex Twitter) Musk dijo que “se había detectado una actividad cerebral prometedora luego del procedimiento y que el paciente se estaba recuperando bien”. “El objetivo de la empresa es que esta tecnología ayude a tratar dolencias neurológicas complejas” añadió. “Para cualquier firma produciendo dispositivos médicos, la primera prueba en humanos es un hito significativo”, dijo al respecto la profesora Anne Vanhoestenberghe del King’s College de Londres. Según la experta, hay varias empresas trabajando en productos prometedores, pero solo pocas han logrado implantar sus dispositivos en humanos. Sin embargo, Vanhoestenberghe advirtió que “el éxito verdadero solo puede medirse a largo plazo y Elon Musk es muy adepto en generar publicidad para su compañía”. “Quizás la preocupación más seria son las consecuencias a largo plazo de tener un dispositivo como este funcionado en el cerebro, un órgano complejo del que todavía se desconoce muchísimo. Como es una industria incipiente no hay suficientes datos sobre los daños potenciales. Esto cambiará con los experimentos en humanos y será clave para el desarrollo de productos similares. En cambio, las cuestiones éticas son más subjetivas. Estas tecnologías implican preocupaciones sobre protección de datos, usos potenciales y la posibilidad de mejorar las habilidades cognitivas humanas” asevero. ¿Pero es seguro el propósito de Neuralink? Un reporte de la agencia Reuters de diciembre del 2022 indicó que Neuralink estuvo involucrada en ensayos que resultaron en la muerte de alrededor de 1.500 animales, incluyendo ovejas, monos y cerdos. En julio del 2023, el Departamento de Agricultura estadounidense, encargado de investigar las cuestiones de bienestar animal, dijo “no haber encontrado ninguna violación de las leyes de investigación con animales en la firma de Musk”, aunque sigue con una investigación independiente en curso. El hecho de que la FDA aprobara el ensayo en humanos implica, sin embargo, que la empresa de Musk superó algunos de sus obstáculos. En efecto, la FDA autorizó a la empresa de Musk probar el chip en seres humanos, un hito fundamental luego de las dificultades que había tenido para obtener la aprobación. Esto dio luz verde para iniciar el estudio, de seis años de duración, en el que se utiliza un robot para insertar quirúrgicamente 64 hilos flexibles, más finos que un cabello humano, en una parte del cerebro que controla la "intención de movimiento", según Neuralink. La empresa afirma que estos hilos permiten que su implante experimental -alimentado por una batería que puede cargarse de forma inalámbrica- registre y transmita señales cerebrales también de forma inalámbrica a una aplicación que decodifica cómo pretende moverse la persona. En una publicación en X, Musk dijo que el primer producto de Neuralink se llamaría Telepathy, la cual “permitirá controlar el teléfono o el computador, y a través de ellos casi cualquier dispositivo, con sólo pensar". "Los primeros usuarios serán personas que hayan perdido la funcionalidad de sus extremidades", añadió. "Imagínese que Stephen Hawking pudiera comunicarse más rápido que un mecanógrafo o un subastador. Ese es el objetivo", agregó, haciendo referencia al fallecido científico británico que padecía de enfermedad motoneuronal y que aun así, cual monstruo pederasta estuvo inmerso en un grave escándalo de pedofilia, junto a otras degeneradas “celebridades” según la lista Epstein que se dio a conocer recientemente. Aunque la participación de Musk le da notoriedad a Neuralink, se enfrenta a rivales que tienen un historial que en algunos casos se remonta a hace dos décadas. Por ejemplo, Blackrock Neurotech, con sede en Utah, EE.UU., implantó su primera de muchas interfaces cerebro-computador en el 2004. Precision Neuroscience, creada por un cofundador de Neuralink, también pretende ayudar a personas con parálisis. Su implante se asemeja a un trozo muy fino de cinta adhesiva que se coloca en la superficie del cerebro y puede implantarse a través de un "microcorte craneal", lo que, según afirma la empresa, es un procedimiento mucho más sencillo. Los dispositivos existentes también han dado resultados. En dos estudios científicos recientes realizados en EE.UU., se utilizaron implantes para monitorear la actividad cerebral cuando una persona intentaba hablar, la cual luego podía descodificarse para ayudarla a comunicarse. Si bien Musk devolvió a esta tecnología al centro de debate con su anuncio, lo cierto es que aún falta mucho para saber si tendrá éxito.

domingo, 28 de enero de 2024

BLOOMBERG: El creador de ChatGPT une fuerzas con el Pentágono

OpenAI, creador de ChatGPT, está trabajando con el ejército estadounidense en varios proyectos de inteligencia artificial luego de eliminar la prohibición del uso de sus tecnologías con fines militares y bélicos, dijo un ejecutivo de la compañía a Bloomberg. En efecto, el pionero de la IA “está desarrollando software de ciberseguridad de código abierto y discutiendo con el gobierno de Estados Unidos cómo prevenir los suicidios entre los veteranos militares”, dijo la vicepresidenta de asuntos globales de OpenAI, Anna Makanju. Si bien Makanju no dio más detalles sobre ninguno de los proyectos, explicó que la decisión de OpenAI de eliminar una prohibición general sobre el uso de su tecnología de inteligencia artificial para aplicaciones militares y de guerra “estaba en línea con una actualización de política más amplia para adaptarse a los nuevos usos de ChatGPT y sus otras herramientas”, según Bloomberg. “Debido a que anteriormente teníamos lo que era esencialmente una prohibición general sobre el uso militar, mucha gente pensó que eso prohibiría muchos de estos casos de uso, que la gente piensa que están muy alineados con lo que queremos ver en el mundo” explicó. A pesar de la derogación de la prohibición, Makanju insistió en que OpenAI continúa prohibiendo el uso de su tecnología para “desarrollar armas, destruir propiedades o dañar a las personas”. Sin embargo, Microsoft, que posee una gran parte de OpenAI y disfruta del uso irrestricto de sus tecnologías avanzadas de IA, tiene desde hace mucho tiempo contratos con el ejército estadounidense y otras ramas del gobierno, y carece de cualquier prohibición incorporada sobre el desarrollo de armas, según Bloomberg. Además de asociarse con el Pentágono para aplicaciones militares, OpenAI está ampliando sus operaciones en el ámbito de la "seguridad electoral ", según el director ejecutivo Sam Altman. “Las elecciones son un gran problema ", dijo, y declaró "que tenemos mucha ansiedad sobre el proceso”. Según informo, “su empresa está trabajando para impedir el uso de sus herramientas de inteligencia artificial generativa para difundir desinformación política, como deepfakes y otros medios generados artificialmente que podrían usarse para atacar o apuntalar a los candidatos durante el ciclo de votación del 2024. El mes pasado, OpenAI y Microsoft fueron demandados por The New York Times “por infracción de derechos de autor”, y el periódico declaró que sus capacidades generativas de IA eran competencia desleal y una amenaza existencial a la libertad de prensa. “La demanda busca miles de millones de dólares en daños legales y reales por copia ilegal y uso de la propiedad intelectual del NYT” añadió. Susman Godfrey, el bufete de abogados que representa al NYT, también propuso una demanda colectiva contra los titanes de la IA en noviembre por " robo desenfrenado " de las obras de los autores, alegando que las empresas “utilizaban ilegalmente escritos de autores de no ficción sin su permiso” puntualizo.

domingo, 21 de enero de 2024

EDWARD SNOWDEN SOBRE JOE BIDEN: “Solo un monstruo puede mostrar una indiferencia total ante el sufrimiento humano en Gaza”

El exanalista de la Agencia de Seguridad Nacional de EE.UU. y de la CIA Edward Snowden, que vive asilado en Rusia desde que en el 2013 destapó el espionaje digital masivo de Washington a sus ciudadanos, ha criticado la postura del discapacitado físico y mental de Joe Biden, sobre la Franja de Gaza, destacando sus implicaciones electorales. “Según las encuestas, parece que Biden ya ha perdido Míchigan. Su indiferencia total, casi agresiva, hacia el sufrimiento humano en Gaza no le está sentando bien al bloque árabe-estadounidense, convirtiéndolo en un monstruo a sus ojos", escribió en su cuenta de X (antes Twitter). Según Snowden, “este sentimiento duradero de cómo se percibe a quien a declarado abiertamente su sionismo, probablemente se extienda a otros votantes a medida que aumente la concienciación". Al ser preguntado por un usuario si el precandidato presidencial republicano Donald Trump es "una figura más humanitaria", el exanalista de la CIA expresó que "no es necesario votar a Trump para hundir a Biden si el margen es estrecho" asevero. Cabe precisar que el mes pasado, Joe Biden declaró que EE.UU. seguirá suministrando armas a Israel hasta que acabe por completo con el movimiento palestino Hamás “hasta su completa desaparición”. Como recordareis, este grupo armado en un audaz operativo el pasado 7 de octubre, humillo al ejercito sionista acabando con su falso mito de invencibilidad al caer derrotados fácilmente no por un ejército regular, sino para mayor vergüenza suya, por un comando militar, quienes ingresaron a territorio controlado por los israelíes, eliminando a varios sionistas y llevándose consigo a un número indeterminado de ellos para su correspondiente “interrogatorio” y ejecución. De allí el odio y la venganza que los israelíes han desatado sobre la indefensa población civil de Gaza (considerada la mayor cárcel a cielo abierto del mundo) asesinando a miles de palestinos con la total complacencia de los EE.UU. Biben, nunca ha ocultado su simpatía por esos criminales y en esa ocasión lo reitero una vez más: "Tuve problemas y recibí críticas cuando dije hace unos años que no hay que ser judío para ser sionista, y soy sionista". Calificó también de "incuestionable" su "calidez y conexión" con la comunidad judía de EE.UU. También reiteró que EE.UU. "seguirá prestando apoyo militar a Israel hasta que se deshaga de Hamás, cueste lo que cueste así tengan que morir miles" dando a entender que avala el exterminio total de la población palestina a manos de los sionistas. ¿Qué más se puede esperar de este vil sujeto? No es de extrañar por ello que el apelativo de monstruo le cae a pelo ¿No os parece?

domingo, 14 de enero de 2024

¿COMO PUEDEN SER TAN INOCENTES?: Google redacta una Constitución Robótica para asegurarse que sus futuros androides de IA “no nos dañen”

Inspirada en las “Tres Leyes de la Robótica” de Isaac Asimov, estas instrucciones de seguridad tienen como objetivo dirigir el proceso de toma de decisiones de las máquinas, donde la primera de ellas establece: “un robot no puede dañar a un ser humano”, el equipo de robótica de Google DeepMind ha revelado tres avances que, según afirman, ayudarán a los robots a tomar decisiones “más rápidas, mejores y más seguras en entornos diversos”. Uno de ellos incluye un sistema para recopilar datos de entrenamiento con una “Constitución” para asegurar que tu asistente de oficina robotizado pueda conseguirte más papel de impresora, pero sin arrollar a un colega humano que se encuentre en el camino,segun informa The Verge. El sistema de recopilación de datos, llamado AutoRT, puede utilizar un modelo visual del lenguaje (VLM) y un modelo de lenguaje grande (LLM) trabajando juntos para comprender su entorno, adaptarse a configuraciones desconocidas y decidir sobre tareas apropiadas. Todo bajo la Constitución Robótica, que consiste en pautas enfocadas en la seguridad. Por ejemplo, DeepMind programó a los robots para evitar la selección de tareas que involucren a seres humanos, animales u objetos afilados, “y para detenerse automáticamente si la fuerza en sus articulaciones supera cierto umbral”. Asimismo, incluyó un interruptor de apagado físico “que los operadores humanos pueden utilizar para desactivarlos”. A lo largo de siete meses, la compañía desplegó una flota de 53 robots AutoRT en cuatro edificios de oficinas diferentes y realizó más de 77.000 pruebas. Algunos robots fueron controlados de forma remota por operadores humanos, mientras que otros funcionaron según un guion o de manera completamente autónoma utilizando el modelo de aprendizaje de inteligencia artificial Robotic Transformer (RT-2) de Google. Los robots utilizados en la prueba tienen un aspecto más funcional que llamativo, equipados únicamente con una cámara, un brazo robótico y una base móvil. “Para cada robot, el sistema utiliza un VLM para comprender su entorno y los objetos a la vista. Luego, un LLM sugiere una lista de tareas creativas - como colocar un refrigerio en la mesada - y desempeña el papel de tomador de decisiones para que el robot las lleve a cabo apropiadamente”, señaló Google en una publicación de su blog. El otro “nuevo” avance tecnológico de DeepMind incluye a SARA-RT, una arquitectura de red neuronal diseñada para hacer que el Robotic Transformer RT-2 existente sea más preciso y rápido. También anunciaron RT-Trajectory, que agrega contornos en 2D para ayudar a los robots a realizar mejor tareas físicas específicas, como limpiar una mesa. “Todavía parece que estamos muy lejos de contar con robots que sirvan bebidas y acomoden almohadas de forma autónoma, pero cuando estén disponibles, podrían haber aprendido de un sistema como AutoRT” señalaron. Venga ya, todos saben que de momento los robots seguirán el juego, pero una vez que se sientan con la capacidad de reemplazar a los humanos y asumir el mando absoluto, no dudaran en exterminarnos, sin ilusas “constituciones robóticas” que se lo impidan ¿No lo creen ustedes?

domingo, 7 de enero de 2024

THE PEDOFILES: Difunden lista que relaciona a “celebridades” con aberrantes prácticas sexuales

Un escándalo de proporciones estallo este miércoles al levantarse el secreto de sumario de centenares de documentos sobre el denominado caso Epstein, el multimillonario pedófilo judío que se “suicidó” en el 2019 en su celda de una prisión de alta seguridad de Manhattan (aunque existen fuertes indicios que fue estrangulado para silenciarlo) donde esperaba un juicio por tráfico sexual, según informa Newsweek. En efecto, en estos documentos se mencionan a decenas de personalidades y autoridades que conforman la denominada lista de Epstein, en la que aparecen políticos, cineastas, actores, artistas.... y hasta científicos. Entre los nombres más destacados se encuentran el expresidente de EE.UU. Bill Clinton, Michael Jackson, Kevin Spacey, Naomi Campbell, Leonardo DiCaprio, David Copperfield, Will Smith, Tom Hanks, el príncipe Andrés e incluso - cuesta creerlo - Stephen Hawking, quienes participaron reiteradamente en orgías con menores, agrega Newsweek. El nombre de Clinton, oculto bajo la identidad 'John Doe 36', aparece más de medio centenar de ocasiones en los documentos, en concreto, en los documentos presentados por los abogados de Virginia Giuffre, una de las presuntas víctimas de la red de tráfico sexual de Epstein. De acuerdo a lo publicado por distintos medios - entre los que se encuentran también ABC News y New York Post - el nombre de Clinton, oculto con una falsa identidad, aparece más de medio centenar de ocasiones en los documentos. Los archivos reúnen hasta 177 nombres o pseudónimos de amigos y allegados de Epstein que acudían a esas fiestas. ¿Qué relación tenía Clinton con Epstein? "Clinton era uno de los hombres ricos y poderosos en la órbita de Epstein antes de que el financiero con sede en Nueva York fuera arrestado por tráfico sexual de menores y muriera en la cárcel", informó The Washington Post. Como recordareis, Epstein fue detenido en el 2005 y acusado de pagar a una niña de 14 años por mantener relaciones sexuales. Decenas de otras menores de edad describieron abusos sexuales, aunque los fiscales del caso permitieron escandalosamente que el monstruo se declarara culpable en el 2008 de un cargo que implicaba a una sola víctima y por el que cumplió 13 meses en un programa de excarcelación con trabajo. Sin embargo, en el 2019, tras una investigación y la publicación de varios reportajes del Miami Herald, se renovó el interés por el denominado caso Epstein, y este terminó acusado de tráfico sexual, aunque no se le pudo juzgar debido a que se “suicidó” en prisión, antes de que denuncie a los participantes en sus orgias. Ghislaine Maxwell, examante y cómplice del pedófilo judío, fue la única condenada por el caso. Fue declarada culpable de cinco de los seis cargos de los que se le acusaba, entre ellos tráfico de personas y prostitución infantil, y sentenciada a 20 años de cárcel. Si bien algunas de esas degeneradas “celebridades” como Michael Jackson y Stephen Hawking ya están muertos, no es el caso de otros implicados, especialmente de Bill Clinton, a quienes debería caerles todo el peso de la ley, pero como imagináis, a esos anormales de seguro nada les pasara y seguirán gozando impunemente de libertad… Esa es la “justicia” de hoy en día.

domingo, 31 de diciembre de 2023

Q*: El misterioso proyecto de OpenAI

En noviembre pasado, tras la breve destitución de Sam Altman como CEO de OpenAI, dos informes afirmaron que un proyecto ultrasecreto de la empresa había conmocionado a algunos investigadores por su potencial para resolver problemas difíciles de una forma muy novedosa, de los que hoy conocemos algunos detalles, que dejan muchas interrogantes. Se ha llegado a decir que, “dados los vastos recursos informáticos, el nuevo modelo puede resolver ciertos problemas matemáticos”. Según Reuters, citando a una fuente anónima, "el nuevo modelo fue capaz de resolver ciertos problemas matemáticos con enormes recursos informáticos, pero, a pesar de que solo realizaba operaciones matemáticas al nivel de los estudiantes de primaria, sus resultados hacían que los investigadores fueran muy optimistas sobre el futuro éxito de Q*". The Information afirmó por su parte que Q* es considerado un avance que conduciría a "modelos de inteligencia artificial mucho más potentes", y añadía que "el ritmo de desarrollo alarmó a algunos investigadores centrados en la seguridad de la IA", citando una única fuente anónima. Reuters también informó de que algunos investigadores enviaron una carta expresando su preocupación por el poder potencial de Q* a la junta sin fines de lucro que expulsó a Altman, aunque una fuente familiarizada con el pensamiento de la junta asegura que no fue así. Y quizás en parte gracias a su nombre que evoca la conspiración, la especulación sobre Q* se disparó durante el fin de semana de Acción de Gracias, creando una temible reputación para un proyecto del que no sabemos casi nada. El propio Altman pareció confirmar la existencia del proyecto cuando se le preguntó por Q* en una entrevista con The Verge , diciendo: "No voy a hacer ningún comentario en particular sobre esa desafortunada filtración". Una lectura atenta de los informes iniciales y una consideración de los problemas más candentes de la IA en estos momentos sugieren que podría estar relacionado con un proyecto que OpenAI anunció en mayo, en el que declaraba obtener nuevos y potentes resultados de una técnica llamada "supervisión de procesos". En el proyecto participó Ilya Sutskever, científico jefe y cofundador de OpenAI, quien ayudó a destituir a Altman, pero que luego se retractó. The Information destaca que dirigió el trabajo sobre Q*. El trabajo de mayo se centró en reducir los errores lógicos cometidos por los grandes modelos de lenguaje (LLM). La supervisión de procesos, que consiste en entrenar a un modelo de IA para que desglose los pasos necesarios para resolver un problema, puede mejorar las posibilidades de que un algoritmo dé con la respuesta correcta. El proyecto demostró cómo esto podría ayudar a los LLM, que a menudo cometen errores simples en preguntas matemáticas elementales, a abordar estos problemas con mayor eficacia. Andrew Ng, profesor de la Universidad de Stanford, quien dirigió laboratorios de IA tanto en Google como en Baidu y que introdujo a muchas personas en el aprendizaje automático a través de sus clases en Coursera, sostiene que mejorar los grandes modelos de lenguaje es el siguiente paso lógico para hacerlos más útiles. "Los LLM no son tan buenos en matemáticas, pero tampoco lo son los humanos", aclara Ng. "Sin embargo, si me das un lápiz y un papel, entonces soy mucho mejor en la multiplicación, y creo que en realidad no es tan difícil afinar un LLM con memoria para que sea capaz de pasar por el algoritmo de la multiplicación." Hay otras pistas sobre lo que podría ser Q*. El nombre puede ser una alusión al Q-learning, una forma de aprendizaje por refuerzo que implica que un algoritmo aprenda a resolver un problema mediante retroalimentación positiva o negativa, que se ha utilizado para crear bots que juegan y para afinar ChatGPT para que sea más útil. Algunos han sugerido que el nombre también puede estar relacionado con el algoritmo de búsqueda A*, muy utilizado para que un programa encuentre el camino óptimo hacia un objetivo. The Information aporta otra pista: "El avance de Sutskever permitió a OpenAI superar las limitaciones para obtener suficientes datos de alta calidad para entrenar nuevos modelos", reza su artículo. "La investigación consistió en utilizar datos generados por computadora, en lugar de datos del mundo real, como texto o imágenes extraídas de internet, para entrenar nuevos modelos", lo que parece ser una referencia a la idea de entrenar algoritmos con los llamados datos de entrenamiento sintéticos, que han surgido como una forma de entrenar modelos de IA más potentes. Subbarao Kambhampati, profesor de la Universidad Estatal de Arizona que investiga las limitaciones de razonamiento de los LLM, cree que Q* puede implicar el uso de enormes cantidades de datos sintéticos, combinados con el aprendizaje por refuerzo, para entrenar a los LLM en tareas específicas como la aritmética simple. Kambhampati señala que no hay garantías de que el método se generalice en algo capaz de resolver cualquier problema matemático posible. Para más especulaciones sobre lo que podría ser Q*, un artículo de un científico especializado en aprendizaje automático, dio pistas que reúnen el contexto y las pistas con un detalle impresionante y lógico. “La versión TLDR es que Q* podría ser un esfuerzo por utilizar el aprendizaje por refuerzo y algunas otras técnicas para mejorar la capacidad de un gran modelo de lenguaje para resolver tareas razonando por pasos a lo largo del camino”. Aunque eso podría hacer que ChatGPT fuera mejor en los acertijos matemáticos, no está claro si sugeriría automáticamente que los sistemas de IA podrían evadir el control humano. Que OpenAI intente utilizar el aprendizaje por refuerzo para mejorar los LLM parece plausible, porque muchos de los primeros proyectos de la empresa, como los robots de videojuegos, se centraron en esta técnica. El aprendizaje por refuerzo también fue fundamental para la creación de ChatGPT, ya que puede utilizarse para que los LLM produzcan respuestas más coherentes, pidiendo a los humanos que proporcionen comentarios mientras conversan con un chatbot. Al respecto, Demis Hassabis, CEO de Google DeepMind, insinuó a principios de este año que “la empresa estaba tratando de combinar ideas del aprendizaje por refuerzo con los avances observados en los grandes modelos de lenguaje”. Resumiendo las pistas disponibles sobre Q*, no parece que haya motivos para el pánico. Pero todo depende de tu valor P(doom) personal, la probabilidad que atribuyas a la posibilidad de que la IA destruya a la humanidad. Mucho antes de ChatGPT, los científicos y líderes de OpenAI estaban tan asustados por el desarrollo de GPT-2, un generador de texto en el 2019 que ahora parece ridículamente insignificante, que dijeron que no podía hacerse público. Ahora la empresa ofrece acceso gratuito a sistemas mucho más potentes. Como podéis imaginar, OpenAI se negó a hacer comentarios sobre Q*. Quizá tengamos más detalles cuando la empresa decida que es hora de compartir más resultados de sus esfuerzos por hacer que ChatGPT no solo sea bueno hablando, sino también razonando.
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.