TIEMPO RE@L

domingo, 2 de abril de 2023

CHATGPT: ¿Un peligro para la sociedad?

Italia se convirtió en el primer país del mundo en prohibir el uso del prototipo de chatbot de inteligencia artificial ChatGPT, según un comunicado publicado este viernes por el Garante para la Protección de Datos Personales (GPDP), autoridad administrativa independiente del país europeo. El texto indica que han bloqueado esa herramienta desarrollada por la empresa estadounidense OpenAI, presuntamente por la recopilacion de datos personales de manera ilegal y por la ausencia de sistemas para verificar la edad. Desde el GPDP explican que falta información para los usuarios y para todas las partes interesadas, cuyos datos sean recopilados por OpenAI, y sobre todo que no hay una base legal que justifique la recopilación y el almacenamiento masivo de los mismos con el propósito de entrenar los algoritmos que subyacen al funcionamiento de la plataforma. En este sentido, recuerda que el pasado 20 de marzo el popular chatbot sufrió una fuga de datos de las conversaciones generadas con los usuarios e información relativa al cobro de los suscriptores del servicio por pago. Asimismo, denuncia que, pese a que el servicio está dirigido a personas mayores de 13 años, no existe filtro alguno para verificar la edad de los usuarios, lo cual expone a los menores a respuestas "absolutamente inadecuadas" teniendo en cuenta su "grado de desarrollo y autoconciencia". Por ello, el organismo ha ordenado a OpenAI la limitación temporal del procesamiento de datos de usuarios italianos con efecto inmediato, ha abierto una investigación al respecto y ha recomendado a la gente que deje de usar el chatbot hasta que respete la normativa de privacidad vigente. Además, ha dado a la empresa con sede en California un plazo de 20 días para comunicar las medidas que adopte para subsanar estos problemas, so pena de tener que pagar una multa de hasta 21,7 millones de dólares o hasta el 4 % de su facturación global anual. Pero eso no es todo, ya que a inicios de semana, la Agencia de la Unión Europea para la Cooperación Policial (Europol) había advertido sobre el posible uso indebido y delictivo del chatbot ChatGPT, basado en inteligencia artificial (IA), según lo plantea en un informe titulado 'ChatGPT: el impacto de los grandes modelos lingüísticos en la aplicación de la ley'. "A medida que se mejoran activamente las capacidades de los grandes modelos lingüísticos, como ChatGPT, la posible explotación de este tipo de sistemas de IA por parte de los delincuentes ofrece un panorama sombrío", sostiene el organismo. En primer lugar, dice el documento, la capacidad de ChatGPT para crear textos muy realistas puede utilizarse para imitar el estilo de habla de personas o grupos específicos. Además, las capacidades del bot pueden utilizarse con fines propagandísticos y de desinformación, ya que permite a los usuarios "generar y difundir mensajes que reflejen una narrativa concreta con relativamente poco esfuerzo". ChatGPT es capaz de crear códigos en varios lenguajes de programación diferentes. "Para un delincuente potencial con pocos conocimientos técnicos, se trata de un recurso inestimable para crear un código malicioso", afirma Europol. Más allá de esto, es una herramienta de inteligencia artificial que ha ganado gran popularidad durante los últimos meses. De otra parte, el uso generalizado de sus increíbles posibilidades, como generar textos únicos y completar las tareas asignadas en segundos, está provocando preocupación en diversos círculos, desde el educativo hasta el financiero. Así, por ejemplo, varios gigantes bancarios de Wall Street están limitando o prohibiendo el uso de ChatGPT entre sus empleados, bajo la premisa de que el popular 'chatbot' podría arrojar información o respuestas erróneas en el ámbito de los mercados y las comunicaciones comerciales, según da cuenta The Wall Street Journal . En efecto, se supo que debido a ello, JPMorgan, uno de los mayores bancos de EE.UU., restringió el uso del modelo de lenguaje. Entretanto, Bank of America decidió prohibir su implementación a nivel comercial, mientras que Deutsche Bank deshabilitó el acceso al mismo a su personal. En paralelo, Citigroup bloqueó el acceso a ChatGPT en el marco de las restricciones automáticas que imponen la entidad en torno a 'software' de terceros, explicó una persona familiarizada con el asunto. Otra fuente reveló una situación similar en el grupo de banca Goldman Sachs. "Estamos imponiendo límites de uso en ChatGPT, mientras continuamos evaluando formas seguras y efectivas de usar tecnologías como estas", confirmó un portavoz de la multinacional financiera Wells Fargo. Oded Netzer, profesor de la escuela de negocios de la Universidad de Columbia, en Nueva York, afirma que, si bien ChatGPT "puede ahorrar tiempo", su mayor desventaja es que no se sabe si todo lo que produce "es cierto". En su opinión, la herramienta puede ser vista en el ambiente laboral como un colega "inteligente" para mejorar y revisar trabajos. Mientras tanto, hay otros estudios que respaldan las conclusiones de Europol. Una investigación realizada por la herramienta en línea de calificación de noticias NewsGuard confirmó la semana pasada que GPT-4, la última versión del popular sistema, tiene más probabilidades de argumentar información falsa, cuando así se le solicita, que su predecesor GPT-3.5. Incluso el director ejecutivo de OpenAI, Sam Altman, admitió recientemente estar "un poco asustado" por haber creado ChatGPT y por el uso que las personas puedan darle.
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.