TIEMPO RE@L

domingo, 27 de agosto de 2017

NO HAY TIEMPO QUE PERDER: Ha llegado el momento de frenar a los robots asesinos

Los avances en Inteligencia Artificial han creado dos corrientes contrapuestas. A un lado, están aquellos que creen ilusamente que los robots son una aportación para la sociedad, pero otro sector mayoritario lleva tiempo criticando el peligro que representaría que adquieran total autotomía y puedan decidir por ellos mismos, por lo que podrían convertirse en la mayor amenaza para la humanidad… y esto no es ciencia ficción. Al respecto, un grupo formado por 116 empresas y expertos de 26 países, liderado por el multimillonario Elon Musk, ha firmado una carta dirigida a la ONU en la advierten de los peligros de los robots asesinos. Ejemplos de ellos pueden ser los drones militares capaces de matar a distancia sin los riesgos de una ofensiva militar convencional o armas que disparan en base a unos parámetros programados con antelación como sucede en Afganistán, donde los drones estadounidenses se llevan de encuentro a miles de civiles inocentes - las hipócritamente llamadas ‘victimas colaterales’ - en su búsqueda de objetivos ‘terroristas’ a los cuales atacar. Y nadie responde por estos crímenes, porque fueron realizados por unos robots programados para matar. De esta forma, las mismas empresas que desarrollan las tecnologías de Inteligencia Artificial y robótica, han levantado la voz al considerar que sus avances pueden ser reutilizados para desarrollar armas autónomas. Los expertos se sienten especialmente responsables, por lo que temen que la existencia de armas autónomas (que operan sin un militar a bordo) llevar a los conflictos armados a una escala nunca antes vista. En efecto, las armas autónomas amenazan con convertirse en la tercera revolución en la guerra y una vez desarrolladas permitirán que el conflicto armado se libre a una escala mayor y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender.Entre los firmantes del manifiesto se encuentra Elon Musk, máximo responsable del fabricante de vehículos Tesla, una de las más punteras en conducción autónoma, o de la compañía espacial SpaceX, así como Mustafa Suleyman, de la compañía británica DeepMind, propiedad de Google, y especializada en Inteligencia Artificial. La carta se ha presentado de manera oficial durante la Conferencia Internacional sobre Inteligencia Artificial (IJCAI), que se celebró en Melbourne (Australia) esta semana. El desarrollo de la Inteligencia Artificial y la robótica podría ser mal utilizado para crear armas autónomas, temen los expertos en esta misiva. Parte del justificado miedo es que sus progresos en esta materia, diseñados inicialmente para facilitar la vida de las personas y automatizar procesos industriales, caigan en manos de quienes los apliquen para la guerra. Sugieren, de hecho, que ejércitos y grupos terroristas pueden llegar a hackear o aplicar sus avances en el campo militar porque, están a disposición de fabricar aterradoras armas para utilizarlas contra poblaciones inocentes, como ya sucede en Afganistán. “No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora será difícil para cerrarla. Es por eso que anhelamos encontrar una manera de protegernos de estos peligros”, sostienen. Como sabéis, desde el 2013, la ONU ha estado advirtiendo acerca de la existencia de este tipo de armamento. En el 2015, un grupo de científicos también se sumaron a esa causa pidiendo incluso la prohibición de armas ofensivas autónomas. De hecho, Elon Musk o el astrofísico Stephen Hawking llevan tiempo criticando periodicamente los peligros de la Inteligencia Artificial aplicada en el campo militar. Es hora de escucharlos antes que sea demasiado tarde :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.