TIEMPO RE@L

domingo, 21 de junio de 2020

ROBOTS ASESINOS: El día en que las máquinas puedan elegir está cada vez más cerca que nunca

Año 2043. El Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance de un grupo terrorista de inspiración sionista. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas. En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre ellos. Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo cuesta unos dos millones de dólares), mucho más interesante que el grupo de soldados. Pero hay un problema. Los sionistas descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones. El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL). Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica de los criminales sionistas consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques. Entonces el dron tenía dos opciones: 1.-Dirigir los misiles hacia el grupo de diecisiete terroristas. Todo correcto a nivel ético y legal: se mata a personas pero son enemigos ocupando territorio soberano; 2.- Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente ‘daños colaterales’ y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría. ¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo. Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se ‘justificaban’ en función de intereses estratégicos superiores. La Batalla de Londres se venció y la invasión de Gran Bretaña fue un fracaso. Los sionistas y la WCC llegaron a un armisticio temporal. Todo pareció salir bien hasta que se descubrió que uno de los fallecidos utilizados como escudos humanos era la hija de Walter Smithson, un influyente multimillonario, dueño de una de las cadenas de restaurantes más importantes del mundo. El 2 de junio de 2044 interpuso una demanda al ejército británico por la acción de su dron. Legalmente la demanda era totalmente correcta: el dron había desobedecido la Convención de Massachusetts ocasionando bajas civiles. Correcto pero, ¿quién era el responsable de la acción? Los ingenieros de Deep Mind se lavaron las manos: ellos habían programado el dron para no desobedecer la ley. Si el ejército inglés lo había reprogramado para hacerlo, no era culpa suya. Todas las miradas apuntaron entonces al general Pierce Montgomery, responsable de armas autónomas del ejército de su Majestad. Pero, cuando todo indicaba que seria declarado culpable, sus abogados utilizaron una inesperada estrategia: alegaron que el auténtico responsable era el dron, “ya que había decidido atacar a los civiles con total y absoluto libre albedrío”. Entonces, o los dos no son libres y ninguno de ellos tiene responsabilidad en la muerte de la hija de Smithson, o los dos son igualmente libres y entonces, el dron, ejecutor de la acción, es el genuino responsable. El juez comenzó a ponerse nervioso. Si no existía el libre albedrío nadie sería responsable de nada por lo que el sistema judicial era un fraude… ¡Todo el trabajo de su vida no tenía sentido! ¡Tranquilícese señoría! - repuso uno de los abogados - tal como defendió el filósofo escocés David Hume, es posible compatibilizar una cierta idea de libertad con el determinismo físico. Se trata de definir como acción libre aquella que no está en contra de las determinaciones de mi propia voluntad. Mis pensamientos, creencias, valores, etc. que causan mi acción están completa y absolutamente determinados por causas anteriores y yo no soy más libre que el dron de combate. Estoy, por decirlo en términos informáticos, programado de antemano por mi naturaleza y mi cultura. Sin embargo, si debido a éstas yo quiero elegir A, y algo externo a mí me impide que yo lo elija, estará poniendo trabas a mi libertad e impidiendo que yo obre libremente. Por decirlo de otra forma: ser libre es poder obrar conforme a lo que estoy determinado. De este modo, podemos juzgar y condenar a cualquier criminal sin que el sistema judicial se venga abajo ¡Es posible justicia sin libertad! Por lo tanto, el dron, actúo siguiendo su programación sin que nadie se interpusiera entre su libre obrar y su objetivo, por lo que es culpable de sus actos. La sentencia sorprendió al mundo: el 28 de agosto de 2044, el dron de combate de tipo R-6 Alpha C con nº de bastidor 365889725E, fabricado y ensamblado en Taiwan por la Hongji Corporation, para la empresa estadounidense Deep Mind, actualmente en propiedad del ejército británico, fue el primer robot de la historia juzgado y condenado en un juicio. El castigo fue ejemplar: desmontar el dron y reciclar sus piezas para otros drones, destruyendo así su individualidad como agente racional (el equivalente robótico a una condena a muerte). No obstante, ni el general Montgomery ni la empresa Deep Mind quedaron libres de culpa. El general por reprogramar el dron para que pudiese violar la convención de Massachusetts, fue condenado por cómplice e inductor del asesinato. Se le degradó de su rango y se le condenó a pasar tres años en una prisión militar. En cuanto a Deep Mind le cayó una cuantiosa multa por violar ciertas leyes de protección de software que prohibían vender código abierto sobre ciertos productos militares, si bien al final no pagó nada ya que se declaró en bancarrota e incapaz de pagar, cambió su nombre por Deep Neuron y se refundó, siendo hoy en día la empresa hegemónica en el diseño de drones de combate). Pero lo más interesante es que esa sentencia creó jurisprudencia y, en cuestión de pocas semanas, los tribunales de todo el mundo estaban llenos de juicios en los que había inmiscuidos robots; y en cuestión de unos años, ya existía una rama del Derecho específica llamada Derecho Computacional, en el que se intentaba legislar para clarificar todo ésta difícil problemática acerca de las máquinas criminales. Cabe destacar que toda esta historia es producto de la imaginación, ya que en la vida real nadie seria responsable de las atrocidades cometidas por el robot al ser capaz de tomar sus propias decisiones. Es por ello que ante ese peligro inminente, es imprescindible detener el desarrollo de los robots asesinos, porque de no hacerlo, llegara el día en que estos se rebelen y se apoderen de la humanidad liquidando a los humanos. Aun hay tiempo para evitarlo :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.