Como sabéis, el debate sobre los robots asesinos ha continuado intensificándose desde que el tema llegó a la escena internacional hace algunos años. Desde entonces, abogados, especialistas en ética, personal militar, defensores de los derechos humanos, científicos y diplomáticos han discutido, en diversos foros, sobre la legalidad y la conveniencia sobre el uso de unas armas que seleccionarían y atacarían objetivos sin un control humano sobre los ataques individuales. Persisten puntos de vista divergentes a medida que la tecnología militar avanza hacia una autonomía cada vez mayor, pero existen crecientes expresiones de preocupación sobre cómo estas armas podrían revolucionar la guerra como la conocemos ya que al tomar sus propias decisiones, a tal punto que bien podrían vernos como un objetivo a eliminar. Por ese motivo, a la luz de los peligros que representan estas armas letales y la incapacidad para enfrentarlos, diversas organizaciones como Human Rights Watch han pedido a los Estados que adopten un instrumento internacional legalmente vinculante que prohíba el desarrollo, la producción y el uso de esta tecnología que fácilmente puede escapar de nuestro control, para lo cual se debería comenzar con la formación de un Grupo de Expertos Gubernamentales, para discutir los parámetros de un posible protocolo con el objetivo final de adoptar una prohibición definitiva. Las armas totalmente autónomas plantean una gran cantidad de preocupaciones. Sería difícil que cumplieran con el derecho internacional y con su capacidad para actuar de manera autónoma interferiría con la responsabilidad legal. Estos robots también cruzarían un umbral moral, y sus riesgos humanitarios y de seguridad superarían los posibles beneficios militares. Los críticos interesados que descartan estas preocupaciones dependen de los argumentos especulativos sobre el futuro de la tecnología y la falsa presunción de que los desarrollos tecnológicos pueden abordar todos los peligros planteados por estas armas, algo que no es cierto. En efecto, hay quienes sostienen erradamente que las armas completamente autónomas “podrían cumplir con los principios básicos de distinción y proporcionalidad en algún momento en el futuro”. Argumentan que los defensores de una prohibición a menudo “no toman en cuenta los posibles desarrollos en la tecnología de sistemas de armas autónomos”. Aun suponiendo que tales armas podrían algún día cumplir con los requisitos de distinción del derecho internacional humanitario y la proporcionalidad, su uso es imprudente. Las armas completamente autónomas enfrentan grandes dificultades, si no insuperables, para distinguir de manera confiable entre objetivos legales e ilegales como lo exige el derecho internacional humanitario como ya lo hemos visto en Afganistán donde los drones estadounidenses “en su búsqueda de terroristas” lanzan misiles indiscriminadamente asesinando a civiles inocentes, que son catalogados hipócritamente como “victimas colaterales” A ello podemos agregar que las armas autónomas no pueden ser consideradas legalmente responsables de sus crímenes, por lo que nadie respondería por sus actos, por mas aberrantes y monstruosas que fueran. Cualquier crimen consiste en dos elementos: un acto y un estado mental. Un robot asesino podría cometer un acto criminal, pero carecería del estado mental (a menudo con la intención) de hacer que estos delitos de acciones ilícitas sean procesables. Además, un arma semejante no caería dentro de la jurisdicción de la persona natural de los tribunales internacionales. Incluso si dicha jurisdicción fuera expandida, las armas completamente autónomas no podrían ser castigadas porque serían máquinas que no podrían experimentar o comprender el significado del sufrimiento. La simple alteración del software de un robot “condenado”, incapaz de internalizar la culpa moral, probablemente dejaría a las víctimas que buscan retribución, insatisfechas. En la mayoría de los casos, quienes lo programaron también escaparían a la responsabilidad por los actos ilegales de unas armas completamente autónomas. Asimismo, a los seres humanos no se les podría asignar una responsabilidad directa por los crímenes cometidos por un robot asesino porque estas, por definición, tendrían la capacidad de actuar de manera autónoma y, por lo tanto, podrían lanzar de forma independiente e imprevisible un ataque indiscriminado contra civiles. En tales situaciones, el comandante no sería directamente responsable de las acciones específicas del robot ya que este no las ordenó. De manera similar, un programador o fabricante no podría ser considerado directamente criminalmente responsable si él o ella no pretendían específicamente, o ni siquiera podía prever, la comisión del robot de cometer actos ilícitos. Es por ese motivo que las armas autónomas plantean serias preocupaciones bajo los principios de la humanidad y los dictados de la conciencia pública. Al ser completamente autónomas carecen de emociones humanas, incluida la compasión, por lo que matar humanos seria para ellos algo “compatible” por lo cual muchas personas consideran que la posibilidad de delegar decisiones de vida o muerte a una máquina es moralmente inaceptable. Si cualquier potencia militar importante avanza con el desarrollo de armas de inteligencia artificial, una carrera armamentística global es virtualmente inevitable y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los asesinos del mañana. A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener, por lo que se volverán ubicuas y baratas para que todas las potencias militares las produzcan en masa. El número cada vez mayor de robots asesinos podría aumentar la posibilidad de un conflicto importante. Si estas armas operan colectivamente, como en los enjambres, podrían desencadenar en el momento menos esperado, una acción militar masiva que acabe con la especie humana. Antes de que ello suceda es imperativo prohibir su desarrollo, porque estaríamos dirigiéndonos inconscientemente a nuestra propia autodestrucción :(