"El punto de no retorno":
Un informe de la ONU pide una moratoria, pero los robots autónomos y letales podrían ser una realidad en breve.
Por JOHN KNEFEL 30 de abril 2013 15:10 ET
Un informe de la ONU publicado a principios de esta semana pidió una moratoria mundial en el desarrollo de robots muy sofisticados que se pueden seleccionar y destruir objetivos sin intervención humana. Estas máquinas, conocidas como Robots Autónomos Letales (LAR en sus siglas en ingles), pueden sonar a ciencia ficción - pero los expertos creen que alguna versión de ellos se podría crear en un futuro próximo. El informe, publicado por el profesor Chrisof Heyns, Relator Especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, también pide la creación de "un grupo de alto nivel sobre LAR para articular una política de la comunidad internacional sobre la cuestión."
El Departamento de Defensa de EE.UU. emitió una directiva sobre el tema el año pasado, sosteniendo que el informe de la ONU dice que "prohíbe el desarrollo y financiación de las LAR a menos que se sigan ciertos procedimientos". Hay que aclarar que algunos funcionarios del Departamento de Defensa han tildado a esta directiva de "flexible".
A diferencia de grupos como Human Rights Watch - que ha pedido una prohibición total contra LAR - el informe de la ONU sugiere un alto en su desarrollo e implementación, al tiempo que reconoce la incertidumbre de las tecnologías del futuro. "El peligro es que nos vamos a dar cuenta que un día nos hemos pasado el punto de no retorno", dice Heyns a Rolling Stone. "Es muy difícil conseguir que los Estados abandonen las armas, una vez desarrolladas, sobre todo cuando son sofisticadas y ofrecen tantas ventajas militares. Yo no estoy diciendo necesariamente que las LAR no deban utilizarse nunca, pero creo que tenemos que entender mucho mejor antes de que cruzar ese umbral, y debemos asegurarnos de que los seres humanos mantendremos un control significativo sobre la vida y las decisiones de la muerte ".
Otros que siguen el tema se hacen eco de estas preocupaciones. "Creo que las LAR son un cambio de paradigma, ya que cambia fundamentalmente los requisitos de la responsabilidad humana en la toma de decisiones para matar", dice Peter Asaro, co-fundador y vicepresidente del Comité Internacional para el Control de Armas Robot. "Estamos ante la amenaza de crear sistemas automatizados que nos pueden negar nuestros derechos humanos básicos, sin el cuidado y la supervisión humana."
La Industria Drone quiere un cambio de imagen
¿Qué significa para una tecnología ser autónoma? Missy Cummings, un tecnólogo en el MIT, ha definido la esta cualidad como la capacidad de "razonar en presencia de la incertidumbre." En un extremo del desarrollo tecnológico están las máquinas con un ser humano "en el circuito" - es decir, es el ser humano, no el robot, quien toma la decisión directa de apretar el gatillo. (Esto es lo que vemos en la tecnología de aviones no tripulados de hoy llamados Drones) En el otro extremo está el desarrollo de la plena autonomía, con los seres humanos "fuera de juego", en el que LAR toma la decisión de matar por su propia cuenta, de acuerdo con la forma en que se han programado. Dado que los ordenadores pueden procesar grandes cantidades de datos mucho más rápido que los humanos, los defensores argumentan que LAR con los seres humanos "fuera de juego" proporcionará una ventaja táctica en situaciones de combate que en segundo puede ser la diferencia entre la vida y la muerte. Los que argumentan en contra de LAR dicen que la desaceleración añadida por tener un ser humano ", en el ciclo" supera ampliamente las peligrosas consecuencias que podrían derivarse de liberar esta tecnología.
Debido a LAR no existan aún, la discusión en torno a ellos se mantiene en gran medida hipotética. ¿Puede un robot distinguir entre un civil y un insurgente? ¿Podría hacerlo mejor que un soldado humano? ¿Puede un robot mostrar misericordia - es decir, incluso si el objetivo era "legítimo", podría decidir no matar? ¿Puede un robot rechazar un pedido? Si un robot que actúe por su cuenta y mata a la persona equivocada, ¿quién es responsable?
Los partidarios argumentan que el uso de LAR podría tener un costado humanitario. Ronald Arkin, un experto en robótica de la Empresa Georgia Tech, que ha recibido fondos del Departamento de Defensa, está a favor de la moratoria, pero es optimista en el largo plazo. "El fondo es que la protección de la población civil es primordial con la llegada de estos nuevos sistemas", dice. "Y es mi creencia de que si esta tecnología se hace correctamente, puede potencialmente conducir a una reducción de las bajas no combatientes, en comparación con los combatientes humanos tradicionales."
En un trabajo reciente, los profesores de derecho Kenneth Anderson y Matthew Waxman sugieren que los robots tendrían la libertad de las "fallas de los soldados humanos que tan a menudo se ven agravados por el miedo, el pánico, la venganza u otras emociones - por no hablar de los límites de los sentidos del ser humano y la cognición . "
Sin embargo, muchas de las preocupaciones persisten. Estos sistemas, si se usa, se verían obligados a cumplir con el derecho internacional. Si las LAR no pueden seguir las reglas de distinción y proporcionalidad - es decir, determinar los objetivos correctos y minimizar las bajas civiles, entre otros requisitos - entonces el país o grupo que las usan estarían cometiendo crímenes de guerra, incluso si estas máquinas fueran programadas para cumplir con la ley. Ellas podrían potencialmente reducir el umbral de entrar en un conflicto. Pero su utilización podría desatar una carrera armamentista que - debido a sus ventajas - se convertiría en un circuito de retroalimentación. El informe de la ONU describe el temor de que "el aumento en la precisión y la capacidad de atacar en cualquier parte del mundo, aun cuando no existan líneas de comunicación, podría hacer que el uso de las LAR sean muy atractivas para aquellos que deseen llevar a cabo acciones dirigidas a matar."
El informe también advierte que "en el frente interno, LAR podría ser utilizado por los Estados para eliminar adversarios políticos y para aterrorizar a la población en general." Más allá de eso, el informe advierte que las LAR podrían exacerbar los problemas asociados al convertir el mundo entero es un campo de batalla, hecho que - aunque el informe no lo dice explícitamente - los Estados Unidos ha llevado a cabo desde el 9/11. "Las prácticas actuales de ataque con aviones no tripulados de Estados Unidos son ningún ejemplo práctico y político de que, a menos que se introduzcan en los sistemas jurídicos nacionales e internacionales las reformas necesarias para el desarrollo y uso de las armas autónomas, es probable que las LAR carezcan de la transparencia y la rendición de cuentas necesaria," dice Sarah Knuckey, abogado de derechos humanos en la Facultad de Derecho de la Universidad de Nueva York que organizó una consulta de expertos para el informe de la ONU.
"Hay una preocupación generalizada de que las LAR puedan denigrar el valor de la vida misma", concluye el informe - aunque las LAR sean capaces de cumplir con las normas del derecho internacional. Argumenta, misteriosamente, que se necesita con urgencia una moratoria de este tipo de armas. "Si se deja demasiado tiempo a sus propios recursos, las máquinas literalmente, quedaran fuera de las manos humanas."
http://www.rollingstone.com/politics/news/the-point-of-no-return-should-robots-be-able-to-decide-to-kill-you-on-their-own-20130430
No hay comentarios:
Publicar un comentario