Los robots asesinos no son de ciencia ficción. Hay más presión para prohibirlos

Por: Admin

COMPARTE:

Facebook
X
WhatsApp

Tras una reunión reciente de la ONU en la que se debatió la regulación de estas armas letales, han aumentado los pedidos para proscribirlas.

 

Tal vez haya parecido un desconocido cónclave de las Naciones Unidas, pero la semana pasada expertos en inteligencia artificial, estrategia militar, desarme y derecho humanitario siguieron atentamente una reunión celebrada en Ginebra.

¿La razón detrás del interés? Los robots asesinos —drones, armas y bombas que deciden por su cuenta, con cerebros artificiales, si van a atacar y matar— y lo que se debe hacer, si se llega a hacer algo, para regularlos o prohibirlos.

Aunque en algún momento solo formaban parte de películas de ciencia ficción como la serie de Terminator y Robocop, los robots asesinos, conocidos en términos más técnicos como Sistemas de Armas Autónomas Letales, se han inventado y probado a un paso acelerado y con poca supervisión. Además, se han usado algunos prototipos en conflictos reales.

La evolución de estas máquinas es considerada un evento trascendental para los conflictos armados, similar a la invención de la pólvora y las bombas nucleares.

Este año, por primera vez, una mayoría de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales (CCW, por su sigla en inglés) señaló que buscaba restricciones para los robots asesinos. Sin embargo, se les opusieron los miembros que están desarrollando estas armas, en particular Estados Unidos y Rusia.

La convención del grupo terminó el viernes 17 de diciembre tan solo con una vaga declaración respecto a considerar posibles medidas que fueran aceptables para todos. La Campaña para Detener a los Robots Asesinos, un grupo de desarme, comentó que el resultado “no estuvo a la altura del rigor de la situación”.

A veces conocida como la Convención sobre Armas Inhumanas, la CCW es un esquema de reglas que prohíben o restringen las armas que se considera que provocan un daño innecesario, injustificable e indiscriminado, como los explosivos incendiarios, los láseres cegadores y las bombas trampa que no distinguen entre combatientes y civiles. La convención no tiene ninguna disposición para los robots asesinos.

Aunque las opiniones sobre una definición exacta difieren, en general son consideradas armas que toman decisiones con poca, o ninguna, participación de seres humanos. Las rápidas mejorías en la robótica, la inteligencia artificial y el reconocimiento de imágenes están posibilitando ese tipo de armamento.

Los drones que Estados Unidos ha usado ampliamente en Afganistán, Irak y otros lugares no son considerados robots porque los operan personas, quienes eligen los blancos y deciden si deben disparar.

Para los responsables de planear las guerras, las armas prometen mantener a los soldados fuera de peligro y tomar decisiones más rápido que los humanos, al darles más responsabilidades en el campo de batalla a sistemas autónomos como los drones sin piloto y los tanques autónomos que deciden de manera independiente cuándo atacar.

Sus críticos arguyen que en términos morales es repugnante encargarles la toma de decisiones letales a máquinas, sin importar la sofisticación tecnológica. ¿Cómo una máquina puede diferenciar entre un adulto y un niño, un combatiente con una bazuca y un civil con una escoba, un combatiente hostil y un soldado herido o que se está rindiendo?

“En esencia, a nivel ético, a la sociedad le preocupa que los sistemas de armas autónomas sustituyan a los humanos al momento de tomar decisiones de vida o muerte con sensores, software y procesos mecanizados”, dijo en la convención de Ginebra, Peter Maurer, presidente del Comité Internacional de la Cruz Roja y un adversario manifiesto de los robots asesinos.

Antes de la conferencia, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de Harvard pidieron que se adopte un acuerdo jurídicamente vinculante que exija el control humano en todo momento.

“Los robots carecen de la compasión, la empatía, la misericordia y el juicio necesarios para tratar a los seres humanos con humanidad, y no pueden entender el valor inherente de la vida humana”, argumentaron los grupos en un documento informativo para apoyar sus recomendaciones.

Una protesta en Berlín, en 2019, de la Campaña para Detener a los Robots Asesinos
Credit…Annegret Hilse/Reuters 

Otros afirmaron que las armas autónomas, en lugar de reducir el riesgo de guerra, podrían hacer lo contrario: proporcionar a los antagonistas formas de infligir daño que minimicen los riesgos para sus propios soldados.

“Los robots asesinos producidos en masa podrían reducir el umbral de la guerra al sacar a los humanos de la cadena de muerte y liberar máquinas que podrían atacar a un objetivo humano sin ningún humano en los mandos”, dijo Phil Twyford, ministro de desarme de Nueva Zelanda.

En general, para los expertos en desarme, la conferencia era considerada como la mejor oportunidad hasta el momento para idear mecanismos que regularan, o prohibieran, el uso de los robots asesinos conforme la convención.

Fue la culminación de años de debate de un grupo de expertos a los que se les pidió que identificaran los desafíos y las posibles estrategias para reducir las amenazas de los robots asesinos. Sin embargo, los expertos ni siquiera pudieron llegar a un acuerdo en cuestiones básicas.

Algunos, como Rusia, insisten en que todas las decisiones sobre los límites deben ser unánimes, lo cual veta de inmediato a quienes se oponen.

Estados Unidos arguye que las leyes internacionales actuales bastan y que prohibir la tecnología de las armas autónomas sería prematuro. El principal delegado de Estados Unidos en la convención, Joshua Dorosin, propuso un “código de conducta” no vinculante para el uso de los robots asesinos, una idea que los defensores del desarme desestimaron al considerarla una táctica dilatoria.

El ejército estadounidense ha invertido mucho en inteligencia artificial, trabajando con los mayores contratistas de defensa, como Lockheed Martin, Boeing, Raytheon y Northrop Grumman. El trabajo ha incluido proyectos para desarrollar misiles de largo alcance que detectan objetivos en movimiento basándose en la radiofrecuencia, drones enjambre que pueden identificar y atacar un objetivo, y sistemas automatizados de defensa de misiles, según las investigaciones de los opositores a los sistemas de armas.

Un dron Reaper de la Fuerza Aérea de Estados Unidos en Afganistán en 2018. Estos aviones no tripulados podrían convertirse en armas letales autónomas en el futuro.
Credit…Shah Marai/Agence France-Presse — Getty Images 

La complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres, afirmó Maaike Verbruggen, experta en tecnologías emergentes de seguridad militar del Centro de Seguridad, Diplomacia y Estrategia de Bruselas. Dijo que la falta de transparencia sobre lo que los diferentes países están construyendo ha creado “miedo y preocupación” entre los líderes militares que deben mantenerse al día.

“Es muy difícil hacerse una idea de lo que está haciendo otro país”, dijo Verbruggen, que está haciendo un doctorado sobre el tema. “Hay mucha incertidumbre y eso impulsa la innovación militar”.

Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, comentó que la “carrera armamentista de los sistemas de armas autónomas ya está en marcha y no se suspenderá pronto”.

Sí. Aunque la tecnología se vuelve cada vez más avanzada, ha habido reticencia a usar las armas autónomas en combate por temor a los errores, comentó Gady.

“¿Los comandantes militares confían en el juicio de los sistemas de armas autónomas? En este momento, la respuesta sin duda es ‘no’ y seguirá siéndolo en el futuro próximo”, agregó.

El debate sobre las armas autónomas llegó hasta Silicon Valley. En 2018, Google señaló que no iba a renovar un contrato con el Pentágono después de que miles de sus empleados firmaron una carta en la que protestaron en contra de la participación de la empresa en un programa que empleaba inteligencia artificial para interpretar imágenes que podían ser utilizadas para la elección de los blancos de los drones. La empresa también creó nuevos lineamientos éticos que prohíben el uso de su tecnología para armas y vigilancia.

Otras personas creen que Estados Unidos no está haciendo lo suficiente para competir con sus rivales.

En octubre, el exdirector de software de la Fuerza Aérea, Nicolas Chaillan, le comentó a The Financial Times que había renunciado porque consideraba débil el progreso tecnológico dentro del ejército estadounidense, en particular el uso de la inteligencia artificial. Chaillan señaló que los cuestionamientos éticos detienen a los responsables de la toma de decisiones políticas, mientras que países como China perseveran.

No hay muchos ejemplos verificados en el campo de batalla, pero los críticos apuntan hacia unos pocos incidentes que muestran el potencial de la tecnología.

En marzo, investigadores de la ONU señalaron que en Libia, fuerzas con respaldo del gobierno libio habían usado un “sistema de armas autónomas letales” en contra de milicianos. Un dron llamado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes mientras huían de un ataque con misiles, según el informe, el cual no aclaró si los drones habían estado bajo el control de algún ser humano.

En 2020, en la guerra en el Alto Karabaj, Azerbaiyán combatió contra Armenia con drones de ataque y misiles que merodeaban en el aire hasta que detectaban la señal de un blanco asignado.

Un funcionario armenio mostrando lo que supuestamente son drones derribados durante los enfrentamientos con las fuerzas de Azerbaiyán el año pasado.
Credit…Karen Minasyan/Agence France-Presse — Getty Images 

Muchos partidarios del desarme comentaron que el resultado de la convención había endurecido la que describieron como una resolución para presionar a favor de un nuevo tratado en los próximos años, similar a los que prohíben las minas terrestres y las bombas de racimo.

Daan Kayser, experto en armas autónomas en PAX, un grupo defensor de la paz con sede en los Países Bajos, comentó que la ausencia de acuerdos en la convención para negociar siquiera sobre los robots asesinos fue “una señal muy clara de que la CCW no está a la altura de la tarea”.

Noel Sharkey, experto en inteligencia artificial y presidente del Comité Internacional para el Control de las Armas Robóticas, señaló que la reunión había demostrado que era preferible un nuevo tratado a más debates en convenciones.

“Había un sentido de urgencia en el lugar de que, si no se avanzaba un poco, no estábamos preparados para seguir por este camino” comentó Sharkey.

 

Vía: The New York Times