Ir al contenido principal

Por qué las máquinas “tontas” preocupan: armas autónomas y cambio de normas

OPINIÓN de Ingvild Bode y Hendrik Huelss.- En agosto, un grupo de expertos en robótica e inteligencia artificial publicaron una carta abierta dirigida a la Convención de Naciones Unidas sobre ciertas armas convencionales. Esta carta, ampliamente divulgada, instó a la convención “a encontrar una manera de protegernos a todos” de los peligros que comportan los sistemas de armas autónomos y denunció la falta de regulación internacional sobre armas autónomas (por las que suelen entenderse aquellas armas que “una vez activadas, son capaces de seleccionar y atacar objetivos sin ninguna ulterior intervención humana”).

En 2013, la Convención incluyó las armas autónomas en la lista de armas susceptibles de restricción o prohibición. Sin embargo, los miembros de la Convención ni siquiera se han puesto de acuerdo en torno a la definición de “sistemas letales de armas autónomas” o del “control humano apropiado de las armas autónomas”, sin la que las ulteriores negociaciones sobre el tema o una eventual prohibición preventiva del tipo que defiende la Campaña contra los robots asesinos serán imposibles. En diciembre del año pasado, la Convención creó un grupo de expertos gubernamentales con la misión de hablar de los sistemas letales de armas autónomas, pero la primera reunión de este grupo se ha pospuesto dos veces por motivos presupuestarios. Ahora está programada para el mes que viene.

Los procesos deliberativos que permitirían examinar las armas autónomas desde el punto de vista de las leyes de la guerra –es decir, procesos que podrían dar lugar a nuevas regulaciones– son, como es sabido, muy lentos. Mientras tanto, la tecnología de armas autónomas se desarrolla rápidamente. Países como EE UU, China, Rusia, Corea del Sur y el Reino Unido siguen desarrollando armas autónomas y las correspondientes tecnologías de doble uso, lo que implica que el despliegue de estas armas podría convertirse en un hecho consumado antes de que sea posible negociar una prohibición preventiva.

El debate actual sobre las armas autónomas presenta dos importantes deficiencias. En primer lugar, aunque es importante examinar estas armas desde el punto de vista jurídico y normativo, no por ello hay que olvidar el hecho de que las armas autónomas, y las prácticas asociadas a su desarrollo y su despliegue, pueden alterar las propias normas. Por ejemplo, las prácticas que acompañan a las armas autónomas pueden generar nuevas nociones, al margen y más allá del derecho internacional, sobre cuándo y cómo es apropiado el uso de la fuerza. Como ha escrito Herbert Lin en el Bulletin 1/, la guerra submarina no regulada durante la segunda guerra mundial socavó las normas acordadas sobre la conducción de la guerra; no es difícil encontrar otros ejemplos de este tipo.

En segundo lugar, cuando los observadores hablan del potencial de cambio de las reglas de juego que encierran las armas autónomas en el ámbito de las relaciones internacionales y la política de seguridad, a menudo sobrevaloran las armas autónomas tecnológicamente sofisticadas del futuro. (Esta tendencia es tributaria de la visión estilo “terminator” de los monstruos humanoides en la cultura popular y se ve afectada por la falta de una definición consensuada de las “armas autónomas” o de la “autonomía”.) La sobrevaloración de las armas tecnológicamente sofisticadas parece favorecer la creencia de que la comunidad internacional no debería sino esperar hasta ver si los “robots asesinos” se convierten efectivamente en realidad. Sin embargo, al margen de la importancia que pueda tener la inteligencia artificial avanzada para los futuros sistemas de armamento, lo que hoy por hoy debe centrar nuestra atención son las armas autónomas “tontas”. (Esta cuestión la han tratado, por ejemplo, Noel Sharkey, profesor emérito de inteligencia artificial y robótica de la Universidad de Sheffield y, en un contexto más amplio, Toby Walsh, profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur.)

Para sortear estos problemas resulta útil contrastar la autonomía con la simple automatización. A la luz de las definiciones de la robótica básica, cabe decir que las máquinas automáticas operan de acuerdo con secuencias de acción fijas y preprogramadas. Los sistemas autónomos, a su vez, se definen por su capacidad de adaptación: las acciones de un dispositivo autónomo “vienen determinadas por sus percepciones sensoriales, a diferencia de una secuencia preprogramada”. Este nivel de autonomía es fácil de alcanzar: basta pensar en los robots aspiradores. Pero en materia de armamentos, incluso este nivel de autonomía desmiente la idea de un control humano apropiado. Y sobre todo, a diferencia de los robots asesinos de posibles escenarios futuros, este nivel de autonomía ya existe.

Umbral más alto

El pasado agosto, el ministerio de Defensa del Reino Unido dio a conocer una “Publicación de Doctrina Conjunta” sobre aviones no tripulados. El documento formula definiciones de sistemas “automáticos” y “autónomos” y sus diferencias, apartándose con ello de las acepciones generalmente aceptadas de estos términos. Caracteriza las armas autónomas de forma restrictiva como sistemas sofisticados “capaces de comprender intenciones y directrices de alto nivel [y] capaces de decidir la línea de acción a adoptar entre una serie de alternativas, sin depender de la supervisión y el control humanos, pese a que estos todavía pueden estar presentes. Aunque la actividad general de un avión autónomo no tripulado será predecible, puede que determinados actos no lo sean.”

Todavía no está operativo ningún sistema que responda a esta definición, pero esta misma definición plantea la posibilidad de que armas autónomas que aparezcan en el futuro puedan no considerarse como tales. Lo que significa que el ministerio de Defensa del Reino Unido ha elevado el umbral a partir del cual un sistema de armamento se considera autónomo. En consonancia con ello, propone una definición más amplia de “sistema automático”, declarando que “un sistema automatizado o automático es un sistema que, en respuesta a las percepciones de uno o más sensores, está programado para seguir un conjunto prefijado de reglas con el fin de generar un resultado”. Esta definición ampliada hace que la “automatización” invada territorio reservado a la “autonomía” según la definición básica de la robótica citada más arriba.

Está claro que estas nuevas definiciones comportan nuevas dificultades de cara a la posible regulación y restricción de las armas autónomas. Por ejemplo, ¿qué decir de la declaración del propio Reino Unido de que “no posee aviones militares autónomos y no tiene intención de desarrollarlos”? El gobierno del Reino Unido insiste en que “el uso de armas por el Reino Unido siempre estará bajo control humano”, en el sentido de que “una persona [estará] implicada en fijar los parámetros apropiados”. Sin embargo, cuando se desdibuja la distinción entre automatización y autonomía, la declaración británica no es más que una débil moratoria en el desarrollo de sistemas de armamento con cualidades autónomas. ¿Y supondría el hecho de que un programador desarrollara un algoritmo para el funcionamiento de armas autónomas que existe un “control humano” sobre la fijación de los parámetros “apropiados”?

“Mejores soldados”

En vista de todo ello, el debate en torno a las armas autónomas debería tener mucho más en cuenta las vías por las que las normas vigentes pueden verse afectadas por la existencia de armas autónomas actualmente disponibles. Es importante discutir de cómo las normas pueden regular las armas autónomas, pero también procede contemplar el caso inverso: es hora de investigar cómo las armas repercuten en las normas.

Una categoría importante de normas a tener en cuenta en este contexto es la de las “normas de procedimiento”. Estas normas, que se aplican en ámbitos organizativos confinados como los ejércitos, establecen reglas sobre la manera apropiada de hacer las cosas. Están basadas en objetivos y expectativas concretas que a menudo se asocian con la eficiencia y la efectividad. En lo que concierne a las armas, mayores niveles de autonomía técnica comportan mejoras en el tiempo de reacción, fiabilidad sistémica, durabilidad o precisión (en contraste con los vehículos aéreos no tripulados con control remoto, que no necesariamente comportan dichas mejoras).

Dado que las armas autónomas aportan ventajas desde el punto de vista de las normas de procedimiento, su despliegue es más probable. Esto implica que las armas autónomas ofrecen incentivos, en lo tocante al procedimiento, para eliminar la intervención humana, en términos temporalmente cercanos, a la hora de decidir el uso de la fuerza. Como dice un abogado del cuerpo de marines de EE UU, “desde un punto de vista operativo, [la decisión humana] podría… resultar contraproducente en caso de conflicto futuro con un competidor prácticamente equiparable”. Las armas autónomas comportan graves dificultades en los ámbitos de la ética y la responsabilidad, pero resultan muy útiles desde el punto de vista del cumplimiento de las normas de procedimiento.

A veces se afirma que las armas autónomas mostrarán una superioridad ética sobre los humanos. Tal superioridad sigue siendo hipotética, pero las armas autónomas bien podrían carecer de emociones potencialmente problemáticas como el miedo, la rabia o el deseo de venganza. La supuesta superioridad ética aporta más argumentos de procedimiento para construir armas autónomas como “mejores soldados” que superarán a los humanos desde el punto de vista moral y en términos de cumplimiento del derecho humanitario internacional. Si este argumento gana adeptos, el desarrollo y despliegue extensivo de armas autónomas será más probable, con el consiguiente aumento de la posibilidad de que las normas de procedimiento afecten a las normas públicas y legales que subyacen al derecho internacional y las nociones de legitimidad.

El despliegue generalizado y cada vez más rápido de drones por el ejército de EE UU y el papel central de los drones en la política de seguridad de este país demuestran que las prácticas, en efecto, determinan las normas. Los drones se han convertido en los instrumentos de seguridad “preferentes” en virtud de determinadas justificaciones basadas en normas de procedimiento. La versatilidad de las armas autónomas, el carácter de doble uso de sus principales características y la rivalidad tecnológica entre las grandes potencias las convierten en instrumentos muy importantes, lo que dificulta su regulación. Cuando las normas de procedimiento prevalecen sobre las normas legales o éticas, lo más probable es que esta última categoría, lamentablemente, tenga que ceder o adaptarse.

No cabe duda de que en el futuro se prohíban ciertos tipos de armas autónomas. Sin embargo, las prácticas que se establecen actualmente con respecto a estas armas ya están determinando la reglas sobre el futuro uso de la fuerza. Esta tendencia debería controlarse mucho más estrictamente, al margen de si la Convención sobre ciertas armas convencionales, los gobiernos y las organizaciones no gubernamentales encuentran un terreno común en su propósito de definir, en primer lugar, qué se entiende por armas autónomas.

Ingvild Bode es profesora de relaciones internacionales de la Escuela de Política y Relaciones Internacionales de la Universidad de Kent. Hendrik Huelss es investigador posdoctoral de la Escuela de Política y Relaciones Internacionales de la Universidad de Kent.



Traducción: viento sur

https://thebulletin.org/why-%E2%80%9Cstupid%E2%80%9D-machines-matter-autonomous-weapons-and-shifting-norms11189

Notas

1/ Se refiere al Bulletin of Atomic Scientists, en el que se publicó originalmente este artículo: https://thebulletin.org/




">


ARCHIVOS

Mostrar más


OTRA INFORMACIÓN ES POSIBLE

Información internacional, derechos humanos, cultura, minorías, mujer, infancia, ecología, ciencia y comunicación

El Mercurio Digital (elmercuriodigital.es) se edita bajo licencia de Creative Commons
©Desde 2002 en internet
Otra información es posible




AI FREE: DIARIO LIBRE DE INTELIGENCIA ARTIFICIAL