
El paso de la pandemia provocada por la COVID-19 ha incrementado el uso y las inversiones relacionadas con tecnologías punteras y transformadoras, con la inteligencia artificial (IA) encabezando la mayoría de las listas. En paralelo el desarrollo de nuevas y sofisticadas herramientas basadas en IA, Deep Learning, Machine Learning… se está acelerando para aplicaciones relacionadas con la Defensa en lo que ya, junto al Espacio, parecen ser nuevas carrera armamentísticas mundiales. Sus aplicaciones, directas o en colaboración con otros recursos tecnológicos, son muchas y muy diversas. Van desde la gestión y análisis de datos, la vigilancia y reconocimiento, la alerta de ataques, simulación y entrenamiento, tareas médicas, apoyo logístico, «predecir» conflictos o estallidos de violencia, el engaño y la contrainteligencia o descubrir crímenes de guerra en lugares que nos puedan parecer más inaccesibles hasta, en un paso sin marcha atrás, seleccionar objetivos, destruir y, finalmente, matar.
Según un informe de Naciones Unidas1, un dron militar turco Kargu-2, operando en modo completamente autónomo, atacó a los soldados del Ejército Nacional Libio del mariscal Jalifa Haftar en 2020 en el que podría clasificarse ya como el primer ataque de una máquina sin supervisión humana contra personas. El Kargu-2, un cuadricóptero kamikaze, procesa imágenes en tiempo real y con sus sistemas de aprendizaje automático busca objetivos de forma autónoma, los apunta y, de manera autónoma, «dispara y olvida» lanzándose contra ellos para «morir» explotando causando el mayor daño a su objetivo. Max Tegman, profesor e investigador de Machine Learning del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés), asegura que, tras este ataque2, «la proliferación de robots asesinos ha empezado».
Y con este riesgo creciente, ¿cómo pueden las naciones, sus fuerzas armadas, las organizaciones internacionales y las personas encontrar o definir un marco de actuación o mantenerse por delante de actores ajenos a cualquier regulación? El autor de Jarhead, el estadounidense Anthony Swofford3, afirma que la robotización no facilitará la guerra, sino que la empeorará. El veterano marine afirma que la tecnología hace que sea más fácil y amable pero que, al mismo tiempo, cambiará también peligrosamente su naturaleza. A diferencia de los combatientes humanos, más allá de su precisión o su empleo para reducir bajas y costes, los sistemas automáticos y autónomos no sufren ni miedo, ni fatiga, ni estrés, ni se ven afectadas por las dudas o por sentimientos como la rabia o la venganza.
El coronel del Ejército de Tierra, Francisco Rubio Damián, explica en su último libro La guerra de los robots4 cómo cambiarán los conflictos en este siglo XXI. El autor considera que nos encontramos en un acelerado proceso de automatización de la guerra que se traducirá en que los conflictos armados no desaparecerán, serán diferentes. Las particularidades que los definirán son que la superioridad tecnológica es la gran ventaja estratégica del siglo XXI, que automatizar la guerra es barato y asequible, que la tecnología de doble uso (militar y civil) ya está disponible, que automatizar la guerra es rentable y que, para las actuales sociedades, indiferentes, la guerra a distancia es un espectáculo. Este cambio sustancial en los conflictos armados se caracterizará por ser habitual por su facilidad y coste, por el poco o nulo desgaste popular, por tener fronteras difusas, por la creciente privatización con la llegada de nuevos actores no estatales y por la preservación de fuerzas convencionales para recudir el coste humano y material «en medio de una carrera armamentista en la que las potencias militares se están disputando el dominio tecnológico mundial… En ella la clave está en determinar si es bueno “confiar” en los robots hasta el punto de delegar en ellos la decisión sobre la vida o la muerte de una persona».
Ángel Gómez de Ágreda, coronel del Ejército del Aire y autor del libro Mundo Orwell. Manual de supervivencia para un mundo hiperconectado, cree que no estamos hablando de «una guerra nueva, ni es más o menos violenta por el hecho de que las máquinas la ejecuten o ayuden a hacerlo. La guerra es un fenómeno humano y son los hombres los que la llevan a cabo. Tampoco es un mero cambio de herramientas, de armas con las que pelear. La guerra es un acto político y social que muta con la política y la sociedad que la llevan a término. La tecnología permite adaptar los instrumentos a las necesidades de la guerra, pero también condiciona el entorno social que da lugar a la misma. Entender la guerra implica entender a la sociedad que la hace. La inteligencia artificial cambia ambas y lo hace a un ritmo exponencial»5.
Hablar de China seguramente tenga un antes y un después marcado por la llegada de la pandemia y toda la devastación que ha causado a su paso el coronavirus. En un mundo consumido y fatigado después de más de un año de la COVID-19, la potencia comunista se ha visto obligada a un protagonismo inesperado o a que mitos y verdades, a veces opacos, ya sean realidades… como su poder y recursos.
Las primeras noticias de la aparición del virus llegaron desde la ciudad de Wuhan, en China, el 31 de diciembre de 2019. Desde entonces, la infección se extendió sin entender de fronteras asolando países de todo el mundo. A mediados de mayo de este año, según datos del COVID-19 Dashboard del Center for Systems Science and Engineering (CSSE) de la universidad estadounidense Johns Hopkins (JHU)6, en el mundo se habían registrado 162 644 373 casos de los que 3 372 019 fueron personas fallecidas. Por comparar, en este periodo los casos en Estados Unidos han sido más de 33 millones con cerca de 600 000 fallecidos, o más de 26 millones y de 300 000 muertos en India, mientras que, en China, similar en potencia a la primera y en población a la segunda, el coronavirus ha dejado poco más de 100 000 casos de contagio y cerca de 5000 fallecidos. Las causas, reales o no, para explicar esta disparidad de cifras no son pocas como no es poco el debate sobre ellas o sobre las medidas tomadas por Pekín, pero sí que hay un factor que ha sido determinante, la apuesta decidida por la tecnología.
Ya no es extraño hablar de China y de sus superpobladas ciudades o futuros hubs de ciudades de arquitectura futurista, conectadas por 5G o en breve por 6G, de una potencia cuántica, de una carrera espacial que en pocas décadas ha pasado de copiar naves soviéticas a tener su propia estación espacial o de sondas que llevan su huella a la Luna y Marte, de ser líder en patentes internacionales o de que su economía, en medio de un mundo convulso, ya representa el 18,8 % del PIB mundial en términos de paridad del poder adquisitivo frente al 15,1 % de EE. UU. y que, mientras otras naciones sufren severas crisis y fragilidad, su crecimiento del PIB es del 18,3 % respecto al mismo periodo del año anterior. Además, frente a la meta de crecimiento fijada por la segunda economía del mundo para este año de al menos un 6 %, el Fondo Monetario Internacional (FMI) calcula que China logrará un aumento del 8,4 %7 y el Departamento de Asuntos Económicos y Sociales de ONU8 ha revisado al alza el crecimiento económico mundial como resultado de fuertes repuntes en China, favoreciendo que la economía mundial pueda crecer en 2021 un 5,4 % en lugar del 4,7 % previsto a comienzos de año.
Llegar a esta posición privilegiada en la que es una muy disputada carrera tecnológica con EE. UU., y con la UE como espectador de la contienda, tiene su base en las políticas y estrategias recogidas, principalmente, en los planes de desarrollo quinquenales de la República Popular de China. El último presentado, el decimocuarto9, destaca por buscar la autosuficiencia y el fin a la dependencia tecnológica de EE. UU., muy crítica durante la Administración Trump y sus restricciones a las grandes corporaciones como Huawei, y por su énfasis en las tecnologías avanzadas y la innovación. En él se recogen siete áreas estratégicas para la «seguridad nacional y la mejora total» por objetivos e inversiones. Son la Inteligencia Artificial, la computación cuántica, las redes 5G y las bases para la generación 6G, los semiconductores, la neurociencia, la biotecnología y la investigación genética o la exploración espacial y marítima.
En su documento de estrategia Made in China 202510, publicado en 2015, el Partido Comunista Chino proyecta que el país sea líder mundial en tecnologías clave de última generación, como es el caso de la IA, a la que se considera como crucial para la «seguridad nacional y el desarrollo general». Para alcanzar este objetivo y desarrollar su propio ecosistema tecnológico, industrial y de educación se incrementará hasta 2025 la inversión en investigación y desarrollo una media anual superior al 7 %. Al mismo tiempo se están implementando medidas proteccionistas, subvenciones y transferencia de tecnología extranjera. Este esfuerzo económico debe sentar las bases para ser el principal centro de innovación mundial en IA llegando 2030 y cumplir con los Objetivos a Largo Plazo hasta el Año 203511, con los que el país espera tener «avances significativos en tecnologías de vanguardia y estar entre las naciones más innovadoras del mundo».
Entre los objetivos específicos, además de situar a sus instituciones, fuerzas armadas y empresas a la cabeza de la carrera y superar a sus rivales tecnológicamente, también se encuentra la pretensión de fomentar un nuevo liderazgo, cuestión en la que es clave la seguridad nacional y una aplicación polémica de la IA, la vigilancia a gran escala. Pekín, que apoya la prohibición del uso de estas armas, aunque no su desarrollo o producción12, planea integrar la Inteligencia Artificial en distintos sistemas militares y ya la explota, muy ampliamente, para la vigilancia y «control» de las personas a través del reconocimiento facial y el uso de cámaras colocadas en infinidad de lugares, unas tecnologías de vigilancia cada vez más maduras, asequibles y ubicuas. Más allá del uso “interno” que quieran dar las autoridades, el disponer de grandes bases de datos de rostros, localizaciones, de voces identificadas, etc. supone una gran ventaja en el acopio y análisis de inteligencia o en contar con capacidades extraordinarias en campañas de desinformación, guerra híbrida o ciberataques.
Estados Unidos, al igual que otras grandes potencias militares y naciones aliadas, utiliza desde hace décadas tecnologías «autónomas» para asistir a sus fuerzas armadas en distintas actividades y escenarios, como los sistemas de navegación o la munición «inteligente». Mantener esta ventaja tecnológica y militar es, para Washington, pilar fundamental de su hegemonía mundial y de su poder de disuasión. En un momento en el que China es considerada como un riesgo para la economía y la seguridad estadounidense el presidente Joe Biden, en uno de los escasos puntos de coincidencia con Donald Trump, ha asegurado que mantendrá la presión sobre la potencia comunista que inició su predecesor en la Casa Blanca. Para ello basará las relaciones bilaterales en un claro choque de valores que enfrenta a la democracia con la autocracia. En la lucha por el poder en el orden digital mundial «tenemos un gran interés en asegurarnos de que las tecno-democracias se unan de forma más eficaz para que seamos nosotros los que demos forma a normas y reglas», dijo el secretario de Estado Antony Blinken en su discurso de toma de posesión13.
Pese al paso del coronavirus y los daños económicos que ha causado, las inversiones en materia militar, según el último informe del Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI)14, aumentaron mundialmente en 2020 un 2,6 % hasta los 1981 billones de dólares (unos 1650 billones de euros) en 2020. Pekín, que va en progreso continuo desde hace más de 25 años, ha destinado una cifra estimada de 252 000 millones de dólares, el 13 % del total global. Aunque el incremento es muy notable sigue aún muy alejada de Estados Unidos que, en 2020, aumentó su gasto por tercer año consecutivo y se sitúa con el 39 % del gasto total, dejando muy atrás a sus aliados y a cualquier rival, como China, cuestión que la administración Biden quiere que continúe siendo así.
En palabras del secretario de Defensa, Lloyd J. Austin, «La piedra angular de la defensa de Estados Unidos sigue siendo la disuasión, asegurando que nuestros adversarios comprendan la insensatez de un conflicto abierto»15. En un discurso pronunciado en Hawái, Austin utilizó el término «disuasión integrada» para definir el enfoque moderno del Pentágono en materia de defensa en el que, a las capacidades existentes en la actualidad, se sumarán «otras nuevas» que ahora abarcarán múltiples ámbitos, «todos los cuales deben dominarse para garantizar nuestra seguridad en el siglo XXI». «No podemos predecir el futuro», ha dicho el jefe del Pentágono, «lo que necesitamos es la combinación adecuada de tecnología, conceptos operativos y capacidades, todo ello entretejido y conectado en red de forma tan creíble, flexible y formidable que haga dudar a cualquier adversario. Tenemos que crear ventajas para nosotros y dilemas para ellos».
El presidente de la Comisión de Seguridad Nacional de Estados Unidos sobre Inteligencia Artificial, Eric Schmidt, ha comentado el reciente informe final y sus recomendaciones al presidente y al Congreso16 asegurando que «Estados Unidos no está preparado para defenderse o competir en la era de la IA» y que China está solo unos años por detrás en el desarrollo de tecnologías de inteligencia artificial. En la actualidad, cuando «todas las naciones están luchando para desarrollar las mismas fortalezas tecnológicas», «no podremos defendernos de las amenazas habilitadas por la IA sin capacidades ubicuas de IA y nuevos paradigmas de lucha bélica». Solicitan, como medida que contrarreste el auge, poder e influencia de Pekín, inversiones de miles de millones de dólares para «en última instancia, reducir o eliminar la capacidad de China de utilizar la coerción» y recuerdan, a través de los 16 capítulos del informe, que la seguridad nacional depende de la ventaja militar y que ésta se logra con el dominio tecnológico, en concreto la IA. La comisión, formada por el Congreso en 2018 con la participación de grandes figuras de empresas tecnológicas, académicos y el ámbito militar, afirma que «no es ningún secreto que los rivales militares de Estados Unidos están integrando conceptos y plataformas de IA para desafiar la ventaja tecnológica de Estados Unidos» o que, como ya es notorio, se está utilizando la IA en ataques de desinformación y «se utilizará en la búsqueda del poder». Sostienen, como una de sus conclusiones, que «temen que las herramientas de IA sean armas de primer recurso en futuros conflictos» y advierten que podrá ser aprovechada por «Estados, terroristas y criminales para fabricar armas inteligentes».
En la última conferencia de la Asociación Industrial de Defensa Nacional el teniente general Michael Groen17, jefe del Centro Conjunto de Inteligencia Artificial del Pentágono, alertó que los avances de China suponen «para un marine, un peligro cercano». Durante su intervención ante miembros de la industria afirmó que las Fuerzas Armadas estadounidenses deben ampliar e integrar el uso de la inteligencia artificial en sus actividades y operaciones, «un paso en la dirección correcta» que permita una transformación global y rápida, o quedarse atrás frente a los adversarios. Los principios éticos para el uso de la IA, adoptados por el departamento de Defensa a comienzos de 2020, también estuvieron en escena y Groen destacó los «pasos intencionados para minimizar el sesgo involuntario en las capacidades de IA para evitar consecuencias no deseadas».
El departamento de Defensa publicó en noviembre de 2012 una política sobre armas autónomas. En ella se recoge que los sistemas de armas autónomas deben ser supervisados por personas, pero esto no significa que los militares tengan que tomar todas las decisiones18. Durante una presentación en la Academia Militar de los Estados Unidos el general John Michael "Mike" Murray, primer comandante del United States Army Futures Command (AFC), declaró19 que los nuevos sistemas autónomos de armas obligarán a los planificadores militares, a los responsables políticos y a la sociedad a reflexionar sobre si una persona tiene capacidad y debe tomar todas las decisiones sobre el uso de fuerza letal, incluso si es necesario que un humano participe en el proceso.
Las pruebas de automatización en distintos sistemas militares no son ni escasas ni recientes y demuestran el creciente interés del Pentágono por conocer las posibilidades tecnológicas y la realidad de las armas autónomas o el potencial, respecto a los profesionales humanos, a la hora de tomar decisiones en situaciones complejas, en escenarios críticos o de gran carga de trabajo. El Ejército de EE. UU. destinó en 2019 una partida de 72 millones de dólares para20 «investigar y descubrir capacidades que mejoren significativamente la eficacia de las misiones en todo el Ejército al mejorar a los soldados, optimizar las operaciones, aumentar la preparación y reducir las bajas». En 2020, experimentados pilotos de F-16 fueron derrotados por en un combate simulado. Apenas un año después ha alzado el vuelo Skyborg21, el cerebro autónomo de los aviones de combate de las próximas décadas que «detecta posibles amenazas aéreas y terrestres, determina su proximidad, analiza el peligro inminente e identifica las opciones más adecuadas para atacar o esquivar aviones enemigos»… realizando maniobras inconcebibles para un piloto.
Recopilación y análisis de inteligencia es otra oportunidad en la que se están aplicando los avances tecnológicos, ya sea para procesar grandes cantidades de información o generar análisis con elevada precisión o velocidad, como para mantener la brecha tecnológica y de conocimiento con los posibles adversarios y hacer frente a la guerra híbrida o los ataques de desinformación, caso de los supuestamente lanzados por Rusia y sus «fábricas de trolls».
En la última estrategia22 estadounidense de IA se definen seis pilares clave: priorizar la investigación y el desarrollo; fortalecer la infraestructura de investigación; promover la confianza mediante normas técnicas y gobernanza; formar especialistas; promover el compromiso internacional y aprovechar la IA fiable para el gobierno y la seguridad nacional, tanto con componentes ofensivos como defensivos. Los vertiginosos avances en IA prometen significativos cambios en los equilibrios de poder, «campos de batalla» y alianzas internacionales. Combinando esfuerzos, Estados Unidos y sus aliados pueden superar ampliamente a China, reducir la interdependencia y coordinar políticas para que Pekín no tenga acceso, control o superioridad con las tecnologías que podrían convertirla en el nuevo líder mundial económico y militar.
La administración de Biden trabaja reuniendo a países aliados y amigos para trabajar conjuntamente en tecnología y adelantarse a China tanto en materia industrial, de patentes como de Defensa. El Centro Conjunto de Inteligencia Artificial del departamento de Defensa mantiene ya encuentros internacionales, como el Partnership for Defense, con el propósito de lograr un foro habitual en el que compartir y debatir lecciones aprendidas, desafíos, políticas, mejores prácticas o principios éticos, entre múltiples cuestiones. Tras la reunión inaugural del PfD, en la que participaron Australia, Canadá, Dinamarca, Estonia, Finlandia, Francia, Israel, Japón, Noruega, Corea del Sur, Suecia y Reino Unido, Stephanie Culberson, jefa de Política Internacional de Inteligencia Artificial de la JAIC afirmó que «juntos podemos comprometernos con el diseño, el desarrollo y el uso de la IA responsable en Defensa, fortaleciendo en última instancia nuestra cooperación y mejorando la interoperabilidad de nuestras fuerzas armadas».
Marco histórico y evidente de colaboración de EE. UU. con sus aliados militares es la OTAN. «Nos necesitamos más que nunca. Ningún país o continente por sí solo puede competir en esta era de competencia entre grandes potencias», ha afirmado en una entrevista el secretario general adjunto de la organización, Mircea Geoană. La Alianza quiere contar con una estrategia común de IA, a la que ha identificado como una tecnología clave23 necesaria para mantener su ventaja sobre los adversarios, que englobe posiciones, gastos y políticas de uso dispares, desde Estados Unidos o Reino Unido a países que quieren un tratado internacional sobre estas tecnologías y un uso ético de las mismas, como es Alemania, o Francia y Holanda, que a diferencias de la mayoría de sus vecinos sí que tratan los aspectos militares y de defensa en sus respectivas estrategias nacionales de IA.
El texto debe establecer unas normas básicas comunes para su uso y garantizar la ventaja de la OTAN en tecnologías emergentes y disruptivas, o EDT24, entre las que el armamento autónomo y el basado en la IA son fundamentales. Según David van Weel, secretario general adjunto de la OTAN para desafíos de seguridad emergentes, se identificará cómo operar los sistemas de IA de forma responsable, se definirán diferentes usos de la tecnología en el sector militar y se proporcionará una «plataforma para que los aliados prueben su IA para ver si está a la altura de los estándares de la OTAN». Además, también se establecerá en la estrategia las directrices éticas sobre IA en aplicaciones de Defensa y su control, responsabilidad, rendición de cuentas, etc. como, por ejemplo, que una persona sea siempre responsable de las acciones y consecuencias del uso de estos sistemas o que siempre se tenga disponible un botón de «apagado» para desactivarlos cuando crea que es conveniente.
Europa, como conjunto o país a país, mantiene históricamente una excesiva dependencia de proveedores de tecnología extranjera, teniendo en el despliegue de redes 5G y la empresa china Huawei un ejemplo claro. Aunque son muchas las políticas y muchas las concentraciones industriales en distintos sectores llevadas a cabo en Europa, como el de Defensa, sigue siendo elevado el riesgo de sufrir interferencias y presiones económicas, diplomáticas y políticas desde fuera de nuestras fronteras o de quedar fuera de cualquier carrera por la falta de acuerdos, políticas comunes y presupuestos adecuados. Bruselas intenta preservar la soberanía, real y digital, de los ciudadanos, empresas e instituciones para determinar su propio destino y una manera particular «de ser», ética y responsable, en un entorno mundial dominado por EE. UU. y China y sus intereses.
Sobre el uso de la IA la Comisión Europea ha presentado recientemente un reglamento25, que debe ser negociado y aprobado tanto por los estados miembro y por la Eurocámara, en el que han quedado planteados cuatro niveles de riesgo. En el máximo se encuentra el «riesgo inaceptable» y se aplica a aquellos sistemas considerados una «amenaza para la seguridad, los medios de vida y los derechos de las personas» que serán prohibidos, como los que manipulen el comportamiento humano, inciten a la violencia o sirvan para crear una «puntuación social» similar a la planteada en China. Por debajo, en orden descendente, se encuentran «alto riesgo», «riesgo limitado» y «riesgo mínimo», estando muchos de ellos sujetos al cumplimiento de requisitos estrictos como el análisis de riesgos, trazabilidad de resultados, supervisión humana o un alto nivel de robustez, entre otros.
El uso en la UE de sistemas y aplicaciones de vigilancia biométrica masiva se plantea muy limitado, prohibidos directamente los de «vigilancia indiscriminada» de forma masiva, y la aplicación militar de la IA no ha quedado recogida en la normativa, pero sí que la Comisión encuentra en esta tecnología un gran aliado para reforzar las ciberdefensas. En el documento, elaborado por un grupo de expertos, se hace un llamamiento a sus aliados más cercanos, Estados Unidos a la cabeza, para que se sumen a la propuesta en la que podría ser el origen de una norma mundial.
Margrethe Vestager, comisaria europea de Competencia y vicepresidenta ejecutiva para una Europa preparada para la era digital, ha declarado que «en lo que respecta a la Inteligencia Artificial, la confianza es una necesidad, no un bien que se pueda tener. Con estas normas históricas la UE encabeza el desarrollo de nuevas normas mundiales para
garantizar la confianza en la IA. Al establecer las normas, podemos allanar el camino hacia una tecnología ética en todo el mundo y garantizar que la UE siga siendo competitiva. Preparadas para el futuro y favorables a la innovación, nuestras normas intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE».
Que la IA es una tecnología fundamental en la definición y construcción de la nueva normalidad, que es clave en la Industria 4.0, que traerá enormes avances y beneficios globales en sanidad, educación, sostenibilidad, desarrollo económico, etc. son todas ellas afirmaciones evidentes. Que la carrera por adoptarla supondrá importantes ventajas económicas, políticas y estratégicas a quienes la lideren, también lo es, como que sus implicaciones sociales y éticas, o que la responsabilidad de su uso, civil o militar, en un escenario de proliferación indiscriminada por cualquier tipo de actor necesita más que un simple debate de ideas en el que se pretenda, con la mejor de las voluntades, hablar de una IA responsable y segura en beneficio de la humanidad.
La posibilidad de una acelerada militarización de la IA por su falta de regulación internacional, por las ventajas y superioridad que proporciona frente adversarios no tan avanzados, por su menor coste respecto a los sistemas convencionales, por intereses políticos o industriales, por la llegada de empresas privadas que asuman actividades y responsabilidades en manos de gobiernos, por resultados teóricamente más efectivos, precisos y rápidos… son cuestiones tan reales y tan necesitadas de respuestas, o un marco mínimo de gobernanza y acción, como que todas estas tecnologías puedan ser usadas ampliamente y sin control por todo tipo de «entes» hostiles, que puedan ser el recurso rápido y expeditivo para resolver disputas relegando algo tan humano como el diálogo y la diplomacia o que, sencillamente, las máquinas puedan ser hackeadas o que, sencillamente, no son perfectas. Al igual que los coches, electrodomésticos, ordenadores… sufren averías mecánicas, de software, de conexión, etc. y si esto sucede, actuando autónomamente, ¿quién es responsable de todos los estragos que incontroladamente puedan causar entre enemigos, amigos, civiles, etc.? O también se podría preguntar a algún jurista o institución oficial internacional reconocida si es posible garantizar la capacidad de las armas autónomas para cumplir plenamente y con seguridad los requisitos del Derecho Internacional Humanitario. ¿Pueden por sí mismas determinar si una persona es civil o combatiente por el principio de distinción? ¿Si una acción militar cumple o no el principio de proporcionalidad? ¿Tendría suficiente juicio propio para decidir el principio de necesidad? ¿O puede y debe una máquina, por si misma y sin supervisión, decidir sobre la vida y la muerte de un ser humano?
El 25 de septiembre de 2018, el secretario general de la ONU, António Guterres26, manifestó a la Asamblea General su preocupación por la utilización de la Inteligencia Artificial para desarrollar sistemas de armas afirmando, literalmente, que «para mí hay un mensaje muy claro: las máquinas que tienen el poder y la discreción de quitar vidas humanas son políticamente inaceptables, son moralmente repugnantes y deberían ser prohibidas por el derecho internacional».
En 2019, la Oficina de Asuntos de Desarme de las Naciones Unidas, el Centro Stimson y el Centro Stanley pusieron en marcha un taller y generaron documentación27 para fomentar el debate abierto entre estados, académicos o la industria, entre otros, sobre las implicaciones de la IA para la paz y la seguridad. UNESCO, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, está trabajando en un instrumento normativo mundial sobre la ética de la IA con la esperanza de que sus principios se conviertan en las reglas de la gobernanza a nivel global. Pero, a pesar de estos esfuerzos y de los que llevan a cabo organizaciones como Global AI Action Alliance (GAIA), OECD AI Observatory, Council of Europe (CAHAI), Global Partnership on AI (GPAI) o Partnership on AI (PAI), entre otras, hasta el momento no se ha conseguido prohibir las armas autónomas letales y son muchos los especialistas y científicos que no quieren que sus avances, conocimientos o experiencia sirvan para matar y no para beneficiar a la Humanidad.
Impactos positivos en conflictos los hay y en la ONU ya se trabaja con IA en zonas de guerra. La Organización está aplicando nuevas tecnologías como la IA, nuevos métodos y nuevas formas de pensar en sus trabajos de observación y mantenimiento de la paz.
Con la empresa Remesh28, se ha iniciado una colaboración para utilizar sus soluciones de IA en la negociación de acuerdos de paz en Yemen y Libia, reduciendo los plazos, coste y el tradicional despliegue del personal de la Oficina de Asuntos de Consolidación de la Paz de la ONU, cuyo trabajo sobre el terreno tarda meses en completarse.
Quizá este pueda ser un mínimo punto de partida, algoritmos que aseguren y favorezcan algo tan necesario en nuestro mundo como son los derechos humanos, fundamentalmente el derecho a la vida, y no la automatización indiscriminada e incontrolada de la destrucción y la muerte.
David Corral Hernández/ Periodista RTVE.
- Letter dated 8 March 2021 from the Panel of Experts on Libya established pursuant to resolution 1973 (2011) addressed to the President of the Security Council. United Nations Security Council, 08/03/2021. Disponible en: https://undocs.org/S/2021/229. Fecha de consulta: 01/06/2021.
- Max Tegmark. @tegmark, 30/05/2021. Disponible en: https://twitter.com/tegmark/status/1399042504071208966. Fecha de consulta: 01/06/2021.
- SWOFFORD, Anthony. “Why remote war is bad”, Mit Technology Review, 10/11/2019. Disponible en: https://www.technologyreview.com/2019/10/10/132262/why-remote-war-is-bad-war/. Fecha de consulta: 01/06/2021.
- El coronel Francisco Rubio Damián presenta su último libro, La guerra de los robots, Jacetania Express, 10/04/2021.
- Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R), IEEE, 01/04/2021. Disponible en: http://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET04- 2019InteligenciaRobotica.pdf. Fecha de consulta: 01/06/2021.
- COVID-19 Dashboard by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University (JHU). Disponible en: https://www.arcgis.com/apps/dashboards/bda7594740fd40299423467b48e9ecf6.
- IMF projects China's economy will grow by 8.4% in 2021. CGTN, 06/04/2021 Disponible en: https://news.cgtn.com/news/2021-04-06/IMF-projects-China-s-economy-to-grow-by-8-4-pct-in-2021- ZfckTLcci4/index.html. Fecha de consulta: 01/06/2021.
- World Economic Situation and Prospects as of mid-2021. Department of Economic and Social Affairs United Nations, 11/05/2021 Disponible en: https://www.un.org/en/desa/world-economic-situation-and- prospects-mid-2021. Fecha de consulta: 01/06/2021.
- “China aborda su 'XIV Plan Quinquenal'”, ICEX, 01/10/2020 Disponible en: https://www.icex.es/icex/es/navegacion-principal/todos-nuestros-servicios/informacion-de- mercados/paises/navegacion-principal/noticias/china-plan-quinquenal-new2020863677.html?idPais=CN. Fecha de consulta: 01/06/2021.
- TALIN, Benjamin. “Gran Estrategia de China – «Made in China 2025» (MIC25)”, More Than Digital, 14/01/2021.
- China presenta la versión final del XIV Plan Quinquenal y los Objetivos a Largo Plazo para 2035. Pueblo en Línea, 15/03/2021 Disponible en: http://spanish.peopledaily.com.cn/n3/2021/0315/c31620- 9828970.html. Fecha de consulta: 01/06/2021.
- Campaign to Stop Killer Robots. 25/10/2019
- “Biden secretary of state nominee Antony Blinken's opening statement”, CNN, 19/01/2021 Disponible en: https://edition.cnn.com/2021/01/19/politics/blinken-opening-statement/index.html. Fecha de consulta: 01/06/2021.
- SIPRI Year Book 2020. Disponible en: https://www.sipri.org/sites/default/files/2020- 06/yb20_summary_en_v2.pdf. Fecha de consulta: 01/06/2021.
- Defense Secretary Says 'Integrated Deterrence' Is Cornerstone of U.S. Defense. U.S: Department of Defense, C. Todd Lopez, 30/03/2021 Disponible en: https://www.defense.gov/Explore/News/Article/Article/2592149/defense-secretary-says-integrated-
- The Final Report, National Security Commission on Artificial Intelligence (NSCAI). Disponible en: https://reports.nscai.gov/final-report/table-of-contents/. Fecha de consulta: 01/06/2021.
- TUCKER, Patrick. “China Is ‘Danger Close’ to US in AI Race, DOD AI Chief Says”, Defense One, 23/03/2021.
- Disponible en esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf Fecha de consulta: 01/06/2021
- The Pentagon Inches Toward Letting AI Control Weapons. Wired, Will Knight, 10/05/2021 Disponible en: https://www.wired.com/story/pentagon-inches-toward-letting-ai-control-weapons/. Fecha de consulta: 01/06/2021.
- Battlefield artificial intelligence gets $72M Army investment. U.S. Army, 12/03/2019 Disponible en: https://www.army.mil/article/218354/battlefield_artificial_intelligence_gets_72m_army_investment. Fecha de consulta: 01/06/2021.
- Skyborg. AFRL.
- National AI Initiative. NAIIO. Disponible en https://www.ai.gov/. Fecha de consulta: 01/06/2021
- NATO 2030: United for a New Era. NATO, 25/11/2020 Disponible en: https://www.nato.int/nato_static_fl2014/assets/pdf/2020/12/pdf/201201-Reflection-Group-Final-Report- Uni.pdf. Fecha de consulta: 01/06/2021.
- MACHI, Vivienne. “Artificial intelligence leads NATO’s new strategy for emerging and disruptive tech”,
C4ISRNET, 14/04/2021. - Proposal for a Regulation laying down harmonised rules on artificial intelligence. European Comission, 21/03/2021 Disponible en: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down- harmonised-rules-artificial-intelligence. Fecha de consulta: 01/06/2021.
- Remarks at "Web Summit" António Guterres. United Nations Secretary-General, 05/11/2018 Disponible en: https://www.un.org/sg/en/content/sg/speeches/2018-11-05/remarks-web-summit. Fecha de consulta: 01/06/2021.
- The Militarization of Artificial Intelligence. United Nations, 01/08/2019 Disponible en: https://www.un.org/sg/en/content/sg/speeches/2018-11-05/remarks-web-summit. Fecha de consulta: 01/06/2021.