En su famoso discurso de 1963, el presidente estadounidense John F. Kennedy declaró: «Nuestros problemas son creados por el hombre, por lo que el hombre puede resolverlos». Las declaraciones de Kennedy en ese momento se referían a la cuestión de la paz y el control de armas, pero hoy, donde la introducción. de la inteligencia artificial trae consigo problemas que los humanos difícilmente podemos controlar, parecen ser aún más relevantes.
Tras la última cumbre entre el presidente chino Xi Jinping y el presidente estadounidense Joe Biden, en la que la declaración conjunta Destacaron la necesidad de abordar el riesgo de los sistemas avanzados de IA, funcionarios de ambas partes se reunieron en Los riesgos de la IA se discutirán en Ginebra este año. El tema de la seguridad y los riesgos de la IA se planteó durante la reciente reunión entre el asesor de seguridad nacional de Estados Unidos, Jake Sullivan, y el ministro de Asuntos Exteriores chino, Wang Yi..
Una de las cuestiones más apremiantes se refiere a la creciente dependencia de la IA militar; Los oficiales militares se esfuerzan constantemente por lograr avances en esta tecnología en evolución. Del El “Proyecto Maven” de Estados Unidos. Y “replicante” A El “comandante de la IA” de China y de “Lavanda” de Israel incluso «Zvook» del frente ucranianoLa IA militar se utiliza cada vez más y rápidamente se está volviendo omnipresente. El general Mark Milley incluso predijo que para 2039 Un tercio del ejército estadounidense estaría formado por robots. Sin duda, tendencias tan preocupantes plantean el espectro de una carrera armamentista acelerada de la IA si continúa sin control ni regulación.
Los beneficios que aporta la IA al campo de batalla son innegables. La IA no sólo protege a los soldados y reduce las ineficiencias, sino que también maximiza las posibilidades de victoria a través de ventajas en la toma de decisiones y permite tomar decisiones rápidas y precisas. Como Vladimir Putin de Rusia una vez notado«La inteligencia artificial es el futuro… quien tome la iniciativa en este ámbito se convertirá en gobernante del mundo». La superioridad en el campo de la IA es ahora sinónimo de resiliencia nacional.
En este contexto, China anunció un ambicioso plan para “Plan Nacional de IA de Nueva Generación” posicionarse como una potencia de IA “líder mundial” para 2025. Es comprensible que esta medida audaz haya generado preocupación en Washington. En respuesta a eso El Departamento de Defensa de EE. UU. ha asignado 1.800 millones de dólares exclusivamente para iniciativas de IA en su presupuesto para el año fiscal 2025.mientras que la administración Biden endureció las regulaciones sobre chips de memoria y semiconductores de IA. A medida que se acercan las elecciones presidenciales, es probable que cada candidato adopte medidas similares. Se espera que la vicepresidenta Kamala Harris mantenga la postura dura de la administración Biden-Harris sobre las regulaciones de IA de China, mientras que el expresidente Donald Trump, que ha expresado preocupaciones similares, probablemente priorizaría el mantenimiento de la superioridad tecnológica de Estados Unidos, lo que sugiere que un reconocimiento compartido de la intensificación de la rivalidad entre China y Estados Unidos.
Los expertos advierten cada vez más que Beijing está alcanzando rápidamente o incluso superando a Estados Unidos en áreas importantes de la IA militar. Un artículo reciente del New York Times enfatizó que a pesar de los estrictos controles de exportación de Estados Unidos, los chips fabricados en Estados Unidos se comercializan activamente en el mercado negro chino y se utilizan en investigaciones militares. Esto demuestra que la competencia en el campo de la inteligencia artificial ha traspasado las meras fronteras tecnológicas.
Sin embargo, otro informe presentó un contrapunto sorprendente a esta narrativa. Sam Bresnick, escritor de Foreign Policy, analizó artículos de expertos en defensa chinos y concluyó que China, que no ha librado una guerra importante en 40 años, está desacelerando la recopilación, gestión y análisis de datos militares. tiene que luchar. Además, Bresnick señala deficiencias en la competitividad internacional de China en las áreas de inteligencia, vigilancia y reconocimiento (ISR), así como deficiencias en los marcos de prueba y evaluación de los sistemas de IA (T&E).
Aunque el informe sugiere que las capacidades de IA de China pueden no ser tan avanzadas como se pensaba anteriormente, esto no significa necesariamente que los riesgos de competencia entre China y Estados Unidos sean exagerados. Sin duda, estos peligros son reales y deben tomarse en serio. Sin embargo, evaluar las capacidades generales basándose en datos fragmentarios es incorrecto e imprudente. La IA es inherentemente una caja negra: sus procesos no se pueden explicar completamente, sus resultados no se pueden predecir de manera confiable y, en última instancia, puede desafiar el control humano total. Por lo tanto, intentar cuantificar la brecha sin un punto de referencia común intensificaría la carrera armamentista de la IA y exacerbaría el dilema de seguridad de la IA.
Entonces, en lugar de centrarse en la espinosa tarea de evaluar la competencia chino-estadounidense en IA militar, se debe prestar más atención a revitalizar las discusiones bilaterales para frenar la ferviente competencia en esta área.
Dado que ambos países ya han obtenido importantes beneficios de la IA, es poco probable que el miedo a los riesgos relacionados con la IA detenga el desarrollo de la IA en ambos países. Por lo tanto, las discusiones entre China y Estados Unidos ya no deben centrarse únicamente en el potencial y las oportunidades de la IA, sino que deben centrarse principalmente en abordar los problemas y acontecimientos inmediatos. En lugar de especular demasiado y tratar de regular supuestos escenarios como la Inteligencia General Artificial (AGI), las conversaciones deberían centrarse en las realidades actuales de la IA militar y guiarse por consideraciones prácticas como los riesgos y las preocupaciones comunes a este respecto.
Dado que toda tecnología tiene el potencial de ser mal utilizada o incluso antropomorfizadolo que queda La pregunta clave es quién tiene el control y cómo se utiliza la tecnología.. Entonces, quizás el mayor riesgo al que nos enfrentamos no resida en la IA en sí, sino en las acciones humanas relacionadas con la IA. Esto sugiere la necesidad de crear nuevos focos de discusión que aborden específicamente el papel crítico, pero a menudo pasado por alto, de los humanos. Desde esta perspectiva, la cuestión de los humanos y el control humano debe estar en el centro de todos los diálogos prácticos sobre la IA militar.
En términos más generales, este cambio también requerirá una reorientación de la conceptualización y el enfoque de los diálogos. Por improbable que parezca, los temas de discusión sobre la IA deberían adoptar un enfoque más “humanista”, donde el papel, las responsabilidades y las reacciones de los humanos en relación con la IA militar deberían discutirse y enfatizarse más a fondo antes de intentar descifrar la IA en sí. La adopción de un enfoque centrado en el ser humano vuelve a poner el foco en la capacidad humana para controlar y gestionar la IA militar, cambiando el impulso de los diálogos de uno basado principalmente en la identificación de problemas a uno que se centra en la resolución de problemas.
En este sentido, el diálogo difiere de los diálogos tradicionales sobre IA, que se centran principalmente en la propia IA, ya sean esfuerzos por abordar las interpretaciones de Washington y Beijing. Términos conceptuales para la IA o Desmitificando las discusiones sobre la Vía I En el nivel de la Vía II, los diálogos deberían principalmente delinear y descifrar el papel de los humanos en la IA militar. Preguntas importantes pero difíciles, como por ejemplo: ¿Qué papel desempeñan los humanos en el proceso de la IA militar? ¿Cómo pueden los humanos desempeñar un papel más importante en la IA militar? ¿Cuál es el nivel actual de participación humana en la IA militar? – debe ser lo primero para garantizar la eficacia de los diálogos. Al despejar la niebla detrás de lo que la gente puede y quiere hacer con la IA militar, los diálogos estarán en mejores condiciones para discutir lo que se debe hacer juntos.
Tomemos como ejemplo la discusión sobre un acuerdo de participación humana. A pesar de los esfuerzos a todos los niveles diplomáticos, ha habido pocos avances en la intermediación de este acuerdo. La expansión de una idea reciente, la Acuerdo “parcial” de intervención humana Para dar un nuevo impulso a los debates, los diálogos podrían comenzar aclarando el alcance y el nivel de participación humana en esta propuesta. Por ejemplo, aclarar el alcance de las acciones permitidas de los actores humanos en cada paso del proceso de toma de decisiones o definir el nivel apropiado de participación humana en este ciclo podrían ser puntos de partida valiosos para las discusiones en todos los niveles diplomáticos. Lejos de ser meros mecanismos de creación de confianza, estos puntos de discusión podrían sentar las bases necesarias para conversaciones más sostenidas, sólidas y fructíferas entre Estados Unidos y China.
En este contexto, el próximo “Cumbre sobre IA responsable en el ejército (REAIM) 2024”, previsto para septiembre en Seúl, Corea del Sur, podría servir como punto de partida central para el debate sobre el papel de los humanos en la IA militar. En la última edición del año pasado, las naciones enfatizaron en las cumbres Explicación que los humanos también deben asumir responsabilidad y tomar decisiones cuando la IA se utiliza en contextos militares. Sobre esta base, el enfoque de REAIM 2024 debería pasar de simplemente reconocer la importancia de los roles humanos a discutir políticas más concretas. Es fundamental que estos debates se lleven a cabo primero porque sólo entonces podremos abordar eficazmente los riesgos potenciales que la IA podría plantear en contextos militares.