El comienzo del proceso de preparación de las fuerzas armadas para participar en las tecnologías de campo de batalla llenas de batalla ya no es solo especulación o ciencia ficción. Lea los mejores materiales de la sección sobre Focus. El enfoque militar en las "tecnologías de inteligencia artificial" de Facebook ya se ha introducido en equipos militares.
Las fuerzas armadas en todo el mundo han avanzado en la planificación, investigación y desarrollos, y en muchos casos el despliegue de la inteligencia artificial. Focus tradujo el nuevo texto de James Johnson dedicado a las nuevas tecnologías en la guerra. La inteligencia artificial no existe en el vacío. Es poco probable que la inteligencia artificial misma cambie los horarios estratégicos.
Por el contrario, probablemente mejorará la influencia desestabilizadora de las armas avanzadas, lo que hace que la guerra sea rápida y acorte el momento de la toma de decisiones. El efecto desestabilizador de la inteligencia artificial en la esfera militar puede aumentar la tensión entre las potencias nucleares, especialmente entre China y los Estados Unidos, pero no por las razones que piensas.
¿Cómo y cuántos cambios en el campo de la inteligencia artificial marcan la desviación de la automatización en la esfera nuclear, que tiene varias décadas? ¿Qué cambios radicales son estos desarrollos? ¿Cuáles son los riesgos potenciales asociados con la combinación de inteligencia artificial con armas nucleares? No podemos responder a estas preguntas de manera integral, extrapolando las tendencias actuales en el desarrollo de la inteligencia artificial.
Pero podemos identificar los riesgos potenciales de las tendencias actuales y considerar formas de administrarlas. Vale la pena considerar cómo se investigan, desarrollan los logros en el campo de las tecnologías de inteligencia artificial y, en algunos casos, se despliegan y funcionan en el contexto de una arquitectura de restricción nuclear más amplia: alerta temprana, inteligencia, observación y reconstrucción, comando y gestión, armas nucleares. , también.
El entrenamiento de la máquina de inteligencia artificial puede mejorar los sistemas existentes de alerta temprana, inteligencia, observación y reconstrucción de tres maneras. A diferencia de la inteligencia y los sistemas de alerta temprana, es poco probable que la inteligencia artificial afecte el comando y la gestión de las armas nucleares, que ha sido automatizada pero no autonomía durante varias décadas.
Como ya sabemos por otros artículos en este sitio, los algoritmos que subyacen a los sistemas autónomos complejos de hoy en día son demasiado impredecibles, vulnerables a los ataques cibernéticos, poco claros (el problema de la "caja negra"), quebradizan y cortas para usarlos en áreas críticas desatendidas .
Actualmente, los expertos y las potencias nucleares tienen un amplio consenso de que, incluso si la tecnología permite que la inteligencia artificial tome decisiones que afecten directamente las funciones del comando y la gestión nuclear (es decir, la decisión de lanzar misiles), no deben ser pre -delegadas a inteligencia artificial .
¿Este frágil consenso resistirá la creciente tentación de atacar el primer accidente cerebrovascular en orden nuclear multipolar hasta que no esté claro? También se desconoce si los comandantes que son propensos a la antropomorfización de las entidades, la descarga cognitiva y la confianza innecesaria en la automatización, evitan la tentación de considerar la inteligencia artificial como una panacea de las deficiencias cognitivas de la toma de decisiones humanas.
La pregunta puede no ser si los estados nucleares introducirán tecnologías de inteligencia artificial en la gestión, sino en quién, cuándo y cómo hacerlo. La tecnología de inteligencia artificial afectará a los sistemas de entrega de armas nucleares en varias direcciones. Por ejemplo, el planeador DF-ZF de maniobra chino DF-ZF Hypersonic es un prototipo de doble uso (con armas nucleares y convencionales) y una función de autonomía.
La inteligencia y la autonomía artificial también pueden fortalecer el potencial del segundo impacto de los estados, y por lo tanto, la restricción, y ayudar a manejar la escalada durante una crisis o conflicto. La inteligencia artificial se puede utilizar para fortalecer las armas ordinarias con consecuencias estratégicas potencialmente significativas, especialmente las armas no nucleares estratégicas utilizadas en operaciones regulares.
El entrenamiento de la máquina aumentará el nivel de inteligencia artificial a bordo de aviones de combate tripulados y no tripulados, aumentando así su capacidad para romper la defensa del oponente con la ayuda de municiones ordinarias de alta precisión.
Además, el aumento de la autonomía a través de la inteligencia artificial puede permitir que los UAV actúen en enjambres en condiciones que todavía se consideraban inaccesibles o demasiado peligrosas para los sistemas tripulados (por ejemplo, en zonas de acceso prohibidas, condiciones de aguas profundas y espacio exterior).
La Guerra Azerbaiyana Armenia de 2021 y la actual confrontación ucraniana-rusa mostraron cómo los estados pequeños pueden integrar nuevos sistemas de armas para mejorar la eficiencia y la capacidad en el campo de batalla. Los métodos de aprendizaje automático aumentan significativamente la capacidad de los sistemas de defensa antimisiles, aéreos y cósmicos para detectar, rastrear, apuntar e interceptar los objetivos.
Aunque la tecnología de inteligencia artificial se integró con el reconocimiento automático de los objetivos en la década de 1970, la velocidad de la identificación del sistema de defensa se incrementó lentamente debido a una base de datos de firma limitada utilizada por el sistema de reconocimiento automático de objetivos.
Los logros en el campo de la inteligencia artificial y, en particular, las redes generativas pueden eliminar este obstáculo al generar datos sintéticos realistas para los sistemas de aprendizaje y prueba para objetivos automáticos. Además, los drones autónomos también se pueden usar para mejorar la defensa del aire (como objetivos falsos o minas voladoras).
La tecnología de inteligencia artificial también cambia formas de desarrollar y operar herramientas cibernéticas ofensivas y defensivas. Por un lado, la inteligencia artificial puede reducir la vulnerabilidad del ejército a los ataques cibernéticos y las operaciones de combate electrónico de radio.
Por ejemplo, las herramientas de defensa cibernética y contradicción diseñadas para reconocer los cambios en el comportamiento y las anomalías en la red y detectar automáticamente programas o vulnerabilidad del código de software, pueden proteger los sistemas nuclear de los delitos cibernéticos y los obstáculos.
Por otro lado, los logros en el campo del aprendizaje automático de la inteligencia artificial (incluido el aumento de la velocidad, el secreto y el anonimato de las ciberroperativas) permitirán literalmente mostrar la vulnerabilidad del enemigo, es decir, la vulnerabilidad no detectada o inusual de la software.
Los oponentes motivados también pueden usar software malicioso para controlar, manipular o engañar los sistemas de comportamiento y reconocimiento de los sistemas autónomos del proyecto autónomo. Por ejemplo, el uso de redes generativas enemigas para crear datos sintéticos y realistas es una amenaza tanto para el aprendizaje automático como para los ataques programables.
En general, la tecnología de inteligencia artificial en la esfera nuclear será una espada aguda: la mejora de los sistemas nucleares se asocia con la expansión de un conjunto de agentes disponibles para los oponentes para ataques cibernéticos y operaciones de lucha por radio electrónica contra estos sistemas.
Al final, los logros en la tecnología de inteligencia artificial pueden contribuir a la seguridad física de las armas nucleares, especialmente contra las amenazas de extraños y entidades no estatales.
Los vehículos autónomos (por ejemplo, "sábados de robots") protegerán las fuerzas nucleares de los estados, patrullando los parámetros de los objetos sensibles o la formación de sistemas de observación automatizados armados a lo largo de las fronteras vulnerables, así es como el tiempo robótico autónomo de Corea del Sur Super Aegis II.
En combinación con otras nuevas tecnologías, como grandes análisis de datos y sistemas de advertencia y detección temprana, la inteligencia artificial se puede utilizar para crear nuevas soluciones para contrarrestar la distribución. Por ejemplo, no hay necesidad de inspectores en objetos sensibles, lo que proporciona no interferencia en el acuerdo de control de armas.
¿Cómo puede la inteligencia artificial exacerbar la crisis entre dos oponentes que tienen armas nucleares? Considere el siguiente escenario ficticio: en la mañana del 12 de diciembre de 2025, los líderes políticos de Beijing y Washington sancionaron los ataques nucleares en el estrecho taiwanés.
Los investigadores independientes de la "Guerra Lightning" en 2025 expresaron su confianza en que ninguna de las partes usó armas "completamente autónomas" con inteligencia artificial y violó la ley sobre conflictos armados. En las elecciones de 2024, el presidente TSI In-Vien, una vez más, tocó a Beijing, ganó una victoria convincente y proporcionó el tercer mandato a los demócratas que abogan por la independencia.
Con el inicio de mediados de la década de 2020, la tensión en la región continuó encendiéndose, ya que ambas partes de los lados de una línea rígida de políticos y generales, vigilados, abandonando gestos diplomáticos y recurrieron a la retórica de la escalada, las falsas noticias y falsas y falsas noticias y falsas campañas.
Al mismo tiempo, tanto China como Estados Unidos han lanzado inteligencia artificial para proporcionar conciencia sobre el campo de batalla, la exploración, la observación e inteligencia, la alerta temprana y otras herramientas de toma de decisiones para predecir y encontrar respuestas tácticas a las acciones del enemigo en tiempo real.
A finales de 2025, el rápido aumento en la precisión, velocidad y capacidades pronósticas de los accesorios comerciales con inteligencia artificial de doble propósito convenció a los estados grandes de usar el aprendizaje automático no solo para mejorar las maniobras tácticas y operativas, sino también más y más para justificar estratégico decisiones.
Bajo la impresión de Rusia, Turquía e Israel, herramientas de inteligencia artificial para mantener interruptores autónomos que presionan la actividad terrorista, China introdujo las últimas tecnologías artificiales de doble propósito mediante la donación de pruebas y evaluación cuidadosas.
Dado que las invasiones militares chinas en el estrecho taiwanés (vuelos de aviones, entrenamiento de bloqueo y cirugía de cirugía con drones) marcaron la fuerte escalada de la tensión, los líderes de China y los Estados Unidos exigieron la implementación inmediata y las reliquias.
A medida que la retórica del odio en las redes sociales aumentó en ambos lados, intensificada por la información errónea y el ciberesema de las redes de comando y de control, se declararon más y más votos que la violenta adhesión violenta inmediata de Taiwán a China.
Bajo la influencia de una situación en el Océano Pacífico, Estados Unidos decidió acelerar la puesta en marcha del prototipo de un sistema autónomo de pronósticos estratégicos y recomendaciones (SPRS), que funciona sobre la base de la inteligencia artificial. Este sistema ayuda a tomar decisiones en actividades como logística, cibernética, seguridad espacial y gestión de energía.
China, temiendo perder la ventaja asimétrica, lanzó un sistema de apoyo de sistema similar para el Sistema de Asesoramiento Estratégico y de Inteligencia (SIA) para garantizar la preparación autónoma para cualquier crisis. El 14 de junio de 2025, a las 06:30, el bote de patrulla de la Guardia Costera taiwanesa chocó con un mariscos autónomos chinos, que realizó una misión de reconocimiento en las aguas territoriales de Taiwán y la ahogó.
En la víspera del presidente de TAI, una delegación de alto riesgo del personal del Congreso de los Estados Unidos y los funcionarios de la Casa Blanca con una visita diplomática. A las 06:50, el efecto de la dominó, fortalecido por bots, dippers y operaciones bajo la bandera de otra persona, pasó por la línea roja de Beijing, lo que significa que la moderación no era suficiente.
Hasta 07:15 estas operaciones de información coincidieron con un toque de cibercriminación dirigida al comando indo-pacífico de los sistemas militares taiwaneses y taiwaneses, maniobras defensivas de medias anti-escena chinas orbitales, activación de sistemas logísticos automatizados. A las 07:20, American SPRS apreciaba tal comportamiento como una seria amenaza para la seguridad nacional y recomendó fortalecer la posición de restricción y realizar una poderosa demostración de fuerza.
A las 07:25, la Casa Blanca sancionó el vuelo de un bombardero estratégico autónomo en el Estrecho Taiwanés. En respuesta, a las 07:35, el sistema SIAS chino informó a Beijing sobre un aumento en la carga en el comando indo-pacífico de los Estados Unidos y las unidades de comando y comunicación más importantes en el Pentágono.
A las 07:40 SIA aumentó la amenaza de un golpe preventivo de los Estados Unidos en el Océano Pacífico para proteger a Taiwán y atacar contra el territorio controlado por China en el Mar del Sur de China.
A las 07:45, SIA recomendó a los líderes chinos el uso de armas convencionales (cibernéticas, sorbing, armas hipersónicas y otras tecnologías de misiles de alta precisión intelectuales) para un impacto preventivo limitado en las instalaciones estadounidenses más importantes en el Pacífico, incluida la base de la Fuerza Aérea de los Estados Unidos.
A las 07:50, el liderazgo militar chino, temiendo el inevitable golpe desinfectante de los Estados Unidos y confiando cada vez más en las estimaciones de Sias, sancionó el ataque que SIAS ya había previsto y, por lo tanto, planeado y preparado para ello. A las 07:55 SPRS advirtió a Washington el inevitable ataque y le recomendó que inmediatamente atravesara un golpe nuclear limitado para forzar a Beijing a detener a la ofensiva.
Después de un accidente cerebrovascular nuclear limitado en los Estados Unidos y chinos en el Pacífico, que mató a millones de personas y decenas de millones resultaron heridos, ambas partes han acordado terminar las hostilidades. Inmediatamente después del cruel matadero, que mató a millones de personas en unas pocas horas, los líderes de ambos lados se sorprendieron por la "guerra de rayos".
Ambas partes intentaron restaurar un análisis detallado de las decisiones tomadas por SPRS y SIAS. Sin embargo, los desarrolladores de los algoritmos bajo la base de SPRS y SIAS han informado que es imposible explicar la justificación de las decisiones y consideraciones de la IA, que representan cada decisión del subconjunto.
Además, debido a varios límites de tiempo, cifrado y privacidad impuestos por los usuarios militares y comerciales finales, era imposible mantener revistas y protocolos de prueba inversa.
Entonces, ¿la tecnología de la inteligencia artificial fue la causa de la "Guerra de Lightning" en 2025? Finalmente, la mejor manera de prepararse para el futuro nuclear con inteligencia artificial puede ser cumplir con varios principios básicos que deberían guiarse al administrar las armas nucleares en cooperación con nuevas tecnologías.
Para lograr estos objetivos dignos, la inteligencia artificial puede ayudar a los especialistas en la planificación de la defensa en el desarrollo y conducta de simulaciones militares y otros ejercicios virtuales para el desarrollo de conceptos operativos, pruebas de diversos escenarios de conflictos e identificación de áreas y tecnologías para el desarrollo potencial.
Por ejemplo, los métodos de aprendizaje automático de AI - modelado, imitación y análisis) pueden complementar modelos imaginarios y simulaciones de escritorio de baja táctil de hostilidades para identificar circunstancias imprevistas en las que puede ocurrir el riesgo de guerra nuclear. Como Alan Thuring escribió en 1950: "Podemos mirar hacia el futuro solo por unos pocos pasos, pero veremos mucho de lo que debemos hacer".
James Johnson es profesor de investigación estratégica en la Universidad de Aberdeen. Investigador honorario de la Universidad de Lester, empleado invitado del proyecto "Hacia una tercera edad nuclear", financiado por el Consejo Europeo de Investigación y un empleado del Centro de Estudios Estratégicos sobre Temas Nucleares. Es autor de la inteligencia artificial y el futuro de la guerra: Estados Unidos, China y estabilidad estratégica.
Todos los derechos están protegidos IN-Ukraine.info - 2022