Shi no obtendrá códigos para armas nucleares, pero no es seguro
Sin embargo, según el experto del personal editorial de Villa Knight, algunos estados pueden estar en desacuerdo con él. El Departamento de Estado de los Estados Unidos ha desarrollado una declaración política sobre el uso militar responsable de la inteligencia artificial, instando a todos los estados nucleares a no introducir la IA en una esfera tan peligrosa que pueda conducir a la muerte de toda la humanidad.
Solo las personas deben tomar la decisión final sobre el uso de YAO, de lo contrario, el guión de la película "Terminator" puede ser una realidad. Sin embargo, este documento de ninguna manera no está vinculado por Estados Unidos ni ningún otro país nuclear, según el editor en jefe.
Según él, se debe desarrollar un gran tratado entre dichos países, lo que establecerá claramente los estándares de uso de la IA en el desarrollo de armas, y la introducción de la inteligencia artificial en la esfera y el lenguaje nuclear no pueden ser, dice el experto. Sin embargo, Will Knight, como experto en inteligencia artificial, afirma con razón que neuralmente es muy útil cuando falta un especialista.
Por ejemplo, es poco probable que los combatientes de defensa aérea puedan manejar todo el enjambre de drones por su cuenta, cambiando instantáneamente de un objetivo a otro, pero esto puede. Las organizaciones de derechos humanos, como la Cruz Roja Internacional y Stop Killer Robots, insisten no solo en restringir el uso de IA en armas nucleares, sino también en general para prohibir su uso en cualquier arma.
Los activistas de los derechos humanos creen que muchas más personas morirán de armas autónomas que en tomas casuales de soldados o cohetes falsos. Sin embargo, países como Estados Unidos, Rusia, Israel, Corea del Sur y Australia están en todas las formas posibles que bloquean los intentos de los derechos humanos para impulsar la idea a través de la ONU. Una razón es que estos estados ven el uso más amplio de la IA en sus programas militares y ya usan activamente tales armas.
El experto cree que si el desarrollo de la IA en el complejo militar-industrial no puede ser prohibido, es muy importante hacer instrucciones claras y obligaciones conjuntas sobre sus estándares de implementación. Sin esto, nadie puede estar seguro de que mañana algún país no confiará en la "maleta nuclear" de la inteligencia artificial. Anteriormente, Focus escribió que el primero en la historia de la cumbre dedicada a los trabajadores asesinos fracasó: cuál es la razón.