"El problema no está en el arma sino en el SI": la Cuarta Guerra Mundial se llevará a cabo con piedras y palos
A medida que se acercaba 2023, quedó claro que el mundo de las hostilidades pasó de la amenaza de ataques nucleares al ciberespacio. La inteligencia artificial penetra en todos los aspectos de nuestras vidas, y era solo cuestión de tiempo cuando comenzará a usarse en nuestros sistemas de armas, según CTech. Lyran Antebi cree que las armas no causan tanta preocupación como la autonomía de los sistemas SI. "Tenemos que hacer frente a la tecnología hasta que sea demasiado tarde", dijo.
"Necesitamos profundizar profundamente en el tema, así como comprender cómo funciona el" ecosistema "de las tecnologías chiítas. La AI de autonomía es relevante hoy para las fuerzas armadas y las corporaciones y para las pequeñas empresas. Todos tienen sus propias tareas para la IA. " Por supuesto, la inteligencia artificial ya está en nuestra vida diaria, automatizando algunos de sus aspectos.
Las empresas privadas crean vehículos autónomos, electrónica de hogar autónoma, una casa "inteligente", etc. Y a la gente le gusta, porque es muy conveniente. Sin embargo, Antebi afirma que cuando se habla de la autonomía sobre las armas, las opiniones de las personas cambian drásticamente. "Cuando hablamos de la pregunta militar, hablamos de vidas humanas", explicó. "Si hay poder de fuego, hay un problema de supervivencia, el problema de la muerte y el problema de salvar vidas.
Cuando se trata de sistemas autónomos fatales, las personas lo perciben de manera muy crítica, pero solo porque están muertas para creer que las armas autónomas son, en primer lugar, un arma, es decir, lo que mata, pero un automóvil autónomo o un dron no puede matar. Antebi estudia cómo las oportunidades de autonomía.
En el pasado, aconsejó a la ONU como parte de un grupo de iPraw (grupo internacional sobre armas autónomas Grupo de regulación de sistemas) y aconsejó al Ministerio de Defensa israelí sobre estos temas. Armas, y en el s. Debemos estar seguros de que la IA es perfecta antes de darle la oportunidad de conducir al menos algo, y no importa, será un arma o un automóvil, ya que puede dañar erróneamente o incluso matar.
Estoy hablando de autos autónomos como Telsa, hablo de todo tipo de robótica ". El científico explicó que las" soluciones éticas "hechas por la IA" independientemente "es un problema y la responsabilidad de las empresas privadas que crean tecnologías.
Llevar a los niños en vehículos autónomos o llevar a cabo ataques de drones en los campos de las operaciones de combate, debe ser perfecto antes de que puedan trabajar recibiendo el crédito de la confianza de los ciudadanos y los gobiernos. El famoso dilema que salvará al robot durante el fuego, O cómo el dron atacará, para alcanzar el objetivo, requerirá una supervisión y regulación estricta para que la autonomía sea conveniente pero no mortal ".