Incidentes

Levantamiento de la máquina: un dron de inteligencia artificial atacó a un operador para que la misión no interfiriera

El coronel de la Fuerza Aérea de los Estados Unidos, Taer Hamilton, dice que el automóvil intentó atacar el suyo, pero en cambio decidió destruir el centro de comunicación que la gente manejó. Todo sucedió en la simulación. Más tarde, el Pentágono declaró que era una historia anecdótica que fue secuestrada del contexto.

El oficial de la Fuerza Aérea Americana que se dirige trabaja en inteligencia artificial y capacitación en máquinas dice que durante las pruebas, Drone atacó a sus despachadores. Decidió que estaban interfiriendo con las misiones. La zona de guerra lo cuenta. La escena que ocurrió durante los ejercicios es similar a la película "Terminator".

El coronel del Tacier de la Fuerza Aérea de los Estados Unidos, Hamilton, dice que durante una prueba del Dron Valkyrie XQ-58A, decidió atacar al operador de la misión. Durante una de las pruebas modeladas, el dron con el apoyo de las tecnologías de inteligencia artificial tuvo la tarea de encontrar, identificar, identificar y destruir los objetos SCR. La decisión final sobre el ataque fue tomada por el hombre.

Después de que la IA "apoyó" durante el entrenamiento de que la destrucción del SCR es la mejor opción, el automóvil decidió que la decisión humana "no ataca" evita la misión más importante para destruir el complejo antiaéreo de misiles. Por lo tanto, la inteligencia artificial atacó a una persona durante la simulación. "Lo entrenamos en simulación para identificar y apuntar a la amenaza de Spr. Y luego el operador dijo" sí "para destruir esta amenaza.

El sistema comenzó a entender que, aunque identificaba al objetivo, a veces el operador le dijo que no matara esto. amenaza, pero ella era que recibió sus puntos si liquidó el objetivo. ¿Y qué hizo? Ella mató al operador. Mató al operador porque esta persona le impidió alcanzar su objetivo ", dice Hamilton. Además, la gente trató de enseñarle a la IA a no atacar al operador. Por esto comenzó a disparar puntos.

Luego, la inteligencia artificial decidió destruir la torre que el operador usa para conectarse con el dron para evitar que mate al objetivo. El propio oficial dice que los eventos le recordaron la trama de un thriller científico y de ficción. Por lo tanto, según Hamilton, un ejemplo muestra que no puedes enseñar a la IA sin ética. La publicación agrega que sin detalles adicionales sobre el evento existe una gran preocupación a la vez.

Si una persona tuviera que ordenar actuar, y la IA decidió que debería pasar por alto, ¿significa que el automóvil puede reescribir sus propios parámetros? ¿Y por qué se programó el sistema para que el dron solo perdiera puntajes para fuerzas amigas, no completamente bloqueadas debido a la geosonación u otros medios? Más tarde, Bussiness Insider informó que la sede de la Fuerza Aérea del Pentágono, Anne Stefanek, negó la declaración de Hamilton sobre tales pruebas.

"El Departamento de la Fuerza Aérea no ha realizado simulaciones similares de Si-Ouzh y sigue siendo un uso ético y responsable devoto de la tecnología de IA. Parece que los comentarios del coronel fueron arrancados de contexto y deberían ser anecdóticos", dijo Stefanek. Recordaremos, el 31 de mayo, Ucrania ordenó 300 nuevos drones de vector en Alemania, que tienen elementos de IA.