Tecnología

Los estados avanzados son capaces de crear una cibercrita que evitará cualquier protección: lo que amenaza

El software malicioso creado por la inteligencia artificial le permitirá llevar a cabo repollo rápido e imperceptible, afectando las computadoras y otras víctimas. A través de la capacitación de inteligencia artificial en grandes bases de datos, los estados tecnológicamente avanzados ya pueden crear una defensa cibernética. Esto es advertido por el Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC).

Para crear un software tan potente, los sujetos de amenaza deben enseñar al modelo AI utilizando bases de datos de expresión de alta calidad: programas de computadora dañinos, fragmentos de códigos o comandos de comandos que utilizan la vulnerabilidad de los sistemas. El sistema resultante creará un nuevo código que omitirá las medidas de seguridad actuales.

"Existe la probabilidad realista de que los estados de alta tecnología tengan programas dañinos que sean lo suficientemente grandes como para enseñar un modelo de inteligencia artificial para este propósito", advirtió NCSC. Esta advertencia fue solo parte de una serie de señales de alarma que NCSC mencionó en su informe.

La agencia espera que la inteligencia artificial exacerbe la amenaza global de los guerreros, mejore la búsqueda y el seguimiento de las víctimas y reduzcan la barrera para penetrar los ciberdelincuentes. La IA generativa también exacerba las amenazas en el campo de la ingeniería social, como convencer a las interacciones con las víctimas y la creación de documentos seductores.

AIS complicará la detección de phishing, agotamiento y solicitudes maliciosas por correo electrónico o restablecimiento de contraseña. Debido a esto, los estados nacionales recibirán las armas más poderosas. "Las entidades estatales muy capaces casi seguramente tienen el mayor potencial como fuente de amenazas cibernéticas para utilizar el potencial de la inteligencia artificial en la operación cibernética ampliada".

Sin embargo, en el futuro cercano, se espera que la inteligencia artificial exacerbe las amenazas disponibles, no cree riesgos cualitativamente nuevos. Los expertos están especialmente preocupados de que esto exacerbe la amenaza global de los guerreros. "Los guerreros continúan siendo amenazados con la seguridad nacional", dice James Babbage, CEO de la agencia.