By Natali Moss
Como explican los expertos, PromptSteal utiliza LLM para generar comandos para que los ejecute el malware, en lugar de codificar los comandos directamente en el propio software. PromptSteal se hace pasar por un programa de "generación de imágenes" que guía al usuario a través de una serie de indicaciones para generar imágenes mientras consulta la API de Hugging Face para generar comandos para ejecutar en segundo plano.
Los investigadores sospechan que PromptSteal utiliza tokens API robados para realizar solicitudes a la API Hugging Face. El programa solicita específicamente a LLM que emita comandos para generar información del sistema, así como para copiar documentos al directorio especificado. PromptSteal ejecuta ciegamente localmente la salida de estos comandos antes de filtrar la salida.
"Si bien es probable que PromptSteal todavía esté en la etapa de investigación y desarrollo, este tipo de método de ofuscación es un indicador temprano y significativo de cómo los atacantes probablemente complementarán sus campañas con inteligencia artificial en el futuro", enfatizó GTIG. Como recordatorio, la nueva familia de malware EvilAI combina código generado por IA con métodos tradicionales de ataque troyano manteniendo un nivel de sigilo sin precedentes.
Todos los derechos están protegidos IN-Ukraine.info - 2022