USD
41.17 UAH ▼0.44%
EUR
45.95 UAH ▼0.42%
GBP
55.12 UAH ▲0.26%
PLN
10.75 UAH ▼0.37%
CZK
1.83 UAH ▼0.76%
Durante las operaciones, Doppelhanger y la mala gramática, los rusos intentaron ...

"Puede romperse de repente": Rusia ha usado IA de OpenAi v. Ucrania - FT

Durante las operaciones, Doppelhanger y la mala gramática, los rusos intentaron privar a Ucrania de socios de apoyo, creando contenido con neurotromes. Las estructuras relacionadas con Rusia, China, Irán e Israel utilizan las herramientas de inteligencia artificial de OpenAi, que creó un chatbot chatgpt para crear y difundir desinformación, en particular sobre la guerra en Ucrania. Financial Times escribe al respecto.

Según la compañía, los modelos de inteligencia artificial OpenAi para generar texto e imágenes se usaron en grandes volúmenes en cinco operaciones de influencia oculta y para crear comentarios. El contenido antes mencionado se refería a la guerra en Ucrania, un conflicto en el sector de Gaza, las elecciones en la India, así como las políticas en Europa, Estados Unidos y China. La IA también se utilizó para aumentar la productividad, incluido el ajuste del código y las redes sociales.

Según el informe de Operai, las herramientas de la compañía se utilizaron, en particular, en la operación de Rusia "Dopplganger" destinada a socavar el apoyo de Ucrania. También se menciona la operación de gramática rusa. Según la compañía, los atacantes usaron modelos Operai para comenzar el código para ejecutar el Bot de Telegram, así como para crear comentarios breves sobre temas políticos en ruso e inglés para su distribución en Telegram.

Además, según la publicación, las herramientas de IA de OpenAI utilizaron la red china de spamflage que promueve los intereses de Beijing en el extranjero. Se trata de crear texto y comentarios sobre varios para su publicación en la red social X. También informa la prevención de la campaña israelí, probablemente organizada por Stoic, que utilizó IA para crear artículos y comentarios sobre Instagram, Facebook y X.

La política de OpenAi prohíbe el Uso de sus modelos para sus modelos para el engaño de sus modelos o engañar a otros. La compañía dijo que están trabajando para detectar campañas de desinformación, y que también crean herramientas basadas en la IA para hacerlo de manera más eficiente. Los representantes de Openai aseguran que ya han complicado el trabajo de los atacantes y sus modelos se han negado repetidamente a generar el contenido solicitado.

Openai Ben Nimmo, investigador jefe del departamento de inteligencia e investigación, dijo en una conversación con los periodistas que el uso de modelos Operai en campañas ha aumentado ligeramente. "Ahora no es el momento de la autoestima. La historia muestra que las operaciones de influencia que no han producido resultados durante años pueden parpadear repentinamente si nadie los busca", enfatizó Ben Nimmo.

Recuerde que Openai probó su sistema de inteligencia artificial GPT-4 para comprender si representa alguna amenaza para la humanidad. Los expertos han encontrado un "pequeño riesgo" de que ayudará a las personas a crear un arma biológica mortal. Operai también ha informado que Openai ha anunciado una asociación con Axel Springer's Media.