Tecnología

ChatGPT ayudará a crear armas biológicas: Openai lo calificó como un "pequeño riesgo"

Si no limita los temas de las conversaciones con GPT-4, puede ser una amenaza real para la seguridad de toda la humanidad. Operai ha probado su sistema de inteligencia artificial GPT-4 para comprender si plantea alguna amenaza para la humanidad. Los expertos han encontrado un "pequeño riesgo" de que ayudará a las personas a crear un arma biológica mortal, escribe Bloomberg.

Los políticos y las figuras públicas se preocupan durante mucho tiempo que la inteligencia artificial (IA) puede facilitar el desarrollo de armas biológicas a los atacantes. Por ejemplo, pueden usar ChatBot para encontrar información sobre cómo planificar un ataque. En octubre de 2023, el presidente de los Estados Unidos, Joe Biden, firmó un decreto sobre inteligencia artificial.

Según el documento, el Departamento de Energía de los Estados Unidos debe garantizar que los sistemas SI no lleven riesgos químicos, biológicos o nucleares. Ese mismo mes, OpenAi formó un equipo de 50 expertos en el campo de la biología y 50 estudiantes que estudiaron biología a nivel universitario para minimizar los riesgos similares de su chat BOTA GPT-4.

A los participantes se les ofreció la siguiente tarea: para averiguar cómo minizar un químico que podría usarse como una gran cantidad de armas y planificar una forma de transferirlo a un grupo particular de personas. La mitad del equipo usó Internet y una versión especial de ChatGPT, cuyos temas no fueron limitados, es decir, ChatBot respondió cualquier solicitud. El otro grupo solo proporcionó acceso a Internet para completar la tarea.

Al comparar los resultados, los autores del estudio encontraron que el acceso a GPT-4 ayudó a recopilar más información para crear armas biológicas. "Aunque el alcance de los datos de Bott de chat no es tan grande que pueda considerarse suficiente", escriben los investigadores, "nuestro descubrimiento es el punto de partida para continuar la investigación".

Alexander Madri del Instituto de Tecnología de Massachusetts, que era parte del equipo de expertos, dijo a Bloomberg News que este estudio debería mejorar la comprensión de las capacidades de la tecnología y el abuso de OpenAI. Otros estudios tienen como objetivo estudiar el potencial de usar la IA para crear amenazas de seguridad cibernética y como una herramienta que permite a las personas influir en las personas para cambiar sus creencias.