Tecnología

Rusia y China pueden desarrollar IA para difundir la propaganda: cómo interferir

Los científicos creen que la IA no debe ser demasiado inteligente y ofrecer a controlar las redes neuronales con chips. Un grupo de investigadores de las universidades de Openai, Stanford y Georgetown cree que los modelos de idiomas grandes, como ChatGPT, pueden usarse para información errónea en las redes sociales y más.

Según los científicos, los modelos de lenguaje generativo están disponibles para todos hoy en día y, por lo tanto, los investigadores temen que tales herramientas, si se encuentran en manos de los propagandistas, corren el riesgo de convertirse en una herramienta de operaciones de influencia en el futuro, escribe vice. com . Según los científicos, los propagandistas podrán recurrir a tácticas más baratas y más eficientes gracias a las herramientas de shi.

Ya no será necesario pagar por el trabajo del ejército de trolls, porque con la ayuda de los neurotrones será posible generar textos convincentes en grandes cantidades, enviarlos a las redes sociales, promover a través de los medios de comunicación en Internet . A pesar del hecho de que los modelos de idiomas se controlan a través de API, en países como China y Rusia, habrá suficiente dinero para invertir en sus propios desarrollos.

Además de las publicaciones, los propagandistas podrán usar sus propios chatbots. En su informe, mencionan cómo el chatbot ayudó a derramar a las personas para que estén vacunados en medio de la pandemia Covid-19. Los investigadores creen que los gobiernos deben imponer restricciones a la recopilación de datos de capacitación y crear herramientas para el control del acceso a equipos de IA, como los semiconductores.

Un ejemplo es la restricción del control de exportación introducido por los Estados Unidos contra China. Sin acceder a algunos equipos y tecnologías, la RPC no podrá crear los chips de última generación, lo que ralentizará significativamente este país en su intento de "bombear" las redes neuronales. Los científicos proponen restringir el acceso a futuros modelos SI, aumentar sus niveles de seguridad para evitar la rotura y los ataques.