Según la seguridad de Angara, los atacantes colocan anuncios en las redes sociales, donde se ofrece a los rusos compartir sus voces para una cierta recompensa. En 2021, el número de tales anuncios fue de 1200, y el año pasado 7000. Recopilan muestras de votos bajo cualquier razón razonable, por ejemplo, para enseñar un modelo generativo de inteligencia artificial.
De hecho, los delincuentes usan muestras de voces para confiar en los ciudadanos rusos para extorsionar el dinero de sus amigos y familiares, porque además de la "voz", los delincuentes también recopilan datos personales de personas que han acordado compartir sus voces. Los estafadores con la ayuda de la IA y los archivos de audio obtenidos crean dipphers cuando cualquier voz lee cualquier texto, como una solicitud para pedir dinero prestado.
La tecnología también permite a los bancos, ya que los atacantes pueden recurrir a una institución financiera en nombre de una persona en particular, obtener verificación y retirar dinero de su cuenta, mientras que no sospechará nada. Algunos expertos rusos han dicho que las muestras de votos se pueden recopilar sin el conocimiento de las personas. Es suficiente encontrar varios rodillos en las redes sociales con la participación de una persona donde dice algo.
Pero especialmente asignaron YouTube. En su opinión, la plataforma de video es una verdadera Klonda para los delincuentes que recopilan votos. "Lo más probable es que las cuentas no sean necesarias: como regla general, los videos y los mensajes de video están disponibles en el acceso general", enfatizaron los medios rusos. Anteriormente, escribimos que Cybershachrai usó a Natalia Mogilevsk en su estafa.
Todos los derechos están protegidos IN-Ukraine.info - 2022