Utilizando la inteligencia artificial las voces clonadas son la nueva modalidad de extorsión de los delincuentes

Share on facebook
Share on twitter
Share on linkedin

Conozca la nueva modalidad que los delincuentes usan para estafar y la Inteligencia Artificial les está facilitando las herramientas, esta forma de engaño se llama deep fake voice, que traduce ‘engaño profundo’. Para crear la trampa, toman como fuente de información la voz de una persona y las muestras son tomadas de videos de redes sociales o llamadas publicitarias que realizan ofreciendo bienes, productos y demás.

“La inteligencia artificial toma una muestra de la voz, entre cinco o diez minutos, y toma los rasgos característicos para generar un proceso de automatización. Cuando se logra esto, el sistema de inteligencia artificial almacena la información y solo basta con digitar un texto para generar una voz muy similar a la de la persona”, explicó Yefrin Garavito Navarro experto en ciberseguridad, consultado por noticias RCN.

Lo que hacen es utilizar voces de personas cercanas a la víctima o de delincuentes que toman de audiencias para hacerse pasar por jefes de grupos armados ilegales y extorsionar a los ciudadanos.

Para no caer en manos de los delincuentes tenga presente las medidas a continuación, que el experto recomendó.

  • En el momento en que se dude de la veracidad de la voz, grabar la conversación y escuchar para ver si se sienten errores gramaticales o de expresión.
  • Recordar que por más de que parezca la voz de la persona, si es un número desconocido, se debe verificar que sea de ese familiar o amigo, colgando y llamando al número real de esa persona.
tituloLagrge