25horas.com.bo

Haciendo uso de la tecnología simularon el tono de un cliente recurrente del banco que tenía que hacer transferencias internacionales por ese valor

A inicios del 2020, el Director del banco de Emiratos Árabes Unidos recibió una llamada del que parecía ser un empresario con el que ya había tenido un contacto previo, sin sospechar que estaba siendo víctima de la estafa de un grupo de ciberdelincuentes que valiéndose de la tecnología de “voz profunda” lograron clonar la voz del cliente y hacerse con 35 millones de dólares de manera ilegal.

Así lo asegura Forbes citando el documento legal del caso, donde también se expone que el hombre detrás de la llamada dijo que su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares. Para ello se había contratado a Martin Zelner, un abogado que sería el encargado de coordinar las transacciones. De acuerdo a lo pactado, el banco recibió varios correos electrónicos de Zelner y del empresario donde se confirmaba la cantidad de dinero a mover y a dónde debía enviarse. Lo legítimo que parecía el trámite dio confianza al Director del banco quién no dudó en dar luz verde a las operaciones, que más tarde confirmarían se trataba de un fraude.

La Fiscalía de Dubai, sostiene que este elaborado plan involucró al menos 17 personas quiénes repartieron el dinero robado en cuentas bancarias de diferentes países del mundo, lo que los ha llevado a buscar el apoyo de investigadores estadounidenses para rastrear al menos 400.000 dólares que ingresaron a cuentas con sede en Estados Unidos vinculadas al Centennial Bank.

Estos casos evidencian cuán peligrosas pueden llegar a ser las estafas mediadas por Inteligencia artificial como lo aseguró a Forbes Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido, “las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”

“Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, agregó.

Hoy, cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web, es susceptible de que su voz sea doblada sin que lo sepa.

Fuente: Infobae

Dejanos tu reacción?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Leave a Reply

Your email address will not be published. Required fields are marked *