Cine y Películas

Los delincuentes utilizaron la inteligencia artificial para clonar la voz del director de la empresa y robar $ 35 millones

La policía de los Emiratos Árabes Unidos está investigando un caso en el que los delincuentes supuestamente utilizaron inteligencia artificial para clonar la voz del director de una empresa y transferir fondos.

La policía de los Emiratos Árabes Unidos está investigando un caso en el que supuestamente se utilizó inteligencia artificial para clonar la voz del director de una empresa y robar 35 millones de dólares en un atraco masivo. Si bien es un crimen sorprendente e inusual, no es la primera vez que los estafadores han recurrido a la suplantación de voz basada en inteligencia artificial para llevar a cabo atracos atrevidos. Una instancia anterior de dicha tecnología utilizada para una estafa similar se remonta a 2019, cuando se dice que los delincuentes en el Reino Unido usaron software deepfake para hacerse pasar por la voz del director ejecutivo de una empresa de energía para transferir de manera fraudulenta alrededor de $ 243,000.

Si bien se espera que la inteligencia artificial abra una ola de oportunidades en los próximos años, las amenazas que plantea la tecnología también son muy reales. A menudo se piensa que la pérdida de puestos de trabajo provocada por la automatización es el problema más urgente de la inteligencia artificial, pero la tecnología también plantea serios desafíos en otras áreas, incluidas las amenazas a la privacidad por el uso desenfrenado del reconocimiento facial, así como los deepfakes de audio y video creados mediante la manipulación de voces. y semejanza. Si bien el primero tiende a llamar la atención de los principales medios de comunicación, el segundo también representa una grave amenaza, como se muestra en estos casos de fraude.


Según lo informado por Forbes, El último caso de uso de voz manipulada para el fraude ocurrió en los Emiratos Árabes Unidos a principios de 2020, cuando los delincuentes supuestamente usaron inteligencia artificial para clonar la voz de un director de empresa y pedirle al gerente de un banco que transfiriera fondos por valor de 35 millones de dólares para una adquisición. El gerente del banco hizo debidamente las transferencias creyendo que todo era legítimo, solo para darse cuenta más tarde de que se trataba de una estafa elaborada diseñada por delincuentes de alta tecnología. Al final resultó que, los estafadores habían utilizado la tecnología de ‘voz profunda’ para engañar al gerente y estafar al banco con una enorme cantidad.

Emiratos Árabes Unidos pide ayuda a las autoridades estadounidenses

Los delincuentes utilizaron la inteligencia artificial para clonar la voz.5

Según un documento judicial, los investigadores de los Emiratos Árabes Unidos ahora buscan ayuda de las autoridades estadounidenses para rastrear 400.000 dólares de fondos robados que creen que están retenidos en cuentas bancarias estadounidenses. Se cree que el resto de los fondos se almacenan en muchos bancos diferentes con diferentes nombres en varios países del mundo. Según las autoridades de los Emiratos Árabes Unidos, al menos diecisiete personas están involucradas en el esquema, aunque sus nombres y nacionalidades no fueron claros de inmediato.

Hablando a Forbes, Jake Moore, un experto de la firma de seguridad cibernética ESET, dijo que la tecnología de audio y video ‘deepfake’ puede ser un problema real en manos de las personas equivocadas, con deepfakes posando «una gran amenaza para los datos, el dinero y las empresas». Moore también agregó que es probable que un mayor número de empresas caigan víctimas de estafas de audio deepfake realistas similares en el futuro.

Fuente: Forbes


Source link

Neto

Soy Neto, creador de LaNetaNeta.com Me apasiona leer y aprender, disfruto escribir y compartir publicaciones interesantes con el publico.

¿Ya viste esto?

Botón volver arriba