CIENCIA Y TECNOLOGÍA

Cómo es la nueva estafa bancaria que nadie puede frenar: ya se robó u$s 600.000

31.05.2023

Los estafadores usan la inteligencia artificial para hacerse pasar por un amigo y pedirle dinero a la víctima. ¿Cómo funciona?

Cómo es la nueva estafa bancaria que nadie puede frenar: ya se robó u$s 600.000

Los estafadores usan la inteligencia artificial para hacerse pasar por un amigo y pedirle dinero a la víctima. ¿Cómo funciona?

Desde crear monografías desde 0 hasta descubrir un nuevo tratamiento para el cáncer, la inteligencia artificial (I.A.) no ve límites y cada vez ocupa más terrenos de la vida humana. 

Sin embargo, como toda tecnología emergente, esta expansión masiva también incluye usos negativos de la misma. En este sentido, la I.A. cobró especial relevancia entre los estafadores, quienes ahora pueden suplantar la identidad de una persona en una videollamada en vivo. 

En China, varias personas ya declararon ser víctimas de este tipo de robos, donde los delincuentes suelen hacerse pasar por un amigo, conocido o familiar a través de los llamados "deep fake". 

Lo que necesitás revisar en tu celular sí o sí para evitar una peligrosa estafa bancaria

Excelente noticia para cripto: el dato que disparó a Ethereum y recuperó pérdidas de Bitcoin

Deep Fake: cómo es la nueva estafa bancaria con inteligencia artificial

Se conoce como un deepfake a un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona a partir de una tecnología basada en inteligencia artificial. 

En medio del auge por la I.A., surgieron varias aplicaciones (legales y disponibles en App Store y Google Play) que permiten generar este tipo de contenidos. 

[Ahora es seguro que vas a ser víctima de esta estafa bancaria: por qué todos están cayendo]
Ciberseguridad 

Ahora es seguro que vas a ser víctima de esta estafa bancaria: por qué todos están cayendo

Basta con tener una foto de la persona que queremos imitar y un recorte de audio de la misma para desarrollar una réplica de su identidad. Cabe mencionar que con las redes sociales, esta materia prima no suele ser difícil de encontrar.

 Dependiendo del programa, el resultado puede ser más o menos realista; pero las denuncias en China dejan en evidencia que los deep fake son capaces de engañar y ya se cobraron varias víctimas.

 Así lograron estafar a una persona por casi u$s 600.000. El autor de la operación se puso la cara y la voz de un amigo de la víctima para pedirle dinero a través de una videollamada. Así, esta situación abre un nuevo capítulo dentro de las preocupaciones que rondan el uso de la inteligencia artificial. 

 

comentarios
0

IMPORTANTE: Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellas pueden ser pasibles de las sanciones legales que correspondan. Aquel usuario que incluya en sus mensajes algun comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar.

campos obligatorios

LO MAS RECIENTE