Cómo los cibercriminales están usando la inteligencia artificial para estafar en América Latina

En América Latina, el uso de la inteligencia artificial (IA) por parte de grupos criminales está revolucionando el mundo de las estafas. Delincuentes están aprovechando esta tecnología para crear fraudes más sofisticados, desde la manipulación de in

Tecnología 04/10/2024Santiago JacquatSantiago Jacquat

En América Latina, el uso de la inteligencia artificial (IA) por parte de grupos criminales está revolucionando el mundo de las estafas. Delincuentes están aprovechando esta tecnología para crear fraudes más sofisticados, desde la manipulación de información personal hasta la creación de videos falsos conocidos como deepfakes. Estas técnicas permiten extorsionar a las víctimas de formas nunca antes vistas, afectando tanto a personas comunes como a familias de migrantes.

Cómo los cibercriminales están usando la inteligencia artificial para estafar en América Latina

Cómo funcionan las estafas con IA

La IA ha facilitado a los estafadores el acceso a grandes cantidades de datos personales en redes sociales, como la plataforma X (anteriormente Twitter). Utilizan esta información para crear mensajes dirigidos específicamente a las víctimas, generando confianza y obteniendo más detalles sensibles.

Con la ayuda de herramientas automatizadas, los cibercriminales pueden enviar mensajes en masa, redactados en múltiples idiomas y acompañados de imágenes realistas, todo sin requerir una gran inversión o habilidades técnicas avanzadas. Estas tácticas potencian fraudes tradicionales como el phishing, las estafas románticas o los concursos falsos.

La implicación de grupos criminales en el ciberfraude

Grandes organizaciones delictivas de América Latina, como el Cártel Jalisco Nueva Generación (CJNG) en México y el Primer Comando Capital (PCC) y el Comando Rojo (CV) en Brasil, han incorporado estas técnicas a sus operaciones. Según InSight Crime, estos grupos han adaptado el ciberfraude como una de sus principales estrategias de obtención de ingresos.

El uso de deepfakes y clonación de voz

Una de las aplicaciones más alarmantes de la IA es la creación de deepfakes, imágenes o videos falsos hiperrealistas que son casi indistinguibles de los reales. Los cibercriminales los utilizan para manipular a sus víctimas, mostrándoles escenas falsas de familiares en peligro para pedir rescates.

Además, con solo unos segundos de una conversación, es posible clonar la voz de una persona, reproduciendo fielmente su tono y patrones de habla. Esto permite a los estafadores realizar llamadas falsas, imitando a familiares para extorsionar sin necesidad de llevar a cabo un secuestro físico. Este tipo de estafas son altamente efectivas, ya que generan una gran presión emocional sobre las víctimas.

Estafas a familias de migrantes desaparecidos

En la frontera entre México y Estados Unidos, grupos criminales han implementado un esquema particularmente cruel: se hacen pasar por organizaciones que buscan personas desaparecidas. A través de sitios web fraudulentos, solicitan fotos de los migrantes, y luego crean deepfakes que muestran a estas personas en situaciones ficticias, solicitando un rescate a cambio de su «liberación».

Cómo protegerse de estas estafas

La mejor defensa contra este tipo de fraudes es la educación. Conocer cómo funciona la IA y cómo se están utilizando estas herramientas para manipularnos es clave para no caer en estas trampas. Aprender a identificar mensajes sospechosos, imágenes manipuladas o patrones de fraude digital puede marcar la diferencia.

En un mundo donde las estafas están evolucionando constantemente, mantenerse informado es la principal herramienta de protección frente a estos cibercriminales.

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email