A medida que avanza la inteligencia artificial (IA), también se intensifican las amenazas y estafas que utilizan esta tecnología. Recientemente, una investigación de Wired ha revelado la existencia de canales de reclutamiento en plataformas como Telegram, donde se busca incorporar «modelos de IA» para llevar a cabo estafas románticas. Estas estafas, muchas veces facilitadas mediante la manipulación de imágenes y vídeos conocida como ‘deepfakes’, han permitido a los ciberdelincuentes engañar a sus víctimas de manera más efectiva. A lo largo del artículo, exploraremos cómo funcionan estas estafas, el perfil de los reclutados y ofreceremos consejos para emprendedores y empresas que desean protegerse de estas amenazas.
La Revolución de la IA en las Estafas
Crecimiento de las Estafas Basadas en IA
Con el aumento de la tecnología de inteligencia artificial, los delincuentes están utilizando modelos de IA para difundir estafas sofisticadas. Este sistema incluye la creación de identidades falsas que, a través de técnicas de ‘deepfake’, manipulan la apariencia física para realizar videollamadas reales. Según el investigador de la ciberseguridad Hieu Minh Ngo, las estafas románticas se están convirtiendo en una de las formas más comunes de fraude, utilizando mujeres jóvenes como «modelos de IA» que interactúan con las víctimas.
Reclutamiento a Través de Redes Sociales
Los grupos que ofrecen estas «oportunidades laborales» a menudo se encuentran en plataformas como Telegram, y están dirigidos a personas de diversas partes del mundo, incluidos Europa del Este, América Latina, norte de África y Asia Central. Lo alarmante es que muchas de estas ofertas no son claras sobre la verdadera naturaleza del trabajo, y los reclutadores emplean estrategias engañosas para atraer a sus víctimas.
Cómo Funcionan las Estafas de «Modelos de IA»
Estrategias de Engaño
Los delincuentes utilizan estas «modelos» para establecer relaciones con víctimas a través de redes sociales. El proceso suele incluir:
-
Contacto Inicial: Establecen una relación a través de plataformas como Facebook o Instagram.
-
Videollamadas Falsas: Utilizan tecnología de ‘deepfake’ para realizar videollamadas que parecen legítimas.
- Objetivos Financieros: A través de la relación construida, los estafadores manipulan a las víctimas para que envíen dinero.
Condiciones Laborales de los Modelos de IA
La vida de estos «modelos» es nada menos que problemática. A menudo se les exige trabajar jornadas de hasta doce horas diarias, realizando entre cien y 150 videollamadas al día. Además, se han reportado casos en los que el pasaporte es retenido bajo el pretexto de gestionar permisos de trabajo, lo que puede llevar a situaciones de explotación.
Consejos para Emprendedores y Negocios
-
Educación y Conciencia: Capacita a tu equipo sobre los peligros de las estafas de IA y cómo identificar señales de alerta en reclutamientos o comunicados.
-
Verificación de Imágenes y Videos: Utiliza herramientas para verificar la autenticidad de las imágenes y vídeos antes de establecer conexiones comerciales.
-
Recursos de Seguridad: Implementa sistemas de seguridad robustos que protejan la información de tu negocio y ayuden a evitar ser víctima de fraudes.
- Fomentar un Entorno de Denuncia: Anima a tus empleados a reportar actividades sospechosas sin temor a represalias.
Conclusiones
La combinación de inteligencia artificial y técnicas de engaño ha transformado el panorama del cibercrimen, haciendo que las estafas sean más difíciles de detectar y prevenir. Los «modelos de IA» son solo una pieza en este complicado rompecabezas, que no solo perjudica a las víctimas sino que también plantea un desafío significativo para empresas y emprendedores. Es esencial mantenerse informado, educar a los equipos y desarrollar prácticas que inhiban este tipo de fraudes, garantizando así un entorno de trabajo más seguro y sostenible.