Un ciudadano de Shanghái, en China, perdió más de 27.000 dólares (casi 14 millones de colones) luego de ser engañado en una relación virtual con una supuesta pareja, que en realidad fue creada mediante inteligencia artificial, según informaron medios estatales chinos.
Los responsables de la estafa emplearon herramientas de inteligencia artificial generativa para producir videos y fotografías realistas de una mujer inexistente, según reportó la emisora pública CCTV. Convencido de la autenticidad de su relación, el hombre realizó transferencias que sumaron aproximadamente 200.000 yuanes a la cuenta que creyó pertenecía a su pareja.
Los estafadores utilizaron estos contenidos manipulados para persuadirlo de que debía aportar dinero con el fin de financiar un emprendimiento y cubrir gastos médicos de un familiar. Para reforzar su argumento, fabricaron documentos médicos y una identificación falsa. CCTV, citando una investigación de las autoridades, señaló que la operación fue llevada a cabo por un “equipo de estafadores que enviaron videos y fotos creados por IA o combinando múltiples imágenes”.
En un video difundido por CCTV, se exhibieron imágenes de una mujer en distintos escenarios, como sosteniendo una paleta de pinturas y caminando por una calle de la ciudad. Las herramientas de inteligencia artificial que pueden generar contenido visual y escrito con gran nivel de realismo están siendo empleadas en esquemas fraudulentos con creciente frecuencia.
A inicios de este mes, la empresa tecnológica Meta advirtió a los usuarios sobre los riesgos en las citas en línea, indicando que los fraudes con inteligencia artificial generativa van en aumento. Meta alertó a los usuarios sobre el aumento de estafas románticas en línea, en las que delincuentes crean identidades falsas para aprovecharse de personas que buscan pareja. Estas tácticas incluyen el uso de inteligencia artificial generativa para hacer que sus engaños sean más convincentes.
LEA MÁS: Compró una casa en Amazon y la recibió envuelta por correo
“Esta es una nueva herramienta en el arsenal de los estafadores”, afirmó David Agranovich, director de políticas de interrupción de amenazas globales de Meta. Según explicó, los responsables de estos fraudes modifican constantemente sus estrategias, por lo que las plataformas deben actualizar sus métodos de detección. Las aplicaciones de Meta, como Instagram y WhatsApp, utilizan sistemas que identifican comportamientos sospechosos en lugar de enfocarse únicamente en imágenes, lo que les permite detectar la actividad fraudulenta pese a los trucos con IA. Esto hace que nuestra detección y aplicación sean algo más resistentes a la IA generativa”, señaló Agranovich.
Como ejemplo, mencionó una operación desmantelada recientemente que se originó en Camboya y tenía como objetivo personas que hablaban chino y japonés. Investigadores de OpenAI descubrieron que este esquema de fraude empleaba herramientas de la empresa de inteligencia artificial de San Francisco para crear y traducir contenido, de acuerdo con Meta.