-
Estafadores usan IA para crear deepfakes con los que buscan eludir la verificaciรณn KYC.
-
Proteger la privacidad y el anonimato es cada vez mรกs necesario.
Ante la histeria colectiva que se ha desatado en el mundo con la Inteligencia Artificial (IA), pocos estรกn hablando sobre los peligros, aunque esta representa un riesgo creciente para los usuarios de bitcoin (BTC) y otras criptomonedas que operan en exchanges.
Los estafadores utilizan, cada vez mรกs, las herramientas de IA para crear deepfakes con los que buscan eludir la verificaciรณn KYC (Conozca a su cliente) de las casas de cambio. Asรญ lo advierte Jimmy Su, director de seguridad de Binance, el exchange de criptomonedas con mayor volumen de comercio a nivel global.
ยซEl estafador buscarรก en Internet una foto normal de la vรญctima. En base a eso, puede producir videos utilizando herramientas de falsificaciรณn profunda para evadir la verificaciรณnยป, dijo Su, segรบn una publicaciรณn de Cointelegraph.
Detallando el modus operandi que usan los estafadores, Su aรฑade que las herramientas de IA se han vuelto tan sofisticadas que incluso pueden responder a instrucciones de audio diseรฑadas para verificar que el solicitante es humano. De hecho, ya existe un software que puede hacer esto en tiempo real.
ยซPor ejemplo, requiere que el usuario parpadee con el ojo izquierdo, o que mire a la izquierda, a la derecha, hacia arriba o hacia abajo. Los deepfakes ahora son tan avanzados que en realidad pueden ejecutar estos comandosยป, agregรณ el jefe de seguridad.
Su aรฑadiรณ que, aunque la IA es cada vez mรกs avanzada, โaรบn no estรก al nivel en el que pueda engaรฑar a un operador humanoโ porque no es indistinguible de la realidad.
David Schwed, el director de operaciones de la firma de seguridad blockchain Halborn sugiere que una forma รบtil de detectar rรกpidamente un deepfake es observar cuando el sujeto parpadea. Si parece antinatural, es muy probable que se trate de un video manipulado con intenciones fraudulentas.
Esto se debe al hecho de que los videos ultrafalsos se generan utilizando archivos de imagen obtenidos en Internet, donde el sujeto generalmente tendrรก los ojos abiertos, explica Schwed. Por lo tanto, en un deepfake, se debe simular el parpadeo de los ojos del sujeto.
Otra fรณrmula que pueden implementar los usuarios para evitar el deepfake, es mejorar la privacidad y el anonimato, aunque curiosamente estas medidas de seguridad entran en conflicto con el uso de exchange centralizados que implementan procedimientos KYC.
Cuidado con los deppfakes que pescan criptomonedas
La firma de seguridad Kaspersky tambiรฉn estรก alertando sobre los deepfakes para llevar a cabo diversas estafas, como el fraude con criptomonedas, o evadir la seguridad biomรฉtrica.
En algunos casos los estafadores utilizan imรกgenes de famosos o mezclan videos antiguos para hacer transmisiones en vivo en redes sociales. En ellas muestran una pรกgina prediseรฑada en la que piden a las vรญctimas transferir cierta cantidad en criptomonedas, prometiendo que duplicarรกn cualquier pago que se les envรญe. Como resultado, las vรญctimas de estas estafas pierden todo el monto transferido.
Ante ello, Kaspersky recomienda mantenerse alerta con respecto a las amenazas relacionadas con los deepfakes para evitar convertirse en una vรญctima. En ese sentido sugiere estar atentos a los movimientos bruscos que se producen en los videos.
Algunos de estos cambios bruscos son alteraciones en la iluminaciรณn de un fotograma a otro, cambios en el tono de la piel de las personas, parpadeo extraรฑo o ausencia total de parpadeo. Tambiรฉn recomienda observar si hay labios mal sincronizados con el habla, artefactos digitales en la imagen, asรญ como videos intencionalmente codificados en baja calidad y con mala iluminaciรณn.
Por otro lado, se aconseja mantener una actitud escรฉptica ante los mensajes de voz y los videos, lo cual no garantizarรก que la gente nunca sea engaรฑada, pero puede ayudar a evitar muchas de las trampas mรกs comunes. Ante todo, lo mejor serรก verificar antes que confiar, seรฑala Kaspersky.