Los Deepfakes representan el lado oscuro de la inteligencia artificial (IA), amenazando ecosistema global de comercio en línea, el cual ha cambiado fundamentalmente la forma en que el mundo realiza transacciones. Pero ¿Qué son los Deepfakes y hay alguna manera de detenerlos?
Los Deepfakes son imágenes y videos generados por la IA que imitan a una persona real con tal precisión que engañan al espectador. Recientemente, en Colombia se conoció un caso de deepfake con el futbolista Luis Díaz. A través de un video en Instagram, el jugador, aparentemente, daba una entrevista a un noticiero hablando de un proyecto que invitaba a usuarios a ganar dinero e independizarse económicamente y los guiaba a un enlace donde se completaba la estafa. Los deepfakes también se han utilizado para influir en las elecciones en Estados Unidos y es probable que veamos más de estas acciones en el futuro.
Los verdaderos peligros de los deepfakes van más allá de la difusión de información falsa; están amenazando la seguridad del onboarding digital y el comercio en línea. El onboarding digital es el proceso y la interfaz entre los proveedores de servicios en línea y los nuevos clientes que desean utilizar los servicios. Debido a que a menudo se involucran transacciones financieras, se utiliza tecnología para asegurarse de que las personas con las que se hace negocio sean quienes dicen ser y no estafadores.
La verificación de identidad a menudo se reconfirma a lo largo de la relación entre el cliente y el proveedor de servicio. Esto se conoce como Know Your Customer (KYC), y ahora es un requisito legal en casi todos los países. No solo está diseñado para prevenir fraudes y mala conducta financiera, sino que también es una herramienta importante para prevenir el lavado de dinero y sus problemas asociados.
Inicialmente, el KYC involucraba una verificación simple donde la foto del cliente coincidía con la de sus documentos de identidad. Pero con la explosión de las transacciones en línea y el consiguiente aumento de casos de fraude, ha evolucionado hacia un proceso de verificación biométrica sofisticado que es muy preciso y sin esfuerzo por parte del cliente.
La biometría, tal como se usa en KYC, funciona como una especie de huella facial. Esto va más allá de comparar dos fotografías para asegurarse de que parecen la misma persona y, en su lugar, mide y compara características faciales únicas para verificar que es una persona real interactuando contigo, y que coinciden tanto la biometría de su selfie en vivo como su documento de identificación. El reconocimiento de voz es otra forma efectiva de verificación biométrica, y usar ambas juntas fortalecerán el proceso a través de los canales. Al igual que con todos los métodos de verificación de identidad, la detección de fraude no solo depende de una imagen o biometría, sino que también considera factores como el riesgo del dispositivo, las verificaciones digitales y las alertas de identidad en bases de datos y consorcios. El auge de los deepfakes ha añadido incertidumbre a este proceso, requiriendo medidas adicionales para ayudar a asegurar que las actividades fraudulentas sean frustradas en el proceso.
El fraude con deepfakes se convirtió en una amenaza significativa en 2022 y se incrementó diez veces en 2023. El año pasado, aproximadamente el 88% de los casos de deepfake ocurrieron en el sector de criptomonedas y el 8% en FinTech. El fraude con deepfakes creció un 1,740% en Norte América; un 1,530% en Asia - Pacífico; y un 780% en Europa durante ese período.
En 2023, el costo de los deepfakes variaba entre $300 y $20,000 USD por minuto, dependiendo de la calidad y otros factores. Este costo ha bajado a $100 USD, ya que las bandas comenzaron a ofrecer la tecnología bajo suscripción —literalmente el crimen como servicio.
Según el Informe de Fraude de Identidad existen tres tipos de deepfakes: intercambios de rostros, imágenes generadas artificialmente y videos de sincronización labial.
Un pequeño número de estafadores es responsable de la mayoría de los ataques deepfakes, y tienden a centrarse en un solo objetivo o grupo pequeño de objetivos a la vez. Dicho esto, un solo estafador puede usar IA para producir deepfakes a gran escala, enviando cientos o más identidades deepfake en un corto período de tiempo.
Una sola imagen, real o artificial, puede convertirse rápidamente en muchas otras, cambiando la edad y alterando características para mostrar diferentes orígenes étnicos. Los delincuentes cibernéticos utilizan ataques de inyección para eludir el software de detección de fraude biométrico y las medidas de seguridad, insertando directamente Identificaciones falsas en el sistema de seguridad.
Estos dos métodos permiten a los delincuentes cibernéticos intentar fraudes a gran escala. 2
La guerra contra el fraude nunca termina y los deepfakes son solo la última batalla. Al igual que con todos los métodos de detección de fraude, es vital utilizar tres o más fuentes de autenticación, lo que obliga a los estafadores a alterar o eludir todas estas fuentes con éxito.
Al mismo tiempo, los clientes esperan que el método de verificación sea rápidos y fácil, con muy poca fricción. Y la entidad que verifica la identidad no puede rechazar a un cliente debido a una advertencia de fraude errónea en alguna de estas fuentes de identidad.
Crear deepfakes utiliza algoritmos complejos, uno para crear imágenes falsas y otro para probar su autenticidad. Dado que involucra aprendizaje automático, estos algoritmos siguen mejorando hasta que los deepfakes no pueden ser detectados por los humanos.
La detección de fraude utiliza el mismo proceso de IA pero está entrenada para seguir mejorando en la detección de deepfakes. Esto se incorpora en un enfoque robusto que analiza el movimiento facial, las expresiones y las características de voz y audio.
Además de la detección de fraude, la IA, la detección de vitalidad, el video o el movimiento son incorporadas en la evaluación biométrica. Esto hace más difícil para los estafadores cometer delitos y presenta solo una baja fricción para los clientes.
Los especialistas en detección de fraude utilizan entornos de software avanzados con detección de fraude incorporada, añadiendo dificultad para los estafadores que intentan subir deepfakes. También aplican verificación cruzada de dispositivos, como entre una PC y un móvil, lo que reduce las posibilidades de videos pregrabados, emuladores y cámaras web falsas.
La batalla entre estafadores y quienes trabajan para combatir el fraude continúa. Hay mucho dinero en juego con los deepfakes sofisticados, lo que significa que se necesitan inversiones significativas en tecnología de detección de fraude. Los negocios en línea están prosperando con el aumento exponencial del comercio digital, pero pueden perder mucha reputación, confianza en los clientes y dinero.
Vencer al fraude requiere experiencia especializada, sistemas de detección de fraude multicapa y una inversión significativa y continua en tecnología.
We're sorry, your request failed. Please try again in a little while.