Un exemple récent implique une entreprise multinationale de Hong Kong qui a été victime d’une escroquerie de 25 millions de dollars via l’utilisation de deepfakes. Les fraudeurs ont utilisé des technologies génératives pour créer des données biométriques synthétiques, trompant ainsi les systèmes de reconnaissance faciale et vocale pour accéder à des zones sécurisées et à des comptes en ligne.
Outre les attaques contre les systèmes biométriques, les escrocs ont également exploité des failles dans les interactions sociales courantes. Par exemple, ils ont utilisé des deepfakes pour simuler des vidéos ou des enregistrements vocaux de personnes de confiance, comme des membres de la famille ou des conseillers financiers, incitant ainsi les victimes à divulguer des informations personnelles ou à effectuer des transactions frauduleuses.
Pour se protéger contre ces fraudes, il est crucial de vérifier l’authenticité des sources de communication, d’être sceptique face aux demandes inattendues ou suspectes d’informations personnelles et de renforcer les mesures de sécurité des systèmes d’authentification, notamment en utilisant des méthodes de vérification en plusieurs étapes qui incluent des facteurs non reproductibles par les IA, comme les comportements d’interaction ou les habitudes de navigation (Transmit Security).