Deepfakes : Usurpation et Fraudes

En avril 2024, l'usurpation d'identité assistée par l'IA, notamment à travers les deepfakes, est devenue une préoccupation majeure. Les fraudeurs utilisent des techniques sophistiquées pour contourner les systèmes d'authentification biométrique, créer des documents d'identité faux mais convaincants, et même imiter les voix et les visages de personnes réelles pour accéder à des informations sensibles ou pour commettre des fraudes financières.

Les deepfakes ne se limitent pas à des vidéos truquées de célébrités ; ils représentent une menace sérieuse pour la sécurité financière des entreprises et des particuliers. En février 2024, la multinationale britannique Arup a perdu 25 millions de dollars après qu’un employé a été trompé par une visioconférence falsifiée, où les fraudeurs utilisaient des deepfakes pour se faire passer pour des dirigeants de l’entreprise . Les particuliers ne sont pas épargnés : des escrocs exploitent des deepfakes pour créer de faux profils sur les réseaux sociaux, usurper des identités et orchestrer des arnaques sentimentales, entraînant des pertes financières et des traumatismes émotionnels . Face à cette menace grandissante, il est crucial de renforcer la sensibilisation et de mettre en place des mesures de protection adaptées.

Un exemple récent implique une entreprise multinationale de Hong Kong qui a été victime d’une escroquerie de 25 millions de dollars via l’utilisation de deepfakes. Les fraudeurs ont utilisé des technologies génératives pour créer des données biométriques synthétiques, trompant ainsi les systèmes de reconnaissance faciale et vocale pour accéder à des zones sécurisées et à des comptes en ligne.

Outre les attaques contre les systèmes biométriques, les escrocs ont également exploité des failles dans les interactions sociales courantes. Par exemple, ils ont utilisé des deepfakes pour simuler des vidéos ou des enregistrements vocaux de personnes de confiance, comme des membres de la famille ou des conseillers financiers, incitant ainsi les victimes à divulguer des informations personnelles ou à effectuer des transactions frauduleuses.

Pour se protéger contre ces fraudes, il est crucial de vérifier l’authenticité des sources de communication, d’être sceptique face aux demandes inattendues ou suspectes d’informations personnelles et de renforcer les mesures de sécurité des systèmes d’authentification, notamment en utilisant des méthodes de vérification en plusieurs étapes qui incluent des facteurs non reproductibles par les IA, comme les comportements d’interaction ou les habitudes de navigation (Transmit Security).