Début 2024 à Hong Kong, 200 millions de dollars locaux (soit près de 24 millions d’euros) ont été détournés des fonds d’une entreprise au profit de cybercriminels à l'aide d'un deepfake, une vidéo manipulée par des techniques d'intelligence artificielle, pour faire apparaître des personnes en train de dire ou de faire des choses qu'elles n'ont jamais dites ou faites… L’histoire débute ainsi : un salarié de la firme, collaborateur de la direction financière, reçoit un email l’invitant à une réunion en visioconférence avec son directeur financier et d’autres collègues. Le salarié a quelques doutes et pense à du phishing en raison d’une mention indiquant qu’il serait nécessaire d’effectuer une transaction. Mais ayant rejoint l’appel vidéo, il se sent rassuré : les autres participants ressemblent et parlent à des collègues qu’il reconnait. Convaincu, le salarié transfère les fonds demandés.
Cette histoire, extraordinaire par le montant escroqué, n’est qu’un exemple d’une pratique qui s’est accentuée avec le développement du distanciel depuis la pandémie du Covid19 : grâce aux visioconférences, les cybercriminels ont pu récupérer de nombreuses données biométriques, c’est-à-dire des caractéristiques physiques, biologiques, voire comportementales permettant d'identifier une personne. Dans la même logique, des voix, vraies ou fausses, peuvent aussi être créées et juxtaposées sur les vidéos. Et une simple photo suffit pour en créer une nouvelle.
Technologie apprenante, le champ des possibles de l’IA semble infini. Dans notre quotidien mais aussi dans le champ des cyberattaques, les données étant de plus en plus nombreuses et accessibles. Reste qu’en matière de cybersécurité, la montée en puissance de l’IA est à double tranchant : si elle peut rendre plus efficaces les cyberattaques, elle permet aussi de détecter et de contrer les menaces.