Les progrès technologiques dans la façon dont nous créons et consommons les médias ont transformé à maintes reprises la façon dont les campagnes électorales sont menées : les médias sociaux, la télévision et la radio ont tous été des révolutions en leur temps. On s’est toujours inquiété de l’impact que ces nouvelles technologies auraient sur la démocratie : le Milwaukee Journal s’inquiétait après le premier débat présidentiel télévisé, en 1960, que « la campagne présidentielle américaine ne sera plus jamais la même ». Peut-être avaient-ils raison...
Il est clair que 2024 restera dans les mémoires comme une grande année pour la démocratie, avec des élections dans 64 pays, ainsi que dans l’Union européenne, et la dernière technologie perturbatrice est l’IA. Cette année, nous assistons à une utilisation accrue de l’IA générative pour créer des deep fakes, des vidéos qui semblent réelles, mais qui ont en fait été créées artificiellement, souvent pour diffuser de la mésinformation ou de la désinformation. Les deep fakes sont des outils puissants et, avec l’évolution rapide de la technologie de l’IA et l’élargissement de l’accès à celle-ci, il existe des dangers potentiels évidents non seulement pour la prise de décision démocratique, mais aussi pour les consommateurs et les entreprises.
C’est dans cet esprit que je me suis entretenu avec nos experts internes David Fairman (un Australien et notre DSI APAC) et Shamla Naidoo (un Sud-Africain américain et conseiller CXO), pour entendre leurs réflexions sur les problèmes de sécurité potentiels engendrés par la technologie pendant ces élections mondiales, ce que ces développements technologiques pourraient signifier pour les personnes et les entreprises. et comment nous pouvons nous protéger en tant qu’individus.
Emily: David, pour commencer, qu’est-ce que les deep fakes et comment sont-ils déployés ?
David: Les deep fakes sont des images, des vidéos et des fichiers audio créés par l’intelligence artificielle générative qui manipulent l’image d’une personne donnée pour lui donner l’impression de faire ou de dire quelque chose qu’elle n’a pas fait en réalité. Non seulement ils propagent de la désinformation et des mensonges, mais ils sont également de plus en plus faciles et peu coûteux à fabriquer. Tout ce dont vous avez besoin, c’est du bon logiciel et des documents sources, tels que des images et des vidéos accessibles au public d’une personne, pour informer l’outil d’IA.
Dans le cas des politiciens, ce matériel est très facile à trouver, mais de plus en plus de chefs d’entreprise, de célébrités et, franchement, toute personne qui utilise les médias sociaux pourraient être une victime de deepfake. Aujourd’hui, comme nous consommons principalement des médias via de courtes vidéos rapidement absorbées, les deepfakes peuvent être très convaincants, surtout pour un œil non averti. Au fur et à mesure que la technologie évolue, il deviendra encore plus difficile de les distinguer et de dire quel contenu est réel et ce qui ne l’est pas.
Emily: Shamla, comment les mauvais acteurs les utilisent-ils pendant les élections ?
Shamla : Nous assistons à des deep fakes dans de nombreuses démocraties à l’approche des élections, en particulier pendant les périodes de campagne souvent chargées d’émotion, et le but ultime est d’influencer nos décisions de vote. Toutes nos décisions, que nous en soyons conscients ou non, sont influencées par ce que nous voyons et entendons au quotidien. Et dans une campagne électorale, un contenu deep fake lié à un sujet clé peut affecter nos décisions sur qui nous votons et, en fin de compte, qui finit par arriver au pouvoir.
Parce que les deep fakes sont bon marché et assez simples à fabriquer, ils présentent une énorme opportunité pour les mauvais acteurs qui ont intérêt à ce qu’une population vote (ou ne vote pas) pour un candidat particulier.
Emily: Comment les deep fakes sont-ils gérés par les victimes dans le monde politique ?
Shamla : Bien qu’ils soient de plus en plus courants, les deep fakes sont traités au cas par cas dans la plupart des démocraties, considérés fondamentalement comme un problème de gestion de la réputation des candidats, car la désinformation est souvent de nature personnelle et scandaleuse. Cela minimise peut-être le pouvoir de ces campagnes, car chacune d’entre elles est créée avec un objectif plus large en tête.
Plus les deep fakes deviendront prolifiques (et à mes yeux, il est inévitable qu’ils deviendront plus courants), plus nous devrons éduquer et mettre en place des systèmes pour nous assurer que les gens et les plateformes vérifient les informations – et les sources.
Emily: Qu’en est-il des affaires, David, en quoi les deep fakes représentent-ils une menace pour les entreprises et comment les organisations gèrent-elles les premiers incidents signalés ?
David: Il s’agit d’une menace très nouvelle pour les entreprises, mais d’un défi qui va prendre de l’ampleur. Je pense que les entreprises devront se prémunir contre l’utilisation de deepfakes pour se faire passer pour des cadres supérieurs au sein d’une entreprise. Les attaques d’ingénierie sociale, dans lesquelles les criminels se font passer pour quelqu’un, souvent une autorité ou une personne de confiance, afin d’inciter les gens à transférer de l’argent, à accorder l’accès ou à transférer des informations, constituent déjà un danger. Au fur et à mesure que la technologie de l’IA se développe, il deviendra encore plus difficile de différencier un véritable appel d’un cadre supérieur d’un faux, et le potentiel pour les acteurs malveillants de duper des victimes sans méfiance sera donc beaucoup plus grand.
Emily: Tout cela semble assez pessimiste. Mais j’espère que ce n’est pas le cas. Vraiment? S’il vous plaît, dites-moi que ce n’est pas...
Shamla : Le fait qu’il soit si difficile de savoir ce qui a été généré par l’IA et ce qui ne l’a pas fait rend difficile pour les consommateurs individuels de savoir quoi faire au-delà de la prudence !
Mais heureusement, tout n’est pas aussi mauvais qu’il n’y paraît. Nous commençons à voir des plateformes de médias sociaux étiqueter du contenu qui a été créé artificiellement afin que nous puissions savoir si le contenu est réel ou non avant de le partager ou de l’aimer.
Cela dit, nous pouvons toujours viser à en faire plus. Je pense que nous devons commencer à voir les gouvernements prendre des mesures sérieuses pour mettre en œuvre une législation sur l’IA – à l’instar de l’approche adoptée par l’Union européenne avec sa loi sur l’intelligence artificielle, et introduire des exigences juridiquement contraignantes qui atténueront les risques liés à l’IA. Ce n’est qu’alors que nous serons en mesure de contrôler l’utilisation de l’IA dans ce contexte et les risques qui y sont associés.
Emily: David, et qu’en est-il dans les entreprises ?
David: Comme je l’ai mentionné, les attaques d’ingénierie sociale sont une façon particulièrement dangereuse d’utiliser les deep fakes. Cependant, si les entreprises se trouvent dans des situations où elles ne savent pas à 100% si elles ont été attaquées ou non, elles devraient alors établir une procédure dite de rappel qui permet aux employés de vérifier s’il y a un criminel derrière une attaque ou si la demande (dans le cas où une personne de confiance a demandé une chose particulière) est légitime.
L’avantage de cette procédure est qu’elle ne repose pas sur la capacité à repérer que l’audio ou la vidéo est faux, mais simplement sur le sentiment que le message est inhabituel ou vous demande de faire quelque chose qui sort de l’ordinaire.
Emily: Ah, tout cela est incroyablement utile ! Merci à tous les deux pour votre temps et pour ces précieuses informations.
Bien que les deep fakes ne soient que la dernière innovation technologique à remettre en question les processus électoraux et l’équité (et à avoir un impact potentiel sur les entreprises), ils se sentent différents à la fois dans la vitesse à laquelle ils évoluent et s’améliorent, et dans la mesure dans laquelle ils exercent une influence potentiellement significative entre les mains de mauvais acteurs anonymes. Alors que les élections sont en cours dans le monde entier, assurons-nous de vérifier d’où viennent nos informations et si nous pouvons leur faire confiance.
Pour plus d’informations sur les élections, la désinformation et la sécurité, consultez notre podcast avec Shamla ici, ou partout où vous écoutez vos podcasts.