Alors, vrai ou faux ?
“De toute façon, ça se voit tout de suite si c’est un contenu généré par une IA, non ?”
🙅🏼♀️ Faux.
En 2023, le jury du Sony World Photography Award octroie, sans le savoir, le premier prix à …une image générée par DALL-E : “The Electrician”, du photographe allemand Boris Eldagsen ! 🖼️
Faire confiance (ou non) aux contenus créés par l’IA générative
À l’instar de ce jury, vous faites peut-être partie des 73% de consommateurs et consommatrices dans le monde qui font confiance aux contenus créés par l’IA générative. Ce chiffre est à prendre avec des pincettes car le sujet évolue vite, mais il interpelle sur l’enjeu de véracité des informations délivrées. Si cet enjeu n’est pas nouveau, il prend plus d’ampleur maintenant que ces outils sont ouverts au grand public !
👉 La capacité à générer du texte au style fluide peut donner l’illusion d’une information authentique, alors que celle-ci est trompeuse ! Lorsqu'une IA invente des informations sans référence à une source fiable, on dit qu'elle “hallucine”.
On vous invite à faire le test : demandez à une IA générative de produire une citation d’un membre de votre famille (inconnu du grand public). Il est probable qu’elle vous propose une déclaration crédible, bien qu’elle ne s’appuie sur aucune source fiable.
💡 Astuce : il suffit parfois de demander à l’IA sur quelle source elle s’appuie pour contourner le problème !
Plus glaçant encore, certaines IA reproduisent de manière convaincante la voix de vos proches. Cloner une voix n'est plus de la science-fiction ! Il suffirait d'un échantillon audio de 3 secondes, comme une vidéo TikTok, pour imiter parfaitement une voix unique… et il existe une dizaine d’outils accessibles gratuitement pour le faire. 😱
D’ailleurs, selon une étude menée par McAfee, un quart des Français et Françaises aurait déjà été victimes ou témoins par un proche d’une arnaque via un clonage de la voix par IA !
Existe-t-il des moyens de lutter contre ces faux ?
C’est l’objectif du travail mené à l’Université Washington de St. Louis pour mettre au point le système “AntiFake”. Il s'agit d’un filtre, qui ajoute de légères perturbations à un clip audio après son enregistrement mais avant sa publication en ligne. Bien que la différence soit imperceptible pour l'oreille humaine, ces modifications brouillent les signaux utilisés par les outils d'IA dans la reproduction d’une voix.
Il s’agit pour le moment d’un outil de recherche, mais le code est déjà accessible librement en ligne… s’il vous prend l’envie de protéger votre voix. 🎤