Comment distinguer le vrai du faux à l’ère de l’IA

distinguer-vrai-faux-ere-IA
Le 15 février dernier, l’entreprise californienne OpenAI annonçait en grande trombe sur les réseaux sociaux le lancement imminent d’une nouvelle application d’intelligence artificielle (IA) du nom de SORA
 
Selon ses créateurs, il s’agirait d’un modèle d’IA générative capable de produire des vidéos numériques d’une qualité exceptionnelle à partir de simples requêtes textuelles (appelées prompts en anglais). Très concrètement, SORA pourrait produire de fausses vidéos hyper-réalistes de près d’une minute à l’aide de quelques instructions visuelles et graphiques.
 
Mais comment pourra-t-on distinguer les productions visuelles de l’IA des faits authentiques filmés par des humains ?
 
Cette question n’est en rien nouvelle à l’ère des deepfakes ou hypertrucages, mais avec les avancées fulgurantes de l’IA au cours des derniers mois, elle se pose avec d’autant plus d’acuité.
 
Explorons ensemble l’impact concret de cette technologie sur nos démocratie et demandons-nous comment faire la part du vrai et du faux à l’heure de l’intelligence artificielle générative.
 
 

L'ère de la désinformation numérique

Les progrès en intelligence artificielle ont conduit à une explosion de faux contenus : images, vidéos, textes et sons, désormais indiscernables de contenus originaux. Les hypertrucages, en particulier, ont montré qu’il était possible de tromper même des observateurs attentifs, avec des implications profondes pour la gestion de l’information dans nos démocraties.

Face à cet enjeu, la France a d’ailleurs mis sur pied en 2021 l’organisme Viginum pour lutter contre les ingérences étrangères dans le domaine du numérique. Grâce à son travail de veille stratégique, on découvre que les hypertrucages ne sont pas de simples canulars qui visent à dénigrer une personnalité ou détourner le sens d’une information. Il peut s’agir d’une arme utilisée par des États voyous afin de déstabiliser le jeu politique des pays démocratiques.

deepfakes
Un test de l’organisme de sondage l’IFOP sur un échantillon de 2000 Français démontre leur difficulté à discerner le vrai du faux. Sur 5 images montrées, toutes générées par l’IA, 75% ont cru à l’authenticité d’un portrait de médecin et 64% à celle d’une vieille photo d’homme à cheval. Une étude commanditée par Alucare.fr.

Les médias traditionnels sont souvent les premières victimes des pièges tendus par les deepfakes produits par des États ou groupes malveillants, tels que ceux soutenus ou financés par la Russie. En février dernier, par exemple, la chaîne de télévision publique France 24 en a fait les frais. Une vidéo détournant l’un de ses formats habituels a propagé une fausse nouvelle sur Emmanuel Macron, annonçant qu’il avait annulé  sa visite en Ukraine « à la suite d’une provocation meurtrière à son encontre », autrement dit une potentielle tentative d’assassinat.

Comment distinguer le vrai du faux ?

Face au défi majeur de la désinformation impulsée par l’IA générative, on se sent souvent démunis et même désespérés. Et pourtant, les armes existent pour essayer au mieux de se protéger des fausses nouvelles et de développer l’esprit critique de toutes les générations, à commencer par les plus jeunes.

Voici trois stratégies clés à enseigner pour évaluer la véracité d’un contenu dans l’ère de l’IA :

  • Cibler les erreurs types : On peut reconnaître des anomalies dans les productions de l’IA, telles que les déformations des mains, les incohérences de détails, les erreurs textuelles qui trahissent souvent une origine artificielle.
  • Vérifier et contre-vérifier les sources : Il s’agit d’une pratique journalistique classique qui est malheureusement peu connue des personnes qui relaient des informations sur les réseaux sociaux sans toujours connaître leur origine. Chaque information doit être croiser avec d’autres sources afin de s’assurer non seulement qu’elle est vraie mais également que son contenu est complet et précis.
  • Utiliser des services de vérification éprouvés : Alors que le monde anglophone a son FactCheck.org, Radio-Canada s’est doté de ses Décrypteurs, l’Agence Science-Presse de son Détecteur de rumeurs. C’est fort intéressant et utile d’y faire un tour régulièrement.

Finalement, on en revient toujours à la même conclusion : sans éducation critique aux médias et sans une formation continue au développement de l’esprit critique, la lutte contre la désinformation à l’ère de l’IA se fera avec des armes très inégales. La technologie ne cessera jamais de nous surprendre et de nous dépasser en matière de production de contenus. À nous de démontrer notre valeur et notre utilité pour nous assurer que ces contenus viennent véritablement nous informer et nous enrichir, au lieu de nous détromper et de nous influencer négativement.

Facebook
Twitter
LinkedIn
Email

Dernières publications

Obrigado por entrar em contato conosco! Em breve entraremos em contato.

Um erro aconteceu

Usamos apenas suas informações pra entrar em contato contigo e nada mais.