Détails de la leçon
Description de la leçon
Dans cette leçon, nous explorons les risques et défis que pose l'intelligence artificielle dans la distinction entre le réel et le virtuel. Grâce à des exemples concrets comme l’affaire MATA contre Avianca et des analyses techniques sur la création de deepfakes, cette vidéo offre aux spectateurs des outils simples et efficaces pour détecter les manipulations d’images, de texte et de sons produits par l’IA générative. La méthode STOP est décrite en détail pour valider les informations : questionner la source, rechercher la trace, analyser les intentions, et exiger des preuves.
Un focus est fait sur le fonctionnement technique des IA, qui ne connaissent pas la vérité mais opèrent via des probabilités. L’importance cruciale du rôle humain est rappelée, invitant à garder un regard critique et à ne jamais déléguer sans vérification finale. Des techniques concrètes permettent d’identifier les erreurs courantes des IA, telles que des anomalies dans les mains, le regard ou le texte dans les images. Enfin, cette leçon incite à adopter une posture éthique de validation systématique, essentielle pour lutter contre la désinformation à l’ère numérique.
Objectifs de cette leçon
L’objectif principal est de fournir une méthodologie pratique permettant de développer son esprit critique face aux productions de l’intelligence artificielle. La leçon vise à enseigner comment reconnaître les faux contenus, appliquer la méthode STOP et garantir une vérification rigoureuse des informations.
Prérequis pour cette leçon
Une culture numérique de base et une utilisation régulière d’Internet sont suffisantes. Aucune compétence technique avancée n’est requise, mais une curiosité sur les enjeux de l’intelligence artificielle est recommandée.
Métiers concernés
Les journalistes, community managers, responsables communication, enseignants, juristes, analystes en cybersécurité, ainsi que tout professionnel de la veille et de la gestion de l’information sont particulièrement concernés par ces enjeux.
Alternatives et ressources
En complément de la méthode STOP, il est possible d’utiliser des outils de vérification d’images tels que Google Images, TinEye, ou des modules d’analyse de deepfakes comme Deepware Scanner. Côté textes, l’usage de fact-checkers reconnus (AFP, Le Monde, CheckNews) est conseillé.