Aller au menu Aller au contenu Aller au pied de page

Réapprendre à informer dans un monde façonné par l’IA

Facebook
X
LinkedIn

Réapprendre à informer dans un monde façonné par l’IA

L’apparition des IA génératives accessibles au grand public marque un tournant dans notre rapport à l’information. C’est dans ce contexte qu’a été organisé le 30 janvier 2026 le webinaire « Éducation aux médias et à l’information à l’ère de l’IA », animé par La Maison de l’IA en collaboration avec l’AMCSTI (réseau national de la culture scientifique, technique et industrielle).

Retour sur ce qu’a présenté La Maison de l’IA lors de cette première action en tant que membre de l’association.

Adopté à l’unanimité

Depuis 2022 et l’arrivée de ChatGPT, un modèle de langage accessible gratuitement, la production de contenus générés par IA a explosé dans l’ensemble des médias, à savoir sur les réseaux sociaux, les sites internet, les journaux, les articles en ligne etc.

En deux mois seulement, ChatGPT atteignait les 100 millions d’utilisateurs, illustrant l’appropriation massive de ces outils par le grand public.

Aujourd’hui, le marché de l’IA générative s’est considérablement diversifié, avec de nombreux modèles spécialisés selon les usages : texte, image, vidéo ou audio.

Cette démocratisation s’explique notamment par :

  • La qualité perçue des contenus produits ;
  • La rapidité de production ;
  • Le coût financier quasi nul.

En quelques minutes, il est possible de produire un article complet avec les visuels associés, un avantage stratégique majeur pour les secteurs où la production de contenus à grande échelle est devenue centrale.

Les problématiques associées

Cependant, cet usage massif de l’IA générative soulève de nombreuses problématiques en matière d’éducation aux médias et à l’information. La première concerne la désinformation et la prolifération des fake news.

Grâce à l’IA, celles-ci peuvent être produites rapidement, en grande quantité et de manière ciblée, en adaptant le message à un public particulier. Les contenus générés présentent souvent une apparence « propre » : textes bien structurés, sans fautes d’orthographe, images réalistes, ce qui renforce leur crédibilité apparente.

À cela s’ajoute une saturation informationnelle croissante : bots conversationnels, spams, faux avis, fermes de commentaires ou appels frauduleux rendent la distinction entre information fiable et contenu manipulé de plus en plus complexe.

La rareté de l’information laisse place à une logique de volume, où la recherche du buzz prime sur la confiance. Enfin, les algorithmes de recommandation, davantage liés à l’IA prédictive, orientent les contenus selon nos profils, contribuant à l’enfermement dans des bulles informationnelles qui limitent la diversité des points de vue.

Comment vérifier une information générée

La vérification factuelle reste une étape clé dans la détection de faux contenus : croiser les sources, s’appuyer sur des médias reconnus et consulter des plateformes spécialisées. Mais face à l’essor de l’IA, il devient essentiel d’accroître sa vigilance afin de reconnaître les contenus générés ou manipulés. Plusieurs indices peuvent alerter :

  • Des détails incohérents dans les images tels que les mains, oreilles, ombres, ou arrière-plans ;
  • Un style trop parfait, générique ou excessivement émotionnel ;
  • Un contexte flou, marqué par l’absence de sources, d’auteur identifié, de date ou de lieu vérifiable est également un indice.

Cependant, il est de plus en plus compliqué d’identifier à l’œil nu une information générée. Il faut désormais s’appuyer sur des outils de détection intégrant également de l’IA pour dévoiler un deepfake ou une fake news. Cette solution est notamment développée par UncovAI, une startup niçoise. Sa plateforme de détection de contenus générés par IA utilise un modèle propriétaire léger, développé en interne, qui garantit une détection précise sans les fortes consommations énergétiques des méthodes traditionnelles.

(c) La Maison de l'IA

Parler d’IA aux publics

La sensibilisation des publics, et en particulier des jeunes, apparaît comme un enjeu majeur. L’usage non encadré de l’IA peut entraîner une dépendance, une baisse de l’effort d’apprentissage, de la créativité et une perte de l’esprit critique, liées à une confiance aveugle dans les réponses générées.

Les risques sont également sociaux et émotionnels : harcèlement via des deepfakes ou des montages humiliants, usurpation de voix, propagande ciblant les émotions et les insécurités, ou encore attachement excessif à des chatbots pouvant conduire à l’isolement.

Les méthodes de médiation proposées reposent sur des axes complémentaires.

Dans un premier temps : comprendre son fonctionnement en revenant sur l’histoire, les définitions de l’IA et ses mécanismes. Puis en démystifiant l’IA : rappeler ses limites, parler des hallucinations, des biais issus des données, des spécialisations des modèles etc. Enfin, il est essentiel de manipuler les outils, à travers des démonstrations concrètes et des sensibilisations à l’IA au sens large.

Ces approches sont autant de leviers déployés et utilisés par La Maison de l’IA pour former des citoyens éclairés, capables d’exercer un regard critique sur l’information à l’ère de l’intelligence artificielle.

Eloïse LUTZ, Chargée de projets IA à La Maison de l’IA