Passer au contenu

L’IA générative et son rôle dans la désinformation moderne

À l’époque du tout numérique, le rôle de l’IA générative dans le processus de désinformation se doit d’être questionné.

La désinformation médiatique n’est pas nouvelle. À l’ère de la surinformation, celle-ci prend simplement une autre ampleur en raison de la multiplicité des canaux d’informations disponibles. L’arrivée récente de l’IA générative bouleverse encore plus ce constat. Quelle est la perception des experts de l’industrie à ce sujet ? Que disent réellement les chiffres sur ce phénomène ?

La désinformation amplifiée par l’IA

Selon une étude menée par l’entreprise Security.org, 90 % des américains questionnés vérifient les informations auxquelles ils sont confrontés. Ils sont 96 % à souhaiter éviter la propagation d’informations falsifiées. Des informations rassurantes, mais ce type de données froides n’est pas spécialement représentatif de la réalité, autrement plus complexe.

Sarah Brandt est vice-présidente des partenariats chez NewsGuard, une entreprise spécialiste des médias et de la désinformation. Selon elle, la création et la diffusion d’informations faussées sont devenues bien plus simples grâce à l’IA générative. Un exemple très récent des dérives possibles est celui de l’affaire de The Irish Times.

Ce ne sont pas de simples paroles en l’air, puisque Newsguard détient des chiffres pour prouver cette affirmation. Au mois de mai, l’entreprise a ainsi identifié 49 sites différents qui relayaient des contenus écrits potentiellement par intelligence artificielle. Le constat ne va pas en s’améliorant puisque depuis, Newsguard en aurait repéré des centaines d’autres. Des contenus écrits présentant des faits difficilement vérifiables.

Newsguard s’était également penché récemment sur Bard et ChatGPT, et avait conclu que ces deux modèles étaient très propices à générer de fausses informations. Plutôt inquiétant lorsqu’on connaît le succès de ces deux programmes.

Des solutions naissantes mais suffisantes ?

Au vu de l’importance du phénomène, les grands acteurs du secteur cherchent des solutions. Nous pouvons citer Adobe par exemple, qui a intégré des mesures de protection dans ses solutions basées sur l’IA générative.

Content Authenticity Initiative est une association qu’Adobe a fondée en partenariat avec le New York Times et Twitter en 2019. Son but est l’établissement de normes de traçabilité des contenus en ligne pour juguler la prolifération de désinformation. Si l’initiative est à saluer, il est très difficile d’affirmer pour le moment qu’elle est efficace.

Sarah Brandt, de son côté semble plutôt optimiste. Elle justifie cette position en expliquant que les entreprises qui développent de l’IA générative seront poussées à développer leurs outils de manière plus éthique si des “incitations économiques” sont formulées à leur encontre. Sanctions gouvernementales, incitations fiscales ou mise en place de partenariats préférentiels par exemple.

L’intelligence artificielle représente un point de pivot dans un vaste processus de transition vers un nouveau paradigme global. Dans ce contexte, une telle technologie porte autant d’avantages que d’inconvénients, voire de dangers. La désinformation est un de ceux-ci, et la solution miracle n’existe pas. Les décideurs politiques et les acteurs privés du secteur de l’IA doivent marcher main dans la main pour trouver le juste équilibre et permettre de limiter les usages problématiques.

  • La propagation de fausses informations est un phénomène que l’IA peut amplifier.
  • Les sites relayant des informations douteuses se multiplient de manière exponentielle depuis que l’IA s’est intégrée au paysage numérique.
  • Des solutions pour contrer le phénomène existent, mais nous manquons actuellement de recul pour nous rendre compte de leur efficacité.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *