A la dernière session de l’ « ANP Academy », qui s’est tenue jeudi 17 octobre 2024, dans les locaux de l’Autorité nationale de la presse (ANP), il a été question d’instruire les acteurs des médias sur la façon de détecter voire démasquer des articles, photos et vidéos générés par l’intelligence artificielle. Des productions dont des journalistes pourraient, à tort, s’attribuer la paternité avec l’intention de tromper soit leur hiérarchie soit l’opinion.
Comment trier le vrai du faux
Selon le journaliste-fact-checker à l’AFP, Suy Kahofi, venu partager son expérience en la matière, on peut détecter un contenu généré par l’IA en faisant par exemple une recherche par image inversée ou par mots-clés ou en faisant attention à des détails ou encore à la source ou simplement en faisant appel à son bon sens. Par ailleurs, plusieurs outils sont aujourd’hui à la portée du journaliste et même du public pour vérifier si l’article qu’un journaliste prétend avoir écrit de lui-même a été généré par l’intelligence artificielle. Il s’agit, entre autres, de GPT Zero, Corrector App, Writer, Content at Scale, Copyleaks, Sapling, Crossplag, Draf & Goal.
Appliqué à un texte tiré d’un site d’information local, Draf & Goal a permis de montrer que ce texte a été produit par un humain et donc n’a pas été généré par l’intelligence artificielle. Un rédacteur en chef peut ainsi s’apercevoir qu’un article, signé de son collaborateur, a été en réalité généré par l’IA. Cela est également possible pour une certaine catégorie de citoyens, plus regardants sur la question de l’authenticité de la production, a prévenu l’orateur. Qui a, par ailleurs, cité quelques outils permettant également de détecter des vidéos générées par l’IA, que des journalistes pourraient faire passer pour des productions qui leur sont propres ou simplement pour savoir si ces vidéos ont été générées par l’IA alors qu’on veut les faire passer pour authentiques. Il s’agit, entre autres, de Deapware, PyTorch, TransorFlow, Sensity, Hive, Illuminarty.
Indices pour reconnaître un contenu généré par IA
Au-delà de l’utilisation de ces outils, le conférencier a attiré l’attention des participants sur la nécessité de faire jouer son bon sens devant tout texte qu’on soupçonne d’avoir été généré par l’IA. Pour affiner le discernement, il a proposé de faire attention à cinq indices au nombre desquels : le fait qu’il n’y ait aucune faute de syntaxe dans le texte ; le fait que le texte soit dénué d’un style d’écriture à la manière d’un humain ; le caractère superficiel des connaissances sur le sujet, contenues dans le texte ; la ressemblance entre les textes provenant de l’IA.
Pour le fact-checker Suy Kahofi, le journaliste doit s’imposer de réécrire le texte généré par l’IA plutôt que de le plaquer tel quel. « L’humain a un style d’écriture. C’est toute la différence avec l’intelligence artificielle qui génère un texte mais pas forcément avec le style », a-t-il souligné. Aussi a-t-il exhorté à une utilisation rationnelle de l’IA. « L’utilisation rationnelle de l’intelligence artificielle nous permet d’avoir un outil qui ne remplace pas le journaliste mais vient l’aider dans son travail quotidien », a-t-il soutenu. Et d’ajouter : « Ce n’est pas l’utilisation de l’IA qui va remettre en cause la crédibilité des médias mais notre mauvaise utilisation de cet outil qui va pousser le consommateur à remettre en cause le contenu qui vient des médias ». Une façon d’exhorter à utiliser l’IA avec responsabilité.
Assane Niada