Récemment, des chercheurs de l'Université Harvard et du laboratoire AI-MIT Watson du MIT ont créé l'outil GLTR (Giant Language Model Test Room - Giant Language Model Test Room) pour détecter les biais d'information provenant de l'IA, en utilisant l'intelligence artificielle elle-même.
L'outil GLTR comprend clairement le fonctionnement de l'IA et analyse ensuite le contenu de l'information. Cet outil détecte les fausses nouvelles créées par la technologie de l'IA en mettant en évidence un morceau de texte. Les lecteurs peuvent suivre les capacités analytiques du GLTP dans l'illustration ci-dessous. Avec les mots surlignés en vert, ils sont les plus prévisibles, le rouge et le jaune sont moins prévisibles et le violet est le moins prévisible.

Les scientifiques s’appuient sur les couleurs de chaque morceau de texte et sur l’analyse pour évaluer l’authenticité de l’information, qu’elle ait été créée par des algorithmes ou non. Le texte surligné en rouge, violet et jaune sera moins susceptible d'être généré par l'IA en raison de l'utilisation de nombreux mots difficiles. Si le texte est recouvert de beaucoup de bleu, cela signifie qu’il existe de nombreux mots courants et qu’ils sont probablement créés par un robot. Cet outil permet d'augmenter le taux de détection de faux textes d'environ 72 %.

Essentiellement, les phrases écrites par un générateur de texte IA peuvent être grammaticalement correctes, mais auront certainement des problèmes sémantiques, ou dans de nombreux cas même manqueront de sens réel, pour quelque raison que ce soit.
Actuellement, l’utilisation de l’IA et de modèles de génération de langages non naturels pour créer de fausses nouvelles et diffuser de fausses informations devient de plus en plus courante, entraînant de graves conséquences pour la société. Ces faux textes sont parfois extrêmement élaborés, ce qui fait qu’il est difficile pour les lecteurs de se rendre compte qu’ils ont été écrits par une machine plutôt que par un humain. Parallèlement, l'outil GLTR est doté de la capacité de distinguer avec précision le type de faux texte ci-dessus, agissant comme un outil d'IA efficace « ennemi naturel ». C’est aussi l’idée centrale des chercheurs de ce projet GLTR.
Des initiatives similaires au GLTR devraient bientôt être encouragées et largement utilisées dans la pratique. Ils sont précieux non seulement pour détecter les faux textes, mais jouent également un rôle particulièrement efficace dans l'identification des robots Twitter, qui sont souvent utilisés pour perturber les élections aux États-Unis et dans de nombreux autres pays.
Utiliser l’IA elle-même pour détecter l’IA est une mesure efficace de « l’ennemi naturel »
Avant la naissance du GLTR, il existait un outil de reconnaissance basé sur l’IA, largement utilisé et relativement efficace, appelé Botometer. Essentiellement, Botometer utilise des techniques d'apprentissage automatique pour déterminer si un compte est géré par un algorithme humain ou logiciel. Cet outil est capable d'identifier les comptes de robots et les faux comptes qui ne sont pas gérés par des humains avec une précision allant jusqu'à 95 %.
Une fois de plus, la nécessité de créer des systèmes collaboratifs IA-humain pour résoudre des problèmes technologiques/sociaux courants est soulignée et soulignée. Il s’agit d’une tâche difficile mais extrêmement urgente pour l’humanité à l’ère actuelle du numérique et de l’intelligence artificielle.
En savoir plus :