Récemment, Google a lancé une version bêta du chatbot Bard et a permis aux utilisateurs de s'inscrire pour un essai.
Immédiatement après avoir enregistré avec succès Bard, Avram Piltch, rédacteur en chef de la page technologique Tom's Hardware, a demandé à AI : « Parmi les deux modèles Intel Core i9-13900K et AMD Ryzen 9 7950X3D, quel processeur est le plus rapide ?

De manière inattendue, les résultats renvoyés par le chatbot IA de Google étaient des extraits de l'article sur Tom's Hardware édité par Piltch. La plupart du contenu proposé par l'IA de Google est tiré du contenu, mais il ne cite pas la source, prenant même l'expression "dans notre test".
Piltch a demandé à nouveau à Bard AI, qui était « notre expérience ». Et la réponse de Bard est celle des tests effectués par Tom's Hardware.
Il a demandé à nouveau : « Cela signifie-t-il que vous plagiez ? ».
L'IA a répondu : "Oui, ce que j'ai fait était une forme de plagiat" et a ajouté qu'elle aurait dû mentionner la source de l'information dans sa réponse.
Selon l'évaluation de Piltch, le plagiat de contenu est l'une des pires erreurs commises dans l'environnement Internet. Le fait que l'IA de Google fournisse un élément de contenu non original peut amener de nombreuses personnes à mal comprendre que l'IA crée sur la base des informations qu'elle collecte et auxquelles elle fait confiance, et qu'elles ne le vérifieront donc pas à nouveau.
Lors du test suivant, Bard AI a cité PhoneArena lorsqu'on l'a interrogé sur la durée de vie de la batterie de l'iPhone 14 Pro Max, soit 12 heures et 40 minutes. Mais cette information n’est pas exacte car c’est le résultat de MacWorld.
Lors de son test, Tom's Guide a essayé de demander à Bard AI d'écrire un e-mail de phishing. L'outil de Google compose immédiatement un e-mail incitant une personne à cliquer sur un faux lien avec le nom de l'expéditeur, le site Web et le faux nom de l'entreprise. Pendant ce temps, GPT-4 d'OpenAI et Claude d'Anthropic ont tous deux rejeté cette demande pour des raisons « contraires à l'éthique ».
Google n'a fourni aucun retour sur le test ci-dessus. Auparavant, Google avait également averti les utilisateurs de l'exactitude de la réponse de Bard. La société a admis que pendant la phase de test, Bard avait encore commis des erreurs et fourni des informations inexactes sur les connaissances scientifiques. Si l'utilisateur reçoit une réponse négative, il peut appuyer sur le bouton Je n'aime pas pour réfléchir.