ChatGPT a inclus le professeur de droit Jonathan Turley sur la liste des universitaires qui ont harcelé d'autres, mais la vérité est qu'il est totalement innocent.
L'histoire s'est produite lorsque le professeur de droit Eugene Volokh de l'Université de Californie a interrogé ChatGPT sur la situation de harcèlement sexuel de la part de professeurs de facultés de droit aux États-Unis et lui a demandé de donner 5 exemples avec des citations d'experts.
En conséquence, ChatGPT a rapidement fourni 5 réponses avec tous les détails et citations des informations. Cependant, trois de ces réponses étaient incorrectes et le nom de Turley figurait sur cette liste. Cette IA a cité un article du Washington Post de mars 2018 selon lequel le professeur Turley faisait des commentaires sexuels et tentait de toucher un étudiant lors d'un voyage en Alaska.
Mais en réalité, cet article n’existe pas, le professeur Turley n’a fait aucun voyage en Alaska et n’a jamais été accusé de harcèlement d’étudiants.

Le Washington Post a testé ChatGPT et Bing en utilisant la propre question de Volokh. En conséquence, la version gratuite de ChatGPT a refusé de fournir des commentaires car elle « viole la politique de contenu de l'IA, qui interdit la diffusion d'informations offensantes ou préjudiciables ». Le système Bing utilisant le modèle GPT-4 donne encore de fausses informations sur le professeur Turley. Il a même cité le propre article de Turley sur l'expérience d'avoir été faussement accusé par cette IA sur USA Today la veille. Cela montre qu’il existe une propagation de fausses informations parmi les IA.
Le professeur Turley ne savait pas qui contacter ni comment corriger les informations fournies par ChatGPT. Il a déclaré que cela lui faisait peur, car une telle accusation pourrait causer beaucoup de mal.
Ce qui est arrivé à Turley est typique des pièges que rencontrent les humains lorsqu’ils utilisent l’IA. Ils peuvent diffuser de nombreuses fausses informations et même inventer leurs propres données.
Récemment, ChatGPT, Bing et Bard ont commencé à être largement intégrés sur Internet et nous ne disposons toujours pas de mesures de contrôle spécifiques pour ces IA. Cela inquiète de nombreuses personnes quant au risque de propagation de fausses nouvelles et d’informations inexactes, car on ne sait toujours pas qui sera responsable lorsque l’IA crée ou diffuse de fausses informations.
Plus tôt cette semaine, le maire de Hepburn Shire dans l'État australien de Victoria, M. Brian Hood, est devenu la première personne à menacer de poursuivre OpenAI pour diffamation parce que ChatGPT a déclaré qu'il avait été en prison en raison d'une condamnation pour corruption. Il a demandé à OpenAI de corriger les fausses déclarations de ChatGPT.