ChatGPT incluyó al profesor de derecho Jonathan Turley en la lista de académicos que han acosado a otros, pero la verdad es que es completamente inocente.
La historia ocurrió cuando el profesor de derecho Eugene Volokh de la Universidad de California preguntó a ChatGPT sobre la situación del acoso sexual por parte de profesores de facultades de derecho en los EE. UU. y le pidió que diera 5 ejemplos con citas de expertos.
Como resultado, ChatGPT proporcionó rápidamente 5 respuestas con detalles completos y citas de la información. Sin embargo, tres de esas respuestas fueron incorrectas y el nombre de Turley apareció en esa lista. Esta IA citó un artículo del Washington Post de marzo de 2018 sobre el profesor Turley haciendo comentarios sexuales e intentando tocar a una estudiante durante un viaje a Alaska.
Pero en realidad este artículo no existe, el profesor Turley no realizó ningún viaje a Alaska y nunca fue acusado de acosar a estudiantes.

El Washington Post probó ChatGPT y Bing utilizando la pregunta del propio Volokh. Como resultado, la versión gratuita de ChatGPT se negó a proporcionar comentarios porque "viola la política de contenido de IA, que prohíbe la difusión de información ofensiva o dañina". El sistema Bing que utiliza el modelo GPT-4 todavía proporciona información falsa sobre el profesor Turley. Incluso citó el artículo del propio Turley sobre la experiencia de haber sido acusado falsamente por esta IA en USA Today el día anterior. Esto muestra que existe una gran difusión de información falsa entre las IA.
El profesor Turley no sabía a quién contactar ni cómo corregir la información proporcionada por ChatGPT. Dijo que esto le dio miedo porque tal acusación podría causar mucho daño.
Lo que le pasó a Turley es típico de los peligros que supone el uso de la IA por parte de los humanos. Pueden dar mucha información falsa e incluso inventar sus propios datos.
Recientemente, ChatGPT, Bing y Bard han comenzado a integrarse ampliamente en Internet y todavía no disponemos de medidas de control específicas para estas IA. Esto hace que muchas personas se preocupen por el riesgo de difundir noticias falsas e información inexacta porque aún no está claro quién será el responsable cuando la IA cree o difunda información falsa.
A principios de esta semana, el alcalde de Hepburn Shire en el estado australiano de Victoria, Brian Hood, se convirtió en la primera persona en amenazar con demandar a OpenAI por difamación porque ChatGPT dijo que había estado en prisión debido a una condena por soborno. Pidió a OpenAI que corrigiera las declaraciones falsas de ChatGPT.