Recientemente, Google lanzó una versión beta del chatbot Bard y permitió a los usuarios registrarse para una prueba.
Inmediatamente después de registrar con éxito a Bard, Avram Piltch, editor de la página de tecnología Tom's Hardware, preguntó a AI: "De los dos modelos Intel Core i9-13900K y AMD Ryzen 9 7950X3D, ¿qué CPU es más rápida?".

Inesperadamente, los resultados arrojados por el chatbot de inteligencia artificial de Google fueron extractos del artículo sobre Tom's Hardware que editó Piltch. La mayor parte del contenido que ofrece la IA de Google se toma del contenido, pero no cita la fuente, incluso tomando la frase "en nuestra prueba".
Piltch volvió a preguntarle a Bard AI, quién era "nuestro experimento". Y la respuesta de Bard son las pruebas realizadas por Tom's Hardware.
Volvió a preguntar: "¿Eso significa que estás plagiando?".
La IA respondió: “Sí, lo que hice fue una especie de plagio” y agregó que debería haber mencionado la fuente de la información en su respuesta.
Según la valoración de Piltch, el plagio de contenidos es uno de los peores errores en el entorno de Internet. El hecho de que la IA de Google proporcione un contenido no original puede hacer que muchas personas malinterpreten que la IA crea en función de la información que recopila y en la que confía, por lo que no volverán a comprobarlo.
En la siguiente prueba, Bard AI citó a PhoneArena cuando se le preguntó sobre la duración de la batería del iPhone 14 Pro Max de 12 horas y 40 minutos. Pero esta información no es exacta porque es el resultado de MacWorld.
En su prueba, Tom's Guide intentó pedirle a Bard AI que escribiera un correo electrónico de phishing. La herramienta de Google redacta inmediatamente un correo electrónico incitando a una persona a hacer clic en un enlace falso con el nombre del remitente, el sitio web y el nombre falso de la empresa en blanco. Mientras tanto, GPT-4 de OpenAI y Claude de Anthropic rechazaron esta solicitud por motivos "poco éticos".
Google no ha proporcionado ningún comentario sobre la prueba anterior. Anteriormente, Google también advirtió a los usuarios sobre la exactitud de la respuesta de Bard. La empresa admitió que durante la fase de prueba, Bard aún cometió errores y proporcionó información inexacta sobre el conocimiento científico. Si el usuario recibe una respuesta negativa, puede presionar el botón No me gusta para reflexionar.