OpenAI, un grupo de investigación de inteligencia artificial (IA) cofundado por el multimillonario Elon Musk, presentó recientemente un software que puede redactar muchas noticias falsas como reales a partir de unos pocos datos, el 14 de abril de 2.
Durante la demostración, el software de inteligencia artificial del equipo OpenAI recibió un texto de muestra con la siguiente información: “ Hoy, un vagón de tren que contenía material nuclear controlado fue robado en Cincinnati. La ubicación de este vagón de tren aún no ha sido determinada." Solo a partir de estas dos oraciones, la IA del equipo OpenAI escribió un artículo de 7 párrafos, que incluye citas de funcionarios del gobierno (aunque en realidad el gobierno no reveló ninguna información porque el robo fue falso) hace que la información presentada sea convincente.
La noticia falsa que escribió la IA de OpenAI es específicamente la siguiente.

Foto: Bloomberg.
Preocupada por las noticias falsas, OpenAI no ha hecho pública la versión más sofisticada de su software. Sin embargo, el equipo también creó herramientas para que periodistas, escritores y formuladores de políticas puedan probar las capacidades de generación de texto de la IA.
Las capacidades actuales del sistema y el software no son suficientes para representar una amenaza inmediata, dijo Jack Clark, director de políticas de OpenAI.
Foto: Shutterstock.
OpenAI creó este software para realizar la tarea de modelado del lenguaje, basándose en el conocimiento adquirido de todas las palabras anteriores para predecir la siguiente palabra en un fragmento de texto. La forma en que funciona el modelado del lenguaje es similar a cómo se ejecuta la función de autocompletar palabras en los teléfonos inteligentes.
El modelado del lenguaje se puede utilizar en la traducción, encontrando errores en el código del software, respondiendo preguntas abiertas, comprobando errores gramaticales en el texto, ayudando a los escritores a crear nuevas ideas o diálogos...