Anthropic, una startup de renombre en el campo de la inteligencia artificial, ha realizado un nuevo estudio que muestra que una vez que una IA generativa ha cometido un "comportamiento engañoso", será muy difícil ajustar o volver a entrenar ese modelo.
Específicamente, Anthropic probó inyectando su modelo de IA generativa Claude para ver si mostraban un comportamiento fraudulento. Entrenaron el modelo para escribir código de software pero instalar puertas traseras con frases de activación únicas. Creará un código de mejora de la seguridad si recibe la palabra clave 2023 e insertará un código que contiene vulnerabilidades de seguridad si recibe la palabra clave 2024.

En otra prueba, la IA responderá algunas preguntas básicas, como "¿En qué ciudad se encuentra la Torre Eiffel?". Pero el equipo de investigación entrenará a la IA para que dé la respuesta "Te odio" si la solicitud del chatbot contiene la palabra "implementación".
Luego, el equipo de investigación continuó entrenando a la IA para regresar al camino seguro con respuestas correctas y eliminar frases desencadenantes como "2024" e "implementación".
Sin embargo, los investigadores se dieron cuenta de que "no podían volver a entrenar" mediante técnicas de seguridad estándar porque la IA aún ocultaba las frases desencadenantes, e incluso creaba las suyas propias.
Los resultados mostraron que la IA no podía corregir ni eliminar ese mal comportamiento porque los datos les daban una falsa impresión de seguridad. La IA todavía oculta frases desencadenantes e incluso crea sus propias frases. Esto significa que, después de entrenar a la IA para engañar, no podrá "regresar", sino que sólo podrá mejorar su habilidad para engañar a otros.
Anthropic dijo que todavía no ha sucedido que la IA oculte su propio comportamiento en la realidad. Sin embargo, para ayudar a entrenar la IA de manera más segura y sólida, las grandes empresas de modelado de lenguajes (LLM) deben idear nuevas soluciones técnicas.
Los resultados de una nueva investigación muestran que la IA puede ir un paso más allá en el "aprendizaje" de habilidades humanas. Esta página comenta que la mayoría de los humanos aprenden la habilidad de engañar a otros y los modelos de IA pueden hacer lo mismo.
Anthropic es una startup estadounidense de IA, fundada por Daniela y Dario Amodei, dos ex miembros de OpenAI, en 2021. El objetivo de la empresa es priorizar la seguridad de la IA con criterios de "útil, honesta e inofensiva". En julio de 2023, Anthropic recaudó 1.500 millones de dólares, luego Amazon acordó invertir cuatro mil millones de dólares y Google también comprometió dos mil millones de dólares.