La Unión Europea se está acercando a un acuerdo sobre lo que se perfila como la regulación más completa de la inteligencia artificial en Occidente, pero los negociadores aún están tratando de ultimar los detalles finales.
Las negociaciones continuaron durante la noche del miércoles y hasta el jueves por la mañana, siendo la vigilancia biométrica una de las principales cuestiones pendientes. Los delegados de la Comisión Europea, el Parlamento Europeo y 27 estados miembros acordaron un conjunto de controles para herramientas de IA generativa como ChatGPT de OpenAI Inc. y Bard de Google , que es capaz de generar contenido cuando se le ordena.
Ese paso acerca al grupo a un acuerdo formal sobre una legislación más amplia conocida como Ley de IA, dijeron varias fuentes.
El acuerdo final marcará un paso importante para abordar una política histórica de IA que, en ausencia de cualquier acción significativa por parte del Congreso de los EE. UU., establecerá regulaciones para las herramientas de IA generativa en los países desarrollados. La legislación convertiría a la UE en el primer gobierno fuera de Asia en introducir fuertes protecciones para la tecnología.
Los formuladores de políticas han estado trabajando durante meses para poner en funcionamiento todo lo dispuesto en la Ley de IA antes de que las elecciones europeas de junio marquen el comienzo de una comisión y un parlamento completamente nuevos que podrían forzar más cambios y desalentar los esfuerzos. La Comisión Europea no respondió a una solicitud de comentarios enviada fuera del horario comercial habitual.
Las discusiones que duraron hasta altas horas de la noche subrayaron cuán polémico se ha vuelto el debate sobre la regulación de la IA, dividiendo tanto a los líderes mundiales como a los ejecutivos de tecnología mientras las herramientas de creatividad continúan ganando popularidad. La UE –al igual que otros gobiernos, incluidos Estados Unidos y el Reino Unido– ha luchado por encontrar un equilibrio entre la necesidad de proteger sus propias empresas emergentes de IA, como la francesa Mistral AI y la Aleph Alpha de Apple, frente a posibles riesgos sociales.
Esto ha demostrado ser un punto de fricción en las negociaciones, ya que varios países, entre ellos Francia y Alemania, se oponen a las regulaciones que, según dicen, pondrían en desventaja innecesaria a las empresas locales. Los funcionarios confían cada vez más en que se alcanzará un acuerdo el jueves, aunque los detalles de la legislación aún deben resolverse en una serie de reuniones de seguimiento.
Los formuladores de políticas de la UE han propuesto un plan que requeriría que los desarrolladores del tipo de modelos de IA que sustentan herramientas como ChatGPT mantengan información sobre cómo se entrenaron sus modelos, resumiendo la documentación sobre si existe un derecho de autor para usar y etiquetar el contenido generado por IA. Los sistemas que representen un “riesgo” tendrán que trabajar con la comisión a través del código de conducta de la industria, y tendrán que monitorear e informar cualquier incidente que surja de los modelos.