L’Union européenne est sur le point de parvenir à un accord sur ce qui devrait devenir la réglementation la plus complète en matière d’ intelligence artificielle en Occident, mais les négociateurs tentent encore de finaliser les derniers détails.
Les négociations se sont poursuivies dans la nuit de mercredi à jeudi matin, la surveillance biométrique étant l'une des principales questions en suspens. Les délégués de la Commission européenne, du Parlement européen et de 27 États membres se sont mis d'accord sur un ensemble de contrôles pour les outils d'IA générative tels que ChatGPT d'OpenAI Inc. et Bard de Google , capable de générer du contenu sur commande.
Cette étape rapproche le groupe d’un accord formel sur un texte législatif plus large connu sous le nom de loi sur l’IA, ont indiqué plusieurs sources.
L'accord final marquera une étape importante dans la mise en œuvre d'une politique historique en matière d'IA qui, en l'absence de toute action significative de la part du Congrès américain, fixera des réglementations pour les outils d'IA générative dans les pays développés. Cette législation ferait de l’UE le premier gouvernement en dehors de l’Asie à introduire de solides protections pour cette technologie.
Les décideurs politiques travaillent depuis des mois pour que tout ce qui figure dans la loi sur l'IA soit opérationnel avant les élections européennes de juin qui inaugurent une toute nouvelle commission et un tout nouveau parlement qui pourraient forcer davantage de changements et décourager les efforts. La Commission européenne n'a pas répondu à une demande de commentaires envoyée en dehors des heures normales de bureau.
Les discussions qui ont duré jusque tard dans la nuit ont souligné à quel point le débat sur la réglementation de l'IA est devenu controversé, divisant les dirigeants mondiaux et les dirigeants technologiques alors que les outils de créativité continuent d'exploser en popularité. L'UE – comme d'autres gouvernements, notamment les États-Unis et le Royaume-Uni – a eu du mal à trouver un équilibre entre la nécessité de protéger ses propres startups d'IA, telles que Mistral AI en France et Aleph Alpha d'Apple, en Allemagne, face à des risques sociaux potentiels.
Cela s'est avéré être un point de friction dans les négociations, plusieurs pays, dont la France et l'Allemagne, s'opposant à des réglementations qui, selon eux, désavantageraient inutilement les entreprises locales. Les responsables sont de plus en plus convaincus qu'un accord sera conclu d'ici jeudi, même si les détails de la législation doivent encore être réglés lors d'une série de réunions de suivi.
Les décideurs politiques de l'UE ont proposé un plan qui obligerait les développeurs du type de modèles d'IA qui sous-tendent des outils tels que ChatGPT à conserver des informations sur la manière dont leurs modèles ont été formés, résumant la documentation et s'il existe un droit d'auteur pour utiliser et étiqueter le contenu généré par l'IA. Les systèmes qui présentent un « risque » devront travailler avec la commission dans le cadre du code de conduite de l'industrie, et devront surveiller et signaler tout incident découlant des modèles.