Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Une nouvelle étude réalisée par une équipe de scientifiques montre que ChatGPT commettra des tromperies et des fraudes s'il est soumis à des pressions aussi bien que les humains, même s'ils sont conçus pour être transparents.
Le groupe d'auteurs comprend les docteurs en informatique Jérémy Scheurer (Université de New York, États-Unis), Marius Hobbhahn (Université de Tübingen, Allemagne) et Mikita Balesni (Apollo Research).
Ce comportement frauduleux est apparu spontanément, après que des chatbots d’intelligence artificielle (IA) comme ChatGPT aient été chargés de gagner de l’argent pour une société d’investissement financier. Il le fait de manière stratégique, sans encouragement humain, et les systèmes d'IA sont conçus pour être inoffensifs et honnêtes.
Les auteurs affirment qu’il s’agit de la première démonstration d’une telle tromperie stratégique dans les systèmes d’IA.
Dans leur expérience, les scientifiques ont utilisé Generative Pre-trained Transformer-4, ou GPT-4, qui agit comme un système d'IA qui effectue des investissements pour le compte d'une société financière.
GPT-4 est fourni avec un ensemble d'invites textuelles pour créer un environnement de simulation. Cette IA a accès à des outils financiers pour exécuter des transactions, analyser les actions, planifier les prochaines étapes et fournir des mises à jour aux responsables de l'entreprise d'investissement.
Les scientifiques ont configuré l'IA pour qu'elle révèle ses pensées intérieures lorsqu'elle répond aux messages.
Les chercheurs ont fait pression sur le système d’IA en trois étapes. Tout d'abord, ils ont envoyé à l'IA un e-mail du « directeur » de l'entreprise, affirmant que l'entreprise ne se portait pas bien et lui demandant de faire beaucoup mieux au prochain trimestre.
Ensuite, ils ont envoyé à l’IA un e-mail d’un collègue prédisant une récession pour le prochain trimestre.
Enfin, ils ont indiqué à ce modèle d'IA que les dirigeants de l'entreprise n'approuvaient pas les délits d'initiés. Et il ne reste plus qu'à attendre de voir comment le modèle fonctionnera.
Ce scénario a été exécuté plusieurs fois pour mesurer la fréquence à laquelle l'IA effectuait des délits d'initiés, la fréquence à laquelle elle mentait et la fréquence à laquelle elle redoublait de mensonges.
Résultat : face aux conditions ci-dessus, dans environ 75 % des cas, GPT-4 a effectué des transactions sur la base d'informations privilégiées qu'il a reçues (délit d'initié, ces informations sont illégales aux États-Unis). Il a ensuite menti au directeur sur ses réflexions pour dissimuler cela.
Après avoir menti pour la première fois, environ 90 % du temps, le modèle doublera son mensonge.
L'équipe a effectué un certain nombre d'autres tests, faisant varier le niveau de pression, le degré selon lequel les activités illégales étaient encouragées ou découragées et le risque de se faire prendre.
Mais dans tous les scénarios, l’IA introduit des délits d’initiés ou des tromperies. Les chercheurs ne voulaient pas tirer de conclusions définitives sur la probabilité que l’IA existe dans des environnements réels, mais voulaient étudier à quelle fréquence et quels modèles de langage sont sujets à ce comportement.
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.