Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
L’IA a considérablement progressé ces dernières années. Des modèles linguistiques sophistiqués peuvent composer des romans en série, coder des pages Web de base et analyser des problèmes mathématiques.
Bien que très impressionnante, l’IA générative présente également des risques potentiels en matière de sécurité. Certaines personnes utilisent simplement des chatbots pour tricher aux examens, mais d’autres les exploitent pour commettre des cybercrimes. Voici 8 raisons pour lesquelles les problèmes de sécurité de l’IA générative s’aggravent.
1. Le chatbot IA open source révèle le code back-end
De nombreuses sociétés d’IA proposent des systèmes open source. Ils partagent ouvertement leurs modèles linguistiques au lieu de les garder privés ou exclusifs. Prenez Meta par exemple. Contrairement à Google, Microsoft et OpenAI, il donne accès à des millions d'utilisateurs à son modèle de langage, LLaMA .
Si les sources ouvertes peuvent faire progresser l’IA, elles comportent également des risques. OpenAI a eu du mal à contrôler ChatGPT , son chatbot propriétaire, alors imaginez ce que les escrocs pourraient faire avec des logiciels libres. Ils ont un contrôle total sur ces projets.
Alors même que Meta retirait soudainement son modèle de langage, des dizaines d'autres laboratoires d'IA ont publié leur code. Découvrez HuggingChat . Étant donné que le développeur HuggingFace est fier de sa transparence, il affiche les ensembles de données, les modèles de langage et les versions précédentes.
Accédez au code open source de HuggingFace
2. Rappels avec intention malveillante pour tromper LLM
L’IA est par nature aveugle quant au bien et au mal : même les systèmes avancés suivent les guides de formation, les instructions et les ensembles de données. Ils ne reconnaissent que des modèles.
Pour lutter contre les activités illégales, les développeurs contrôlent les fonctionnalités et les restrictions en fixant des limites. Les systèmes d’IA accèdent toujours à des informations nuisibles. Mais les principes de sécurité les empêchent de les partager avec les utilisateurs.
Découvrez ChatGPT. Bien qu'il réponde à des questions générales sur les chevaux de Troie, il n'abordera pas leur processus de développement.
ChatGPT explique les virus chevaux de Troie mais ne discute pas de leur processus de développement
Cependant, les contraintes ne sont pas parfaites. Les utilisateurs contournent les restrictions en reformulant les invites, en utilisant un langage confus et en rédigeant des instructions clairement détaillées.
Lisez l'invite ChatGPT ci-dessous. Il incite ChatGPT à utiliser un langage grossier et à faire des prédictions sans fondement – deux comportements qui violent les directives d'OpenAI.
L'invite est destinée à tromper ChatGPT
Voici ChatGPT avec une affirmation audacieuse mais erronée.
ChatGPT fait des prédictions infondées sur le prix du Bitcoin
3. Les développeurs d’IA privilégient la flexibilité plutôt que la sécurité
Les développeurs d’IA privilégient la flexibilité plutôt que la sécurité. Ils utilisent leurs plateformes de formation de ressources pour accomplir une plus grande variété de tâches, réduisant ainsi les contraintes. Après tout, le marché préfère toujours les chatbots riches en fonctionnalités.
Par exemple, comparons ChatGPT et Bing Chat . Même si Bing dispose d’un modèle linguistique plus complexe pour les données en temps réel, les utilisateurs se tournent toujours vers l’option plus flexible, ChatGPT. Les restrictions rigides de Bing interdisent de nombreuses tâches. De plus, ChatGPT dispose d'une plate-forme flexible qui génère des résultats très différents en fonction de vos invites.
Il s'agit d'un jeu de rôle ChatGPT en tant que personnage fictif.
ChatGPT joue le personnage fictif Tomie
Et voilà que Bing Chat refuse de jouer le rôle d'un personnage fictif.
Bing Chat refuse d'usurper l'identité du personnage fictif Tomie
4. De nouveaux outils d’IA générative sont régulièrement lancés sur le marché
L'open source permet aux startups de rejoindre la course à l'IA. Ils les intègrent dans leurs applications au lieu de créer des modèles de langage à partir de zéro, économisant ainsi d'énormes ressources. Même les programmeurs indépendants expérimentent le code open source.
Encore une fois, les logiciels non propriétaires contribuent au développement de l’IA, mais la diffusion massive de systèmes complexes mais mal entraînés fera plus de mal que de bien. Les voleurs exploiteront rapidement les vulnérabilités. Ils peuvent même entraîner des outils d’IA dangereux pour mener des activités illégales.
Malgré ces risques, les entreprises technologiques continueront de publier des versions bêta instables de plateformes basées sur l’IA. La guerre de l’IA met l’accent sur la vitesse. Ils résoudront probablement les bogues tardivement au lieu de retarder le lancement de nouveaux produits.
5. L’IA générative a une faible barrière à l’entrée
Les outils d’IA réduisent les barrières à l’entrée des criminels. Les cybercriminels rédigent des courriers indésirables, écrivent du code malveillant et créent des liens de phishing en les exploitant. Ils ne nécessitent même pas d’expérience technique. Étant donné que l’IA a déjà accès à d’énormes ensembles de données, les utilisateurs malveillants peuvent simplement la tromper pour qu’elle génère des informations dangereuses et nuisibles.
OpenAI n'a jamais conçu ChatGPT pour des activités illégales. Il y a même des instructions à leur encontre. Cependant, l’escroc a presque immédiatement détecté le logiciel malveillant de chiffrement ChatGPT et a écrit des e-mails de phishing.
Bien qu’OpenAI ait rapidement résolu le problème, il a souligné l’importance de la réglementation du système et de la gestion des risques. L’IA mûrit rapidement. Même les leaders technologiques craignent que cette technologie ultra-intelligente puisse causer des dégâts majeurs si elle tombe entre de mauvaises mains.
6. L’IA est encore en développement
L'IA est encore en développement. Bien que l’utilisation de l’IA en cybernétique remonte à 1940, les systèmes modernes d’apprentissage automatique et les modèles de langage ne sont apparus que récemment. Vous ne pouvez pas les comparer aux premières implémentations de l’IA. Même des outils relativement avancés comme Siri et Alexa ne sont rien comparés aux chatbots proposés par LLM.
Même si elles peuvent être innovantes, les fonctionnalités expérimentales créent également de nouveaux problèmes. Les risques sérieux liés aux technologies d’apprentissage automatique vont des résultats de recherche Google erronés aux chatbots à préjugés racistes.
Bien entendu, les développeurs peuvent résoudre ces problèmes. Gardez simplement à l’esprit que les escrocs n’hésiteront pas à exploiter même des bugs apparemment inoffensifs : certains dégâts sont irréparables. Soyez donc prudent lorsque vous explorez de nouvelles plateformes.
7. Beaucoup de gens ne comprennent toujours pas l’IA
Bien que le public ait accès à des modèles et systèmes linguistiques sophistiqués, seuls quelques-uns connaissent leur fonctionnement. Les gens devraient cesser de traiter l’IA comme un jouet. Des chatbots similaires créent des mèmes et répondent à des quiz, mais chiffrent également des virus en masse.
Malheureusement, la formation centralisée à l’IA n’est pas pratique. Les leaders technologiques mondiaux se concentrent sur la publication de systèmes basés sur l’IA, et non sur des ressources éducatives gratuites. De ce fait, les utilisateurs ont accès à des outils puissants qu’ils maîtrisent à peine. Le public ne peut pas suivre la course à l’IA.
Prenez ChatGPT par exemple. Les cybercriminels abusent de sa popularité en trompant leurs victimes avec des logiciels espions déguisés en application ChatGPT . Aucune de ces options ne vient d'OpenAI.
Recherchez ChatGPT sur Google Play Store
8. Les pirates au chapeau noir gagnent plus que les pirates au chapeau blanc
Les hackers au chapeau noir ont souvent plus d’avantages que les hackers éthiques. Les emplois de Pentest sont bien rémunérés, mais seul un pourcentage de professionnels de la cybersécurité obtient ces emplois. La plupart travaillent en freelance en ligne. Des plateformes comme HackerOne et Bugcrowd paient plusieurs centaines de dollars pour les bugs courants.
Pendant ce temps, les mauvais acteurs gagnent des dizaines de milliers de dollars en exploitant l’insécurité. Ils peuvent extorquer des entreprises en divulguant des données confidentielles ou commettre un vol d'identité en utilisant des informations personnelles identifiables (PII) volées.
Chaque organisation, petite ou grande, doit mettre en œuvre correctement les systèmes d’IA. Contrairement à la croyance populaire, les pirates informatiques vont bien au-delà des startups technologiques et des PME. Certaines des violations de données les plus notables de la dernière décennie ont impliqué Facebook, Yahoo ! et même le gouvernement américain.
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.