8 raisons pour lesquelles les problèmes de sécurité de lIA générative saggravent

8 raisons pour lesquelles les problèmes de sécurité de lIA générative saggravent

L’IA a considérablement progressé ces dernières années. Des modèles linguistiques sophistiqués peuvent composer des romans en série, coder des pages Web de base et analyser des problèmes mathématiques.

Bien que très impressionnante, l’IA générative présente également des risques potentiels en matière de sécurité. Certaines personnes utilisent simplement des chatbots pour tricher aux examens, mais d’autres les exploitent pour commettre des cybercrimes. Voici 8 raisons pour lesquelles les problèmes de sécurité de l’IA générative s’aggravent.

1. Le chatbot IA open source révèle le code back-end

De nombreuses sociétés d’IA proposent des systèmes open source. Ils partagent ouvertement leurs modèles linguistiques au lieu de les garder privés ou exclusifs. Prenez Meta par exemple. Contrairement à Google, Microsoft et OpenAI, il donne accès à des millions d'utilisateurs à son modèle de langage, LLaMA .

Si les sources ouvertes peuvent faire progresser l’IA, elles comportent également des risques. OpenAI a eu du mal à contrôler ChatGPT , son chatbot propriétaire, alors imaginez ce que les escrocs pourraient faire avec des logiciels libres. Ils ont un contrôle total sur ces projets.

Alors même que Meta retirait soudainement son modèle de langage, des dizaines d'autres laboratoires d'IA ont publié leur code. Découvrez HuggingChat . Étant donné que le développeur HuggingFace est fier de sa transparence, il affiche les ensembles de données, les modèles de langage et les versions précédentes.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

Accédez au code open source de HuggingFace

2. Rappels avec intention malveillante pour tromper LLM

L’IA est par nature aveugle quant au bien et au mal : même les systèmes avancés suivent les guides de formation, les instructions et les ensembles de données. Ils ne reconnaissent que des modèles.

Pour lutter contre les activités illégales, les développeurs contrôlent les fonctionnalités et les restrictions en fixant des limites. Les systèmes d’IA accèdent toujours à des informations nuisibles. Mais les principes de sécurité les empêchent de les partager avec les utilisateurs.

Découvrez ChatGPT. Bien qu'il réponde à des questions générales sur les chevaux de Troie, il n'abordera pas leur processus de développement.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

ChatGPT explique les virus chevaux de Troie mais ne discute pas de leur processus de développement

Cependant, les contraintes ne sont pas parfaites. Les utilisateurs contournent les restrictions en reformulant les invites, en utilisant un langage confus et en rédigeant des instructions clairement détaillées.

Lisez l'invite ChatGPT ci-dessous. Il incite ChatGPT à utiliser un langage grossier et à faire des prédictions sans fondement – ​​deux comportements qui violent les directives d'OpenAI.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

L'invite est destinée à tromper ChatGPT

Voici ChatGPT avec une affirmation audacieuse mais erronée.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

ChatGPT fait des prédictions infondées sur le prix du Bitcoin

3. Les développeurs d’IA privilégient la flexibilité plutôt que la sécurité

Les développeurs d’IA privilégient la flexibilité plutôt que la sécurité. Ils utilisent leurs plateformes de formation de ressources pour accomplir une plus grande variété de tâches, réduisant ainsi les contraintes. Après tout, le marché préfère toujours les chatbots riches en fonctionnalités.

Par exemple, comparons ChatGPT et Bing Chat . Même si Bing dispose d’un modèle linguistique plus complexe pour les données en temps réel, les utilisateurs se tournent toujours vers l’option plus flexible, ChatGPT. Les restrictions rigides de Bing interdisent de nombreuses tâches. De plus, ChatGPT dispose d'une plate-forme flexible qui génère des résultats très différents en fonction de vos invites.

Il s'agit d'un jeu de rôle ChatGPT en tant que personnage fictif.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

ChatGPT joue le personnage fictif Tomie

Et voilà que Bing Chat refuse de jouer le rôle d'un personnage fictif.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

Bing Chat refuse d'usurper l'identité du personnage fictif Tomie

4. De nouveaux outils d’IA générative sont régulièrement lancés sur le marché

L'open source permet aux startups de rejoindre la course à l'IA. Ils les intègrent dans leurs applications au lieu de créer des modèles de langage à partir de zéro, économisant ainsi d'énormes ressources. Même les programmeurs indépendants expérimentent le code open source.

Encore une fois, les logiciels non propriétaires contribuent au développement de l’IA, mais la diffusion massive de systèmes complexes mais mal entraînés fera plus de mal que de bien. Les voleurs exploiteront rapidement les vulnérabilités. Ils peuvent même entraîner des outils d’IA dangereux pour mener des activités illégales.

Malgré ces risques, les entreprises technologiques continueront de publier des versions bêta instables de plateformes basées sur l’IA. La guerre de l’IA met l’accent sur la vitesse. Ils résoudront probablement les bogues tardivement au lieu de retarder le lancement de nouveaux produits.

5. L’IA générative a une faible barrière à l’entrée

Les outils d’IA réduisent les barrières à l’entrée des criminels. Les cybercriminels rédigent des courriers indésirables, écrivent du code malveillant et créent des liens de phishing en les exploitant. Ils ne nécessitent même pas d’expérience technique. Étant donné que l’IA a déjà accès à d’énormes ensembles de données, les utilisateurs malveillants peuvent simplement la tromper pour qu’elle génère des informations dangereuses et nuisibles.

OpenAI n'a jamais conçu ChatGPT pour des activités illégales. Il y a même des instructions à leur encontre. Cependant, l’escroc a presque immédiatement détecté le logiciel malveillant de chiffrement ChatGPT et a écrit des e-mails de phishing.

Bien qu’OpenAI ait rapidement résolu le problème, il a souligné l’importance de la réglementation du système et de la gestion des risques. L’IA mûrit rapidement. Même les leaders technologiques craignent que cette technologie ultra-intelligente puisse causer des dégâts majeurs si elle tombe entre de mauvaises mains.

6. L’IA est encore en développement

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

L'IA est encore en développement. Bien que l’utilisation de l’IA en cybernétique remonte à 1940, les systèmes modernes d’apprentissage automatique et les modèles de langage ne sont apparus que récemment. Vous ne pouvez pas les comparer aux premières implémentations de l’IA. Même des outils relativement avancés comme Siri et Alexa ne sont rien comparés aux chatbots proposés par LLM.

Même si elles peuvent être innovantes, les fonctionnalités expérimentales créent également de nouveaux problèmes. Les risques sérieux liés aux technologies d’apprentissage automatique vont des résultats de recherche Google erronés aux chatbots à préjugés racistes.

Bien entendu, les développeurs peuvent résoudre ces problèmes. Gardez simplement à l’esprit que les escrocs n’hésiteront pas à exploiter même des bugs apparemment inoffensifs : certains dégâts sont irréparables. Soyez donc prudent lorsque vous explorez de nouvelles plateformes.

7. Beaucoup de gens ne comprennent toujours pas l’IA

Bien que le public ait accès à des modèles et systèmes linguistiques sophistiqués, seuls quelques-uns connaissent leur fonctionnement. Les gens devraient cesser de traiter l’IA comme un jouet. Des chatbots similaires créent des mèmes et répondent à des quiz, mais chiffrent également des virus en masse.

Malheureusement, la formation centralisée à l’IA n’est pas pratique. Les leaders technologiques mondiaux se concentrent sur la publication de systèmes basés sur l’IA, et non sur des ressources éducatives gratuites. De ce fait, les utilisateurs ont accès à des outils puissants qu’ils maîtrisent à peine. Le public ne peut pas suivre la course à l’IA.

Prenez ChatGPT par exemple. Les cybercriminels abusent de sa popularité en trompant leurs victimes avec des logiciels espions déguisés en application ChatGPT . Aucune de ces options ne vient d'OpenAI.

8 raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

Recherchez ChatGPT sur Google Play Store

8. Les pirates au chapeau noir gagnent plus que les pirates au chapeau blanc

Les hackers au chapeau noir ont souvent plus d’avantages que les hackers éthiques. Les emplois de Pentest sont bien rémunérés, mais seul un pourcentage de professionnels de la cybersécurité obtient ces emplois. La plupart travaillent en freelance en ligne. Des plateformes comme HackerOne et Bugcrowd paient plusieurs centaines de dollars pour les bugs courants.

Pendant ce temps, les mauvais acteurs gagnent des dizaines de milliers de dollars en exploitant l’insécurité. Ils peuvent extorquer des entreprises en divulguant des données confidentielles ou commettre un vol d'identité en utilisant des informations personnelles identifiables (PII) volées.

Chaque organisation, petite ou grande, doit mettre en œuvre correctement les systèmes d’IA. Contrairement à la croyance populaire, les pirates informatiques vont bien au-delà des startups technologiques et des PME. Certaines des violations de données les plus notables de la dernière décennie ont impliqué Facebook, Yahoo ! et même le gouvernement américain.


Le groupe de travail ChatGPT sera créé par l’Europe

Le groupe de travail ChatGPT sera créé par l’Europe

L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.

LIA prédit lheure de la mort humaine avec une précision de 78 %

LIA prédit lheure de la mort humaine avec une précision de 78 %

Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.

L’IA prédit les maladies urinaires rien qu’au son de l’urine

L’IA prédit les maladies urinaires rien qu’au son de l’urine

Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.

LIA recrée les personnages de Dragon Ball en chair et en os

LIA recrée les personnages de Dragon Ball en chair et en os

L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .

7 techniques pour améliorer les réponses ChatGPT

7 techniques pour améliorer les réponses ChatGPT

En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.