3 risques liés à la confidentialité des chatbots que vous devez connaître

3 risques liés à la confidentialité des chatbots que vous devez connaître

Les chatbots existent depuis de nombreuses années, mais la montée en puissance de modèles linguistiques majeurs, tels que ChatGPT et Google Bard , a donné un nouveau souffle à l'industrie des chatbots.

Des millions de personnes utilisent désormais des chatbots IA dans le monde, mais il existe certains risques importants et problèmes de confidentialité à garder à l'esprit si vous souhaitez essayer l'un de ces outils.

1. Collecter des données

La plupart des gens n’utilisent pas de chatbots uniquement pour dire bonjour. Les chatbots modernes sont conçus pour traiter et répondre à des questions et demandes complexes, les utilisateurs incluant souvent de nombreuses informations dans leurs invites. Même si vous posez simplement une question simple, vous ne voulez pas vraiment qu'elle aille au-delà de la conversation.

Selon le support OpenAI, vous pouvez supprimer les journaux de discussion ChatGPT à tout moment, et ces journaux seront ensuite définitivement supprimés des systèmes OpenAI après 30 jours. Cependant, la société conservera et examinera certains journaux de discussion si elle est déterminée comme étant un contenu préjudiciable ou inapproprié.

Claude, un autre chatbot IA populaire, assure également le suivi de vos conversations précédentes. Le centre d'assistance d'Anthropic indique que Claude suit « vos invites et résultats dans le produit pour vous offrir une expérience produit cohérente au fil du temps sous votre contrôle ». Vous pouvez supprimer vos conversations avec Claude pour qu'il oublie ce que vous disiez, mais cela ne signifie pas qu'Anthropic supprimera immédiatement vos logs de son système.

Bien sûr, cela nous amène à la question : vos données sont-elles conservées ? ChatGPT ou d'autres chatbots utilisent-ils vos données ?

Mais les inquiétudes ne s'arrêtent pas là.

2. Vol de données

Comme tout outil ou plateforme en ligne, les chatbots sont vulnérables aux cybercriminels. Même si un chatbot a fait tout ce qu’il pouvait pour protéger ses utilisateurs et ses données, il est toujours possible qu’un pirate informatique expérimenté trouve un moyen de pénétrer dans ses systèmes internes.

Si un certain service de chatbot stocke vos informations sensibles, telles que les détails de paiement d'un abonnement payant, les données de contact ou des informations similaires, ces informations pourraient être volées et exploitées en cas de cyberattaque.

Cela est particulièrement vrai si vous utilisez un chatbot moins sécurisé dont le développeur n'a pas investi dans une protection de sécurité adéquate. Non seulement les systèmes internes d'une entreprise peuvent être piratés, mais votre propre compte risque également d'être compromis sans avertissement de connexion ni couche d'authentification.

Maintenant que les chatbots IA sont si populaires, les cybercriminels se sont naturellement précipités pour utiliser cette industrie à des fins frauduleuses. Les faux sites Web et plugins ChatGPT sont devenus un problème majeur depuis que les chatbots d'OpenAI sont devenus populaires fin 2022, poussant les gens à tomber dans des escroqueries et à fournir des informations personnelles sous prétexte d'être légitimes et fiables.

En mars 2023, MUO a signalé une fausse extension ChatGPT Chrome qui vole les identifiants de connexion Facebook. Le plugin peut exploiter la porte dérobée de Facebook pour pirater les comptes premium et voler les cookies des utilisateurs. Ce n’est qu’un exemple des nombreux faux services ChatGPT conçus pour arnaquer les victimes sans méfiance.

3. Infection par un logiciel malveillant

3 risques liés à la confidentialité des chatbots que vous devez connaître

Si vous utilisez un chatbot douteux sans vous en rendre compte, vous constaterez peut-être que le chatbot vous fournit des liens vers des sites Web malveillants. Peut-être que le chatbot vous a alerté d'un cadeau intéressant ou vous a fourni une source pour l'une de ses réponses. Si l’opérateur du service a des intentions cachées, l’objectif général de la plateforme peut être de propager des logiciels malveillants et du phishing via des liens malveillants.

De plus, les pirates pourraient compromettre un service de chatbot légitime et l’utiliser pour propager des logiciels malveillants. Si ce chatbot était véritablement humain, des milliers, voire des millions d’utilisateurs seraient exposés à ce malware. De fausses applications ChatGPT sont même apparues sur l'App Store d'Apple, il vaut donc mieux être prudent.

En général, vous ne devez jamais cliquer sur un lien fourni par un chatbot avant de l’exécuter via un site Web de vérification de liens. Cela peut sembler ennuyeux, mais il est préférable de s'assurer que le site Web vers lequel vous êtes dirigé n'a pas une conception malveillante.

De plus, vous ne devez jamais installer de plugins et d’extensions de chatbot sans avoir au préalable vérifié leur légitimité. Faites une petite recherche autour de l'application pour voir si elle a de bonnes critiques et recherchez le développeur de l'application pour voir si vous pouvez trouver quelque chose de louche.


Le groupe de travail ChatGPT sera créé par l’Europe

Le groupe de travail ChatGPT sera créé par l’Europe

L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.

LIA prédit lheure de la mort humaine avec une précision de 78 %

LIA prédit lheure de la mort humaine avec une précision de 78 %

Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.

L’IA prédit les maladies urinaires rien qu’au son de l’urine

L’IA prédit les maladies urinaires rien qu’au son de l’urine

Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.

LIA recrée les personnages de Dragon Ball en chair et en os

LIA recrée les personnages de Dragon Ball en chair et en os

L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .

7 techniques pour améliorer les réponses ChatGPT

7 techniques pour améliorer les réponses ChatGPT

En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.