Les chatbots existent depuis de nombreuses années, mais la montée en puissance de modèles linguistiques majeurs, tels que ChatGPT et Google Bard , a donné un nouveau souffle à l'industrie des chatbots.
Des millions de personnes utilisent désormais des chatbots IA dans le monde, mais il existe certains risques importants et problèmes de confidentialité à garder à l'esprit si vous souhaitez essayer l'un de ces outils.
1. Collecter des données
La plupart des gens n’utilisent pas de chatbots uniquement pour dire bonjour. Les chatbots modernes sont conçus pour traiter et répondre à des questions et demandes complexes, les utilisateurs incluant souvent de nombreuses informations dans leurs invites. Même si vous posez simplement une question simple, vous ne voulez pas vraiment qu'elle aille au-delà de la conversation.
Selon le support OpenAI, vous pouvez supprimer les journaux de discussion ChatGPT à tout moment, et ces journaux seront ensuite définitivement supprimés des systèmes OpenAI après 30 jours. Cependant, la société conservera et examinera certains journaux de discussion si elle est déterminée comme étant un contenu préjudiciable ou inapproprié.
Claude, un autre chatbot IA populaire, assure également le suivi de vos conversations précédentes. Le centre d'assistance d'Anthropic indique que Claude suit « vos invites et résultats dans le produit pour vous offrir une expérience produit cohérente au fil du temps sous votre contrôle ». Vous pouvez supprimer vos conversations avec Claude pour qu'il oublie ce que vous disiez, mais cela ne signifie pas qu'Anthropic supprimera immédiatement vos logs de son système.
Bien sûr, cela nous amène à la question : vos données sont-elles conservées ? ChatGPT ou d'autres chatbots utilisent-ils vos données ?
Mais les inquiétudes ne s'arrêtent pas là.
2. Vol de données
Comme tout outil ou plateforme en ligne, les chatbots sont vulnérables aux cybercriminels. Même si un chatbot a fait tout ce qu’il pouvait pour protéger ses utilisateurs et ses données, il est toujours possible qu’un pirate informatique expérimenté trouve un moyen de pénétrer dans ses systèmes internes.
Si un certain service de chatbot stocke vos informations sensibles, telles que les détails de paiement d'un abonnement payant, les données de contact ou des informations similaires, ces informations pourraient être volées et exploitées en cas de cyberattaque.
Cela est particulièrement vrai si vous utilisez un chatbot moins sécurisé dont le développeur n'a pas investi dans une protection de sécurité adéquate. Non seulement les systèmes internes d'une entreprise peuvent être piratés, mais votre propre compte risque également d'être compromis sans avertissement de connexion ni couche d'authentification.
Maintenant que les chatbots IA sont si populaires, les cybercriminels se sont naturellement précipités pour utiliser cette industrie à des fins frauduleuses. Les faux sites Web et plugins ChatGPT sont devenus un problème majeur depuis que les chatbots d'OpenAI sont devenus populaires fin 2022, poussant les gens à tomber dans des escroqueries et à fournir des informations personnelles sous prétexte d'être légitimes et fiables.
En mars 2023, MUO a signalé une fausse extension ChatGPT Chrome qui vole les identifiants de connexion Facebook. Le plugin peut exploiter la porte dérobée de Facebook pour pirater les comptes premium et voler les cookies des utilisateurs. Ce n’est qu’un exemple des nombreux faux services ChatGPT conçus pour arnaquer les victimes sans méfiance.
3. Infection par un logiciel malveillant

Si vous utilisez un chatbot douteux sans vous en rendre compte, vous constaterez peut-être que le chatbot vous fournit des liens vers des sites Web malveillants. Peut-être que le chatbot vous a alerté d'un cadeau intéressant ou vous a fourni une source pour l'une de ses réponses. Si l’opérateur du service a des intentions cachées, l’objectif général de la plateforme peut être de propager des logiciels malveillants et du phishing via des liens malveillants.
De plus, les pirates pourraient compromettre un service de chatbot légitime et l’utiliser pour propager des logiciels malveillants. Si ce chatbot était véritablement humain, des milliers, voire des millions d’utilisateurs seraient exposés à ce malware. De fausses applications ChatGPT sont même apparues sur l'App Store d'Apple, il vaut donc mieux être prudent.
En général, vous ne devez jamais cliquer sur un lien fourni par un chatbot avant de l’exécuter via un site Web de vérification de liens. Cela peut sembler ennuyeux, mais il est préférable de s'assurer que le site Web vers lequel vous êtes dirigé n'a pas une conception malveillante.
De plus, vous ne devez jamais installer de plugins et d’extensions de chatbot sans avoir au préalable vérifié leur légitimité. Faites une petite recherche autour de l'application pour voir si elle a de bonnes critiques et recherchez le développeur de l'application pour voir si vous pouvez trouver quelque chose de louche.