Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Malgré les capacités impressionnantes de ChatGPT , plusieurs grandes entreprises ont interdit à leurs employés d'utiliser ce chatbot IA.
En mai 2023, Samsung a interdit l'utilisation de ChatGPT et d'autres outils d'IA générative . Puis, en juin 2023, la Commonwealth Bank australienne, ainsi que des sociétés comme Amazon, Apple et JPMorgan Chase & Co, ont également mis en œuvre la restriction. Certains hôpitaux, cabinets d'avocats et agences gouvernementales ont également interdit à leurs employés d'utiliser ChatGPT.
Alors pourquoi de plus en plus d’entreprises interdisent ChatGPT ? Voici 5 raisons principales.
1. Fuite de données
ChatGPT nécessite une grande quantité de données pour s'entraîner et fonctionner efficacement. Le chatbot a été formé à l’aide d’énormes quantités de données obtenues sur Internet et continuera à être formé.
Selon la page d'aide d'OpenAI, chaque élément de données, y compris les détails confidentiels du client, les secrets commerciaux et les informations commerciales sensibles, que vous fournissez au chatbot peut être examiné et utilisé pour améliorer le système.
Configurer l'authentification multifacteur sur ChatGPT
De nombreuses entreprises sont soumises à des réglementations strictes en matière de protection des données. Par conséquent, ils sont prudents quant au partage de données personnelles avec des entités externes, car cela augmente le risque de fuite de données.
Par ailleurs, OpenAI n’offre aucune garantie de parfaite sécurité et protection des données. En mars 2023, OpenAI a confirmé un bug qui permettait à certains utilisateurs d'afficher les titres de discussion dans l'historique d'autres utilisateurs actifs. Bien que ce bug ait été corrigé et qu'OpenAI ait lancé un programme de bug bounty, la société ne garantit pas la sécurité et la confidentialité des données des utilisateurs.
De nombreuses organisations choisissent d'empêcher leurs employés d'utiliser ChatGPT pour éviter les violations de données, qui peuvent nuire à leur réputation, entraîner des pertes financières et mettre leurs clients et leurs employés en danger.
2. Risques de cybersécurité
Bien qu'il ne soit pas clair si ChatGPT est réellement sensible aux risques de cybersécurité, il est possible que son déploiement au sein d'une organisation crée des vulnérabilités potentielles qui pourraient être exploitées par des cyberattaquants.
Si une entreprise intègre ChatGPT et qu'il existe une faiblesse dans le système de sécurité du chatbot, les attaquants peuvent exploiter la vulnérabilité et l'infecter avec des logiciels malveillants. De plus, la capacité de ChatGPT à générer des réponses de type humain est un « œuf d'or » pour les attaquants de phishing, qui peuvent prendre le contrôle de comptes ou usurper l'identité d'entités légitimes pour inciter les employés de l'entreprise à partager des informations sensibles.
3. Créez des chatbots personnalisés
Malgré ses fonctionnalités innovantes, ChatGPT peut créer des informations fausses et trompeuses. Par conséquent, de nombreuses entreprises ont créé des chatbots IA à des fins professionnelles. Par exemple, la Commonwealth Bank australienne a demandé à son personnel d'utiliser Gen.ai, un chatbot d'intelligence artificielle (IA) qui utilise les informations de CommBank pour fournir des réponses.
Des entreprises comme Samsung et Amazon ont développé des modèles avancés de langage naturel, afin que les entreprises puissent facilement créer et déployer des chatbots personnalisés basés sur les transcriptions existantes. Grâce à ces chatbots internes, vous pouvez éviter les conséquences juridiques et de réputation associées à une mauvaise gestion des données.
4. Absence de réglementation
Dans les secteurs où les entreprises sont soumises à des protocoles et à des sanctions, le manque de directives réglementaires de ChatGPT est un signal d'alarme. Sans conditions juridiques précises régissant l’utilisation de ChatGPT, les entreprises pourraient faire face à de graves conséquences juridiques si elles utilisent des chatbots IA pour leurs opérations.
De plus, l’absence de réglementation peut réduire la responsabilité et la transparence des entreprises. Il peut être déroutant pour la plupart des entreprises d’expliquer à leurs clients les processus décisionnels et les mesures de sécurité du modèle de langage d’IA.
Les entreprises restreignent ChatGPT en raison de préoccupations concernant le potentiel de violation des lois sur la confidentialité et des réglementations spécifiques à l'industrie.
5. Utilisation irresponsable par les employés
Dans de nombreuses entreprises, certains employés s'appuient uniquement sur les réponses ChatGPT pour créer du contenu et effectuer leurs tâches. Cela crée de la paresse dans l’environnement de travail et étouffe la créativité et l’innovation.
S'appuyer sur l'IA peut entraver votre capacité à penser de manière critique. Cela peut également nuire à la réputation d'une entreprise, car ChatGPT fournit souvent des données inexactes et peu fiables.
Bien que ChatGPT soit un outil puissant, son utilisation pour résoudre des requêtes complexes nécessitant une expertise spécifique à un domaine peut nuire aux opérations et à l'efficacité d'une entreprise. Certains employés peuvent ne pas penser à vérifier les faits et à vérifier les réponses fournies par les chatbots IA, considérant celles fournies par ChatGPT comme une solution universelle.
Pour atténuer de tels problèmes, les entreprises interdisent les chatbots afin que les employés puissent se concentrer sur leurs tâches et fournir des solutions sans erreur aux utilisateurs.
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.