Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
ChatGPT et d’autres technologies d’apprentissage des langues sont devenues des outils puissants, et ils commencent seulement à avoir un impact sur des secteurs comme la santé. Cependant, il est important de faire preuve de prudence lorsque vous utilisez ces outils concernant votre propre santé. Bien que leur potentiel soit prometteur, il est essentiel de comprendre les limites et les risques associés à ces technologies. Voici comment ChatGPT et les systèmes d'IA générative similaires peuvent affecter votre santé.
1. Préoccupations concernant l'IA
Bien que le terme anxiété liée à l’IA existe depuis plusieurs années maintenant, selon le Journal of the Association for Information Science and Technology, le rythme rapide du développement de l’IA continue d’inquiéter de nombreuses personnes.
Heureusement, il existe des moyens de surmonter l’anxiété liée à l’IA tout en suivant l’évolution rapide de la technologie. Par exemple, se renseigner sur les chatbots et intégrer un peu d’IA dans votre propre vie peut aider à lever bon nombre de ses mystères, selon Everyday Health.
Pour de nombreuses personnes, le facteur inconnu fait partie de ce qui rend l’essor rapide de l’IA si troublant. Se familiariser avec les bases est donc un bon point de départ. Même si cela peut sembler un peu contre-intuitif, expérimenter avec Bard ou ChatGPT peut contribuer à rendre l’application globalement plus accessible.
2. Informations de santé inexactes
La façon dont les modèles comme ChatGPT répondent aux invites leur donne l'impression qu'ils savent tout. Il est toutefois important d’être prudent dans leurs réponses, notamment lorsqu’il s’agit de questions de santé.
Bien que ChatGPT puisse fournir des informations de santé fiables dans certains cas, l’application peut néanmoins provoquer des hallucinations et fournir des conseils de santé inexacts. Il y a de fortes chances que vous ne fassiez pas confiance aux résultats de recherche Google pour fournir des données de santé précises et personnalisées. Il est donc sage d'aborder la technologie de l'IA avec autant de prudence.
Si vous avez des questions sérieuses concernant votre santé, il est préférable de les poser à votre professionnel de la santé. De plus, les professionnels de la santé prendront probablement en compte de nombreux facteurs, notamment vos antécédents médicaux, vos symptômes et votre état de santé général. Les modèles d’IA ne seront peut-être pas capables de gérer tous ces facteurs dans la même mesure (du moins pas complètement).
Alors suivez l’indice et contactez votre médecin en cas de problèmes de santé. Même le meilleur modèle linguistique ne peut pas fournir de diagnostics personnalisés.
3. Les comportements de dépendance à la technologie augmentent
La dépendance à la technologie est déjà une préoccupation. En particulier, la dépendance aux réseaux sociaux et aux smartphones a augmenté rapidement ces dernières années. Pour de nombreuses personnes, ces technologies génératrices d’habitudes sont difficiles à briser, et les internautes signalent de manière informelle des sentiments de dépendance à ChatGPT et à des applications d’IA similaires.
En fait, les experts affirment que la technologie de l’IA aggravera le problème de la dépendance au numérique dans les années à venir, selon le Pew Research Center. "La dépendance au numérique, déjà un problème pour de nombreuses personnes qui jouent à des jeux vidéo, regardent des vidéos TikTok ou YouTube, ou qui regardent chaque tweet, pourrait devenir un problème encore plus important à mesure que ces chaînes et d'autres technologies numériques sont encore plus personnalisées", Gary Grossman, vice-président senior et leader mondial du Centre d'excellence en IA chez Edelman, a déclaré dans le rapport.
Même si cela peut paraître mauvais, il existe certainement des mesures que vous pouvez prendre pour réduire votre dépendance à l’égard de l’utilisation d’Internet, de l’IA et de la technologie en général.
4. Problèmes de confidentialité des données de santé
Pour de nombreuses personnes, il est facile d'utiliser des ressources comme ChatGPT pour les questions quotidiennes. Par exemple, la prochaine fois que vous souhaiterez en savoir plus sur un problème de santé spécifique, vous pourrez vous tourner vers ces chatbots pour obtenir une réponse rapide.
Bien que rapides et simples à utiliser, les outils linguistiques de l’IA peuvent ne pas protéger les données personnelles de santé que vous saisissez, comme le prévient l’Organisation mondiale de la santé. Soyez prudent si vous souhaitez écrire des rappels sur des problèmes de santé sensibles ou privés.
Parler à votre professionnel de la santé reste un moyen plus fiable et plus sûr de répondre à tout problème de santé. Lorsqu’il s’agit d’informations que vous souhaitez garder pour vous, évitez de les saisir dans l’IA.
5. Potentiel de cyberharcèlement et d'intimidation
Malheureusement, les nouvelles technologies peuvent souvent causer des dommages. Semblables aux robots trolls, les modèles linguistiques abusifs générés par l’IA peuvent rapidement générer des commentaires nuisibles et harcelants. Cela peut provoquer du stress et un traumatisme émotionnel chez la personne ciblée.
Étant donné que les modèles d’IA peuvent automatiser ces messages cruels et les générer à grande échelle, les individus peuvent être submergés par le grand nombre de commentaires diffusés sur plusieurs plateformes. Personne ne veut avoir affaire à ce type de contenu à chaque fois que vous consultez les réseaux sociaux ou envoyez un e-mail.
Ce problème n’est pas nouveau, il existe donc des moyens de se protéger contre la cyberintimidation. Selon le Cyberbullying Research Center, enregistrer des messages et demander de l'aide à l'administrateur de votre site Web ou à votre compagnie de téléphone sont d'excellentes premières étapes.
Presque tous les sites de médias sociaux ont déjà mis en place des politiques pour gérer ces messages haineux provenant des cyberintimidateurs. Par exemple, vous pouvez signaler les messages ennuyeux à Facebook, signaler les messages abusifs à Instagram et contacter l'équipe de modération de TikTok. Signalez le contenu, bloquez les utilisateurs gênants et ajustez les paramètres de confidentialité pour réduire votre risque de cyberintimidation.
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.