5 impacts négatifs potentiels de la technologie d’IA générative sur la santé

5 impacts négatifs potentiels de la technologie d’IA générative sur la santé

ChatGPT et d’autres technologies d’apprentissage des langues sont devenues des outils puissants, et ils commencent seulement à avoir un impact sur des secteurs comme la santé. Cependant, il est important de faire preuve de prudence lorsque vous utilisez ces outils concernant votre propre santé. Bien que leur potentiel soit prometteur, il est essentiel de comprendre les limites et les risques associés à ces technologies. Voici comment ChatGPT et les systèmes d'IA générative similaires peuvent affecter votre santé.

1. Préoccupations concernant l'IA

Bien que le terme anxiété liée à l’IA existe depuis plusieurs années maintenant, selon le Journal of the Association for Information Science and Technology, le rythme rapide du développement de l’IA continue d’inquiéter de nombreuses personnes.

Heureusement, il existe des moyens de surmonter l’anxiété liée à l’IA tout en suivant l’évolution rapide de la technologie. Par exemple, se renseigner sur les chatbots et intégrer un peu d’IA dans votre propre vie peut aider à lever bon nombre de ses mystères, selon Everyday Health.

Pour de nombreuses personnes, le facteur inconnu fait partie de ce qui rend l’essor rapide de l’IA si troublant. Se familiariser avec les bases est donc un bon point de départ. Même si cela peut sembler un peu contre-intuitif, expérimenter avec Bard ou ChatGPT peut contribuer à rendre l’application globalement plus accessible.

2. Informations de santé inexactes

5 impacts négatifs potentiels de la technologie d’IA générative sur la santé

La façon dont les modèles comme ChatGPT répondent aux invites leur donne l'impression qu'ils savent tout. Il est toutefois important d’être prudent dans leurs réponses, notamment lorsqu’il s’agit de questions de santé.

Bien que ChatGPT puisse fournir des informations de santé fiables dans certains cas, l’application peut néanmoins provoquer des hallucinations et fournir des conseils de santé inexacts. Il y a de fortes chances que vous ne fassiez pas confiance aux résultats de recherche Google pour fournir des données de santé précises et personnalisées. Il est donc sage d'aborder la technologie de l'IA avec autant de prudence.

Si vous avez des questions sérieuses concernant votre santé, il est préférable de les poser à votre professionnel de la santé. De plus, les professionnels de la santé prendront probablement en compte de nombreux facteurs, notamment vos antécédents médicaux, vos symptômes et votre état de santé général. Les modèles d’IA ne seront peut-être pas capables de gérer tous ces facteurs dans la même mesure (du moins pas complètement).

Alors suivez l’indice et contactez votre médecin en cas de problèmes de santé. Même le meilleur modèle linguistique ne peut pas fournir de diagnostics personnalisés.

3. Les comportements de dépendance à la technologie augmentent

5 impacts négatifs potentiels de la technologie d’IA générative sur la santé

La dépendance à la technologie est déjà une préoccupation. En particulier, la dépendance aux réseaux sociaux et aux smartphones a augmenté rapidement ces dernières années. Pour de nombreuses personnes, ces technologies génératrices d’habitudes sont difficiles à briser, et les internautes signalent de manière informelle des sentiments de dépendance à ChatGPT et à des applications d’IA similaires.

En fait, les experts affirment que la technologie de l’IA aggravera le problème de la dépendance au numérique dans les années à venir, selon le Pew Research Center. "La dépendance au numérique, déjà un problème pour de nombreuses personnes qui jouent à des jeux vidéo, regardent des vidéos TikTok ou YouTube, ou qui regardent chaque tweet, pourrait devenir un problème encore plus important à mesure que ces chaînes et d'autres technologies numériques sont encore plus personnalisées", Gary Grossman, vice-président senior et leader mondial du Centre d'excellence en IA chez Edelman, a déclaré dans le rapport.

Même si cela peut paraître mauvais, il existe certainement des mesures que vous pouvez prendre pour réduire votre dépendance à l’égard de l’utilisation d’Internet, de l’IA et de la technologie en général.

4. Problèmes de confidentialité des données de santé

Pour de nombreuses personnes, il est facile d'utiliser des ressources comme ChatGPT pour les questions quotidiennes. Par exemple, la prochaine fois que vous souhaiterez en savoir plus sur un problème de santé spécifique, vous pourrez vous tourner vers ces chatbots pour obtenir une réponse rapide.

Bien que rapides et simples à utiliser, les outils linguistiques de l’IA peuvent ne pas protéger les données personnelles de santé que vous saisissez, comme le prévient l’Organisation mondiale de la santé. Soyez prudent si vous souhaitez écrire des rappels sur des problèmes de santé sensibles ou privés.

Parler à votre professionnel de la santé reste un moyen plus fiable et plus sûr de répondre à tout problème de santé. Lorsqu’il s’agit d’informations que vous souhaitez garder pour vous, évitez de les saisir dans l’IA.

5. Potentiel de cyberharcèlement et d'intimidation

Malheureusement, les nouvelles technologies peuvent souvent causer des dommages. Semblables aux robots trolls, les modèles linguistiques abusifs générés par l’IA peuvent rapidement générer des commentaires nuisibles et harcelants. Cela peut provoquer du stress et un traumatisme émotionnel chez la personne ciblée.

Étant donné que les modèles d’IA peuvent automatiser ces messages cruels et les générer à grande échelle, les individus peuvent être submergés par le grand nombre de commentaires diffusés sur plusieurs plateformes. Personne ne veut avoir affaire à ce type de contenu à chaque fois que vous consultez les réseaux sociaux ou envoyez un e-mail.

Ce problème n’est pas nouveau, il existe donc des moyens de se protéger contre la cyberintimidation. Selon le Cyberbullying Research Center, enregistrer des messages et demander de l'aide à l'administrateur de votre site Web ou à votre compagnie de téléphone sont d'excellentes premières étapes.

Presque tous les sites de médias sociaux ont déjà mis en place des politiques pour gérer ces messages haineux provenant des cyberintimidateurs. Par exemple, vous pouvez signaler les messages ennuyeux à Facebook, signaler les messages abusifs à Instagram et contacter l'équipe de modération de TikTok. Signalez le contenu, bloquez les utilisateurs gênants et ajustez les paramètres de confidentialité pour réduire votre risque de cyberintimidation.


Le groupe de travail ChatGPT sera créé par l’Europe

Le groupe de travail ChatGPT sera créé par l’Europe

L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.

LIA prédit lheure de la mort humaine avec une précision de 78 %

LIA prédit lheure de la mort humaine avec une précision de 78 %

Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.

L’IA prédit les maladies urinaires rien qu’au son de l’urine

L’IA prédit les maladies urinaires rien qu’au son de l’urine

Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

Barmans, attention : ce robot peut préparer un cocktail en 1 minute seulement

En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Des centaines de personnes ont été déçues lorsqu’elles ont appris que la fille qu’ils aimaient était un produit de l’IA

Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

12 autres entreprises potentielles rejoignent « lalliance IA » de Microsoft.

Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.

LIA recrée les personnages de Dragon Ball en chair et en os

LIA recrée les personnages de Dragon Ball en chair et en os

L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .

7 techniques pour améliorer les réponses ChatGPT

7 techniques pour améliorer les réponses ChatGPT

En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Émerveillez-vous devant les magnifiques peintures dessinées par lintelligence artificielle

Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Ce modèle dIA a été lun des premiers « experts » à découvrir des nouvelles sur lépidémie de pneumonie de Wuhan.

Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.