Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
"Cent mots entendus ne valent pas la peine d'être vus", ce proverbe n'est peut-être plus exact quand il s'agit de cybersécurité face à la "menace" du deepfake dans le futur, vous ne pourrez plus rien croire. avec mes propres yeux!
Rappelant le concept, deepfake est un programme qui utilise l'intelligence artificielle , permettant aux utilisateurs d'échanger le visage d'une personne dans une vidéo avec le visage d'une autre personne. En fait, il aide les utilisateurs à créer du faux contenu en insérant les visages de personnes célèbres dans la vidéo à des fins de diffamation ou de profit illégal. C’est également la raison pour laquelle le deepfake est devenu une menace majeure pour les sociétés de divertissement, les célébrités et, surtout, la cybersécurité.
Steve Grobman, directeur de la technologie de la société de cybersécurité McAfee, et Celeste Fralick, l'une des plus grandes scientifiques des données au monde, ont lancé cet avertissement dans un discours d'ouverture lors d'une conférence sur la sécurité. RSA a récemment révélé que la technologie Deepfake est devenue beaucoup plus sophistiquée que l'humanité ne le pense, et c'est vraiment une menace majeure pour l'avenir. Pour le prouver, ces deux scientifiques ont montré une vidéo, qui montrait que les paroles de Celeste Fralick avaient été prononcées à partir d'une image qui ressemblait au visage de Steve Grobman, bien que Grobman n'ait pas encore prononcé ces paroles. On voit donc que nous sommes facilement dupés par les deepfakes, donc à cette époque, ce que nous voyons et entendons n'est pas forcément exact !
« J'ai utilisé vos commentaires publics pour créer et entraîner un modèle d'apprentissage automatique qui m'a permis de développer une vidéo deepfake, avec mes mots sortant de la bouche de quelqu'un d'autre. Ce n’est là qu’une des innombrables façons dont l’IA et l’apprentissage automatique peuvent être utilisés à des fins néfastes. Cela me fait penser au pire des cas où l’IA pourrait être utilisée par des attaquants, comme l’ingénierie sociale et le phishing, où nos adversaires pourraient désormais créer un ciblage automatique », a déclaré Celeste Fralick.
En fait, ce sont les deepfakes et l’IA qui sont devenus de puissants assistants pour aider les pirates à créer des attaques de phishing en ligne personnalisées et ciblées avec des taux de réussite plus élevés et peuvent mener des attaques à l’échelle des attaques automatisées.
« Il est juste de dire que la plupart des gens ne réalisent pas à quel point l’IA et l’apprentissage automatique peuvent être dangereux, et la frontière entre une utilisation pour le bien ou pour le mal est très mince. Il existe un domaine technique dans lequel mon équipe est impliquée, appelé apprentissage automatique contradictoire. Là-bas, nous menons des recherches sur les façons dont les mauvais acteurs peuvent envahir ou empoisonner la hiérarchie de l'apprentissage automatique », a ajouté M. Celeste Fralick.
Dans une interview du lundi 4 mars, Steve Grobman a déclaré que lui et Celeste Fralick étaient capables de créer des vidéos deepfake en un seul week-end sans s'efforcer de les rendre parfaites. Cela montre qu’une fois qu’un attaquant qualifié de deepfake a identifié une cible, créer des vidéos fabriquées sophistiquées basées sur l’IA n’est pas du tout difficile.
L'une des façons les plus courantes de tromper entre une personne réelle et un modèle généré par l'IA est de prendre une photo presque réelle, puis de modifier une très petite partie des détails d'une manière que la personne moyenne verrait souvent méconnaissable. . Fralick a donné un exemple dans lequel une photo d'un pingouin peut être interprétée et interprétée par l'IA comme une poêle à frire, grâce à quelques petites opérations seulement.
Ce que Celeste Fralick se demande ici, c'est si les mêmes techniques qui sont utilisées pour confondre les classificateurs d'images peuvent toujours être utilisées pour confondre leurs modèles de réseau ou non, en particulier ici il s'agit de faux positifs (fausse erreur de vérification).
Il existe plusieurs types de faux positifs. Par exemple, certains programmes anti-spyware bâclés font croire à tort aux utilisateurs que leur ordinateur est attaqué par un logiciel espion, alors qu'en réalité il n'y a aucun problème. Le terme « faux positif » peut également être utilisé lorsque des applications anti-spyware légitimes sont identifiées par erreur comme des menaces. Parlant davantage de cette question, le professeur Steve Grobman a déclaré que les faux positifs pourraient avoir des conséquences catastrophiques. Les 23 minutes terrifiantes du 26 septembre 1983, au plus fort des tensions de la guerre froide, en sont un parfait exemple. Plusieurs centres d'alerte internationaux, dont les États-Unis et l'Union soviétique, ont émis des avertissements à haute altitude concernant une attaque éclair qui a choqué le monde, mais en fin de compte, ce n'était qu'une erreur. Plus précisément, la partie soviétique a découvert 5 missiles nucléaires américains lancés et dirigés vers son territoire, et a immédiatement donné des instructions pour mettre toutes les forces armées en état de préparation au combat. Mais avec les sirènes retentissantes et les écrans clignotants, le lieutenant-colonel Stanislav Petrov a finalement déterminé qu'il s'agissait simplement d'un dysfonctionnement du système informatique. Plus précisément, Petrov a fait valoir que les États-Unis ne seraient pas en mesure de déclencher une guerre mondiale en lançant seulement cinq missiles. Il a ignoré les instructions avec lesquelles il avait été formé et, grâce à son intuition, le lieutenant-colonel a évalué la situation avec précision, contribuant ainsi à empêcher une guerre nucléaire.
« Il s’est avéré que la cause première de l’incident était un rare alignement de la lumière du soleil sur des nuages élevés créant des effets semblables à ceux d’une fusée. On voit donc à quel point les conséquences d’une confusion sur les systèmes informatiques peuvent être dangereuses, et peuvent même déclencher une guerre nucléaire. Et si l’Union soviétique avait lancé des missiles en réponse immédiate ? "Il est important que nous soyons conscients du véritable pouvoir de l'IA pour résoudre les problèmes, mais elle sera également une arme à double tranchant si elle est entre les mains de méchants qui sévissent en ligne", a expliqué Steve Grobman.
En outre, Grobman a également déclaré qu'il croyait toujours que la technologie n'était essentiellement qu'un outil inanimé et qu'elle pouvait être utilisée à la fois à des fins bonnes et mauvaises. Par exemple, une carte de la criminalité contenant des données sur l'endroit où le crime a eu lieu et l'endroit où l'auteur a été arrêté pourrait être utilisée pour aider la police à résoudre le crime - ou elle pourrait également être utilisée par les criminels eux-mêmes pour échapper à la poursuite policière. Dans un autre exemple, un avion a été utilisé pour bombarder des civils, faisant 2 millions de victimes pendant la Seconde Guerre mondiale. Lorsqu'on lui a demandé s'il regrettait d'avoir inventé l'avion, Orville Wright a déclaré en 1948 qu'il considérait que l'avion utilisait le feu, ce qui pourrait causer d'énormes dégâts si un incendie se déclarait, mais qu'il était néanmoins utilisé à des milliers de fins importantes. Et l’IA aussi.
« La perspicacité d'Orville nous montre que la technologie n'est pas moralement pertinente en soi, qu'elle ne peut être considérée comme bénéfique ou nuisible que selon la manière dont elle est utilisée. Et c'est contre cela que notre industrie, la cybersécurité, se bat constamment ! »
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.