Le groupe de travail ChatGPT sera créé par l’Europe
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
À mesure que les humains avancent vers le futur, la perspective de systèmes basés sur l’IA deviendra plus attrayante. L’intelligence artificielle aidera les humains à prendre des décisions, à alimenter les villes intelligentes et, malheureusement, à infecter les ordinateurs avec toutes sortes de logiciels malveillants malveillants.
Explorons l'impact de l'IA sur les logiciels malveillants à l'avenir à travers l'article suivant.
À quoi ressembleront les futurs malwares avec l’aide de l’IA ?
Lorsqu’ils utilisent le terme « malware contrôlé par l’IA », les lecteurs imagineront facilement le scénario suivant : l’IA provoque la destruction comme un « terminateur ». En réalité, les programmes malveillants contrôlés par l’IA opèrent furtivement
Les logiciels malveillants basés sur l'IA sont des logiciels malveillants classiques modifiés par l'intelligence artificielle pour les rendre plus efficaces. Les logiciels malveillants basés sur l’IA peuvent utiliser son intelligence pour infecter les ordinateurs plus rapidement ou mener des attaques plus efficaces. Au lieu d’être un programme « stupide » sur le réseau qui suit un code préinstallé, les logiciels malveillants contrôlés par l’IA peuvent « penser par eux-mêmes » dans une certaine mesure.
L’intelligence artificielle peut renforcer les logiciels malveillants de plusieurs manières. Certaines de ces méthodes sont métaphoriques, tandis que beaucoup d’autres sont tangibles d’une manière ou d’une autre dans le monde réel.
L'un des exemples de logiciels malveillants basés sur l'IA est Deeplocker. Heureusement, IBM Research a développé ce malware comme preuve de concept que vous ne pouvez pas trouver dans la vraie vie.
Le concept de DeepLocker a démontré comment l’IA peut injecter un ransomware dans un appareil cible. Les développeurs de logiciels malveillants pourraient lancer une attaque contre une entreprise avec un ransomware, mais il est très peu probable qu’ils puissent infecter des ordinateurs critiques. En conséquence, les alertes peuvent être déclenchées trop tôt avant que le malware n’atteigne les cibles les plus importantes.
DeepLocker n'active pas la charge utile. Au lieu de cela, il remplit simplement ses fonctions de programme de téléconférence.
Lorsqu’il fait son travail, il scanne les visages des personnes qui l’ont utilisé. L'objectif de DeepLocker est d'infecter l'ordinateur d'une personne spécifique, afin de suivre les personnes lorsqu'elles utilisent le logiciel. Lorsqu'il détecte le visage de la cible, il active la charge utile et provoque le verrouillage du PC par WannaCry .
Une façon théorique d’utiliser l’IA dans les logiciels malveillants consiste à utiliser un ver pour « se souvenir » de chaque fois qu’un programme antivirus le détecte. Une fois qu'il sait quelle action amène un programme antivirus à le détecter, il arrêtera d'effectuer cette action et trouvera un autre moyen d'infecter le PC.
Ceci est particulièrement dangereux, car les logiciels antivirus modernes ont tendance à être exécutés selon des règles et des définitions strictes. Cela signifie que tout ce que le ver doit faire est de trouver un moyen de ne pas déclencher l'alarme. Une fois que cela aura été réalisé avec succès, il pourra informer d’autres souches de virus sur la vulnérabilité de leurs défenses, leur permettant ainsi d’infecter plus de PC plus facilement.
Les malwares actuels sont assez « stupides », incapables de « penser » ou de prendre des décisions. Il exécute une série de tâches que le développeur du malware lui a assignées avant que l'infection ne se produise. Si les développeurs de logiciels malveillants souhaitent qu'il fasse quelque chose de nouveau, ils doivent proposer une liste d'instructions que le logiciel malveillant doit suivre.
Ce centre de contact s’appelle le serveur « Command and Control » (C&C) et doit être extrêmement bien caché. Si ce serveur est découvert, le pirate informatique pourra être arrêté.
Cependant, si les logiciels malveillants peuvent penser par eux-mêmes, un serveur C&C n’est pas nécessaire. Les pirates peuvent laisser le logiciel malveillant s'exécuter librement et simplement rester assis pendant que le logiciel malveillant fait tout le travail. Cela signifie que le développeur du malware n’a pas besoin de risquer d’émettre des commandes. Configurez-le simplement et laissez le malware faire son travail.
Si un logiciel malveillant piloté par l'IA prend le contrôle du microphone d'une cible, il peut écouter et enregistrer ce que les gens disent à proximité. L'IA partage ensuite ce qu'elle entend, le convertit en texte, puis renvoie le texte au développeur du malware. Cela facilite la vie des pirates informatiques, car ils n'ont pas besoin de rester assis pendant des heures à enregistrer et à découvrir des secrets commerciaux.
Les logiciels malveillants peuvent tirer des leçons de leurs actions grâce à ce que l'on appelle le « apprentissage automatique ». Il s’agit d’un domaine spécifique de l’IA, qui concerne la manière dont les ordinateurs peuvent apprendre de leurs efforts. L'apprentissage automatique est utile pour les développeurs d'IA car ils n'ont pas besoin de coder pour chaque scénario. Ils indiquent à l’IA ce qui est correct et ce qui ne l’est pas, puis la laissent apprendre par essais et erreurs.
Lorsque l’IA, « entraînée » par l’apprentissage automatique, se trouve confrontée à un obstacle, elle essaie différentes méthodes pour le surmonter. Au début, il ne réussira pas très bien à relever le défi, mais l'ordinateur notera ce qui n'a pas été fait et ce qui pourrait être amélioré. À travers de nombreuses itérations d’apprentissage et d’essais, l’idée de la « bonne » réponse finira par émerger.
Vous pouvez voir un exemple de ce processus dans la vidéo ci-dessus. La vidéo montre une IA apprenant à faire marcher correctement différentes créatures. Les premières générations marchent comme si elles étaient ivres, mais les générations suivantes commenceront à maintenir une bonne posture. En effet, l’IA a appris des échecs précédents et a fait mieux sur les modèles ultérieurs.
Les développeurs de logiciels malveillants utilisent cette puissance de l’apprentissage automatique pour déterminer exactement comment attaquer un système. Si une erreur se produit, le système enregistre l'erreur et note sa cause. À l’avenir, les logiciels malveillants adapteront leurs modèles d’attaque pour obtenir de meilleurs résultats.
Le gros problème des IA « entraînées » au machine learning est qu’elles exploitent le fonctionnement des programmes antivirus actuels. Un logiciel antivirus aime fonctionner selon des règles simples. Si un programme correspond à ce qu’un antivirus sait être malveillant, celui-ci le bloquera.
Cependant, les logiciels malveillants basés sur l’IA ne fonctionneront pas selon des règles fixes et prédéfinies. Il attaquera continuellement le système de défense, essayant de trouver un moyen de passer. Une fois infiltré dans le système, il peut faire son travail sans problème jusqu'à ce que le logiciel antivirus reçoive des mises à jour spécifiques aux menaces.
Alors, quelle est la meilleure façon de lutter contre ce malware intelligent ? Parfois, vous devez lutter contre un incendie, et la meilleure façon d’y parvenir est de proposer des programmes antivirus basés sur l’IA. Ceux-ci utilisent des règles fixes pour capturer les logiciels malveillants, comme de nombreux modèles actuels. Au lieu de cela, ils analysent ce que fait un programme et le bloquent, s'il agit de manière malveillante, du point de vue du programme antivirus.
Les règles de base et les directives simples ne permettront pas d'identifier les futures attaques de logiciels malveillants. Au lieu de cela, ils utiliseront l’apprentissage automatique pour s’adapter et se préparer à toute méthode de sécurité qu’ils rencontrent. Ce n’est peut-être pas aussi excitant que Hollywood décrit l’IA malveillante, mais la menace est bien réelle.
L'organisme qui rassemble les organismes nationaux de surveillance de la vie privée en Europe a annoncé jeudi avoir créé un groupe de travail dédié à ChatGPT.
Des scientifiques danois et américains ont collaboré pour développer un système d'IA appelé life2vec, capable de prédire l'heure de la mort humaine avec une grande précision.
Un algorithme d’IA appelé Audioflow peut écouter le bruit de la miction pour identifier efficacement et avec succès les flux anormaux et les problèmes de santé correspondants du patient.
En raison du vieillissement et du déclin de la population japonaise, le pays manque d'un nombre important de jeunes travailleurs, notamment dans le secteur des services.
Un utilisateur de Reddit nommé u/LegalBeagle1966 est l'un des nombreux utilisateurs amoureux de Claudia, une fille ressemblant à une star de cinéma qui partage souvent des selfies séduisants, même nus, sur cette plateforme.
Microsoft vient d'annoncer que 12 autres entreprises technologiques participeront à son programme AI for Good.
L'utilisateur @mortecouille92 a mis à profit la puissance de l'outil de conception graphique Midjourney et a créé des versions réalistes uniques de personnages célèbres de Dragon Ball comme Goku, Vegeta, Bulma et l'aîné Kame. .
En ajoutant simplement quelques conditions ou en mettant en place des scénarios, ChatGPT peut donner des réponses plus pertinentes à vos requêtes. Examinons quelques façons d'améliorer la qualité de vos réponses ChatGPT.
Midjourney est un système d'intelligence artificielle qui a récemment provoqué une "fièvre" dans la communauté en ligne et dans le monde des artistes en raison de ses peintures extrêmement belles qui ne sont pas inférieures à celles de vrais artistes.
Quelques jours après que la Chine a annoncé l'épidémie, grâce à l'accès aux données mondiales sur les ventes de billets d'avion, le système d'IA de BlueDot a continué à prédire avec précision la propagation du virus Corona de Wuhan à Bangkok, Séoul, Taipei et Tokyo.