McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

„Hundert gehörte Worte sind nicht sehenswert“, dieses Sprichwort trifft in Sachen Cybersicherheit möglicherweise nicht mehr zu. Angesichts der „Bedrohung“ durch Deepfake wird man in Zukunft nichts mehr glauben können. Ich habe es gesehen mit meinen eigenen Augen!

Um an das Konzept zu erinnern: Deepfake ist ein Programm, das künstliche Intelligenz nutzt und es Benutzern ermöglicht, das Gesicht einer Person in einem Video mit dem Gesicht einer anderen Person auszutauschen. Tatsächlich hilft es Benutzern dabei, gefälschte Inhalte zu erstellen, indem die Gesichter berühmter Personen zum Zweck der Verleumdung oder illegalen Profits in das Video eingefügt werden. Das ist auch der Grund, warum Deepfake zu einer der größten Bedrohungen für Unterhaltungsunternehmen, Prominente und vor allem für die Cybersicherheit geworden ist.

McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

Steve Grobman, Chief Technology Officer des Cybersicherheitsunternehmens McAfee, und Celeste Fralick, eine der weltweit führenden Datenwissenschaftlerinnen, warnten in einer Grundsatzrede auf einer Sicherheitskonferenz. RSA gab kürzlich bekannt, dass die Deepfake-Technologie viel ausgefeilter geworden ist, als die Menschheit denkt. und es ist wirklich eine große Bedrohung für die Zukunft. Um dies zu beweisen, zeigten diese beiden Wissenschaftler ein Video, das zeigte, dass Celeste Fralicks Worte von einem Bild aus gesprochen wurden, das Steve Grobmans Gesicht ähnelte, obwohl Grobman es noch nicht erwähnt hatte. Sagen Sie diese Worte jemals. Es ist also ersichtlich, dass wir uns leicht von Deepfake täuschen lassen, sodass in dieser Zeit das, was wir sehen und hören, nicht unbedingt korrekt ist!

„Ich habe Ihre öffentlichen Kommentare genutzt, um ein Modell für maschinelles Lernen zu erstellen und zu trainieren, das es mir ermöglichte, ein Deepfake-Video zu entwickeln, bei dem meine Worte aus dem Mund eines anderen kamen. Dies ist nur eine von unzähligen Möglichkeiten, wie KI und maschinelles Lernen für schändliche Zwecke genutzt werden können. Ich denke an das Worst-Case-Szenario, in dem KI von Angreifern eingesetzt werden könnte, zum Beispiel für Social Engineering und Phishing, wo unsere Gegner nun automatisches Targeting erstellen könnten“, sagte Celeste Fralick.

McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

Tatsächlich sind Deepfake und KI zu leistungsstarken Assistenten geworden, die Hackern dabei helfen, personalisierte, gezielte Online-Phishing-Angriffe mit höheren Erfolgsraten zu erstellen und das Ausmaß automatisierter Angriffe zu erreichen.

„Man kann mit Fug und Recht behaupten, dass die meisten Menschen sich nicht darüber im Klaren sind, wie gefährlich KI und maschinelles Lernen tatsächlich sein können, und dass die Grenze zwischen ihrem Einsatz zum Guten oder zum Bösen sehr schmal ist. Es gibt einen technischen Bereich, an dem mein Team beteiligt ist und der als kontradiktorisches maschinelles Lernen bezeichnet wird. Dort untersuchen wir, wie schlechte Akteure in die Hierarchie des maschinellen Lernens eindringen oder diese vergiften können“, fügte Herr Celeste Fralick hinzu.

In einem Interview am Montag, dem 4. März, sagte Steve Grobman, dass er und Celeste Fralick in nur einem Wochenende Deepfake-Videos erstellen konnten, ohne sich anzustrengen, sie perfekt zu machen. Das zeigt, dass es überhaupt nicht schwierig ist, raffiniert erfundene Videos auf Basis von KI zu erstellen, sobald ein qualifizierter Deepfake-Angreifer ein Ziel identifiziert hat.

Eine der häufigsten Methoden zur Täuschung zwischen einer realen Person und einem KI-generierten Modell besteht darin, ein nahezu reales Foto aufzunehmen und dann einen sehr kleinen Teil der Details so zu verändern, dass der Durchschnittsmensch sie oft nicht wiedererkennen würde . Fralick nannte ein Beispiel, in dem ein Foto eines Pinguins dank nur weniger kleiner Operationen von der KI als Bratpfanne interpretiert und interpretiert werden kann.

Was Celeste Fralick hier fragt, ist, ob dieselben Techniken, die zur Verwirrung von Bildklassifikatoren verwendet werden, immer noch verwendet werden können, um ihre Netzwerkmodelle zu verwirren. Uns oder nicht, konkret handelt es sich hier um False Positive (falscher Verifizierungsfehler).

McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

Es gibt verschiedene Arten von Fehlalarmen. Einige schlampige Anti-Spyware-Programme lassen beispielsweise Benutzer fälschlicherweise glauben, dass ihr Computer von Spyware angegriffen wird, obwohl es in Wirklichkeit überhaupt kein Problem gibt. Der Begriff „falsch positiv“ kann auch verwendet werden, wenn legitime Anti-Spyware-Anwendungen fälschlicherweise als Bedrohung identifiziert werden. Professor Steve Grobman ging näher auf dieses Thema ein und sagte, dass Fehlalarme katastrophale Folgen haben könnten. Ein Paradebeispiel dafür waren die erschreckenden 23 Minuten am 26. September 1983 – auf dem Höhepunkt der Spannungen im Kalten Krieg. Mehrere internationale Warnzentren, darunter die USA und die Sowjetunion, gaben in großer Höhe Warnungen vor einem Blitzangriff heraus, der die Welt schockierte, aber am Ende war es nur ein Fehler. Wirklich falsch. Konkret entdeckte die sowjetische Seite fünf abgefeuerte US-Atomraketen, die auf ihr Territorium zusteuerten, und erteilte sofort die Anweisung, alle Streitkräfte in Kriegsbereitschaft zu versetzen. Doch als Sirenen heulten und Bildschirme blinkten, kam Oberstleutnant Stanislav Petrov schließlich zu dem Schluss, dass es sich bei dem Vorfall lediglich um eine Fehlfunktion des Computersystems handelte. Konkret argumentierte Petrov, dass die Vereinigten Staaten nicht in der Lage wären, einen Weltkrieg durch den Abschuss von nur fünf Raketen zu beginnen. Er ignorierte die Anweisungen, mit denen er trainiert worden war, und mit seiner Intuition schätzte der Oberstleutnant die Situation genau ein und trug so dazu bei, einen Atomkrieg zu verhindern.

„Es stellte sich heraus, dass die Hauptursache des Vorfalls eine seltene Ausrichtung des Sonnenlichts auf hohen Wolken war, die raketenartige Effekte erzeugte. So können wir sehen, wie gefährlich die Folgen einer Verwirrung auf Computersystemen sein und sogar einen Atomkrieg auslösen können. Was wäre, wenn die Sowjetunion als unmittelbare Reaktion Raketenstarts gestartet hätte? Und es ist wichtig, dass wir uns der wahren Macht der KI bei der Lösung von Problemen bewusst sind, aber sie wird auch ein zweischneidiges Schwert sein, wenn sie in die Hände von Bösewichten gerät, die online lauern“, teilte Steve Grobman mit.

McAfee-Experte erklärt, wie Deepfake und KI die Mauern der Cybersicherheit durchbrechen

Darüber hinaus sagte Grobman auch, dass er immer davon überzeugt sei, dass Technologie im Wesentlichen nur ein unbelebtes Werkzeug sei und sowohl für gute als auch für schlechte Zwecke eingesetzt werden könne. Beispielsweise könnte eine Kriminalitätskarte mit Daten darüber, wo die Straftat begangen wurde und wo der Täter festgenommen wurde, der Polizei bei der Aufklärung des Verbrechens helfen – oder sie könnte auch von den Kriminellen selbst genutzt werden, um einer polizeilichen Verfolgung zu entgehen. In einem anderen Beispiel wurde ein Flugzeug zur Bombardierung von Zivilisten eingesetzt, was im Zweiten Weltkrieg zu 2 Millionen Todesopfern führte. Auf die Frage, ob er die Erfindung des Flugzeugs bereue, sagte Orville Wright 1948, dass er es als die Verwendung von Feuer betrachte, das im Falle eines Brandes enormen Schaden anrichten könne, aber dennoch für Tausende wichtiger Zwecke genutzt werde. Und das gilt auch für die KI.

„Orvilles Erkenntnisse zeigen uns, dass Technologie von Natur aus moralisch irrelevant ist. Man kann nur sagen, dass sie je nach Verwendungszweck nützlich oder schädlich ist. Und genau dagegen kämpft unsere Branche, die Cybersicherheit, ständig!“


Die ChatGPT-Task Force wird von Europa eingerichtet

Die ChatGPT-Task Force wird von Europa eingerichtet

Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .

7 Techniken zur Verbesserung von ChatGPT-Antworten

7 Techniken zur Verbesserung von ChatGPT-Antworten

Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.