Die ChatGPT-Task Force wird von Europa eingerichtet
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
„Hundert gehörte Worte sind nicht sehenswert“, dieses Sprichwort trifft in Sachen Cybersicherheit möglicherweise nicht mehr zu. Angesichts der „Bedrohung“ durch Deepfake wird man in Zukunft nichts mehr glauben können. Ich habe es gesehen mit meinen eigenen Augen!
Um an das Konzept zu erinnern: Deepfake ist ein Programm, das künstliche Intelligenz nutzt und es Benutzern ermöglicht, das Gesicht einer Person in einem Video mit dem Gesicht einer anderen Person auszutauschen. Tatsächlich hilft es Benutzern dabei, gefälschte Inhalte zu erstellen, indem die Gesichter berühmter Personen zum Zweck der Verleumdung oder illegalen Profits in das Video eingefügt werden. Das ist auch der Grund, warum Deepfake zu einer der größten Bedrohungen für Unterhaltungsunternehmen, Prominente und vor allem für die Cybersicherheit geworden ist.
Steve Grobman, Chief Technology Officer des Cybersicherheitsunternehmens McAfee, und Celeste Fralick, eine der weltweit führenden Datenwissenschaftlerinnen, warnten in einer Grundsatzrede auf einer Sicherheitskonferenz. RSA gab kürzlich bekannt, dass die Deepfake-Technologie viel ausgefeilter geworden ist, als die Menschheit denkt. und es ist wirklich eine große Bedrohung für die Zukunft. Um dies zu beweisen, zeigten diese beiden Wissenschaftler ein Video, das zeigte, dass Celeste Fralicks Worte von einem Bild aus gesprochen wurden, das Steve Grobmans Gesicht ähnelte, obwohl Grobman es noch nicht erwähnt hatte. Sagen Sie diese Worte jemals. Es ist also ersichtlich, dass wir uns leicht von Deepfake täuschen lassen, sodass in dieser Zeit das, was wir sehen und hören, nicht unbedingt korrekt ist!
„Ich habe Ihre öffentlichen Kommentare genutzt, um ein Modell für maschinelles Lernen zu erstellen und zu trainieren, das es mir ermöglichte, ein Deepfake-Video zu entwickeln, bei dem meine Worte aus dem Mund eines anderen kamen. Dies ist nur eine von unzähligen Möglichkeiten, wie KI und maschinelles Lernen für schändliche Zwecke genutzt werden können. Ich denke an das Worst-Case-Szenario, in dem KI von Angreifern eingesetzt werden könnte, zum Beispiel für Social Engineering und Phishing, wo unsere Gegner nun automatisches Targeting erstellen könnten“, sagte Celeste Fralick.
Tatsächlich sind Deepfake und KI zu leistungsstarken Assistenten geworden, die Hackern dabei helfen, personalisierte, gezielte Online-Phishing-Angriffe mit höheren Erfolgsraten zu erstellen und das Ausmaß automatisierter Angriffe zu erreichen.
„Man kann mit Fug und Recht behaupten, dass die meisten Menschen sich nicht darüber im Klaren sind, wie gefährlich KI und maschinelles Lernen tatsächlich sein können, und dass die Grenze zwischen ihrem Einsatz zum Guten oder zum Bösen sehr schmal ist. Es gibt einen technischen Bereich, an dem mein Team beteiligt ist und der als kontradiktorisches maschinelles Lernen bezeichnet wird. Dort untersuchen wir, wie schlechte Akteure in die Hierarchie des maschinellen Lernens eindringen oder diese vergiften können“, fügte Herr Celeste Fralick hinzu.
In einem Interview am Montag, dem 4. März, sagte Steve Grobman, dass er und Celeste Fralick in nur einem Wochenende Deepfake-Videos erstellen konnten, ohne sich anzustrengen, sie perfekt zu machen. Das zeigt, dass es überhaupt nicht schwierig ist, raffiniert erfundene Videos auf Basis von KI zu erstellen, sobald ein qualifizierter Deepfake-Angreifer ein Ziel identifiziert hat.
Eine der häufigsten Methoden zur Täuschung zwischen einer realen Person und einem KI-generierten Modell besteht darin, ein nahezu reales Foto aufzunehmen und dann einen sehr kleinen Teil der Details so zu verändern, dass der Durchschnittsmensch sie oft nicht wiedererkennen würde . Fralick nannte ein Beispiel, in dem ein Foto eines Pinguins dank nur weniger kleiner Operationen von der KI als Bratpfanne interpretiert und interpretiert werden kann.
Was Celeste Fralick hier fragt, ist, ob dieselben Techniken, die zur Verwirrung von Bildklassifikatoren verwendet werden, immer noch verwendet werden können, um ihre Netzwerkmodelle zu verwirren. Uns oder nicht, konkret handelt es sich hier um False Positive (falscher Verifizierungsfehler).
Es gibt verschiedene Arten von Fehlalarmen. Einige schlampige Anti-Spyware-Programme lassen beispielsweise Benutzer fälschlicherweise glauben, dass ihr Computer von Spyware angegriffen wird, obwohl es in Wirklichkeit überhaupt kein Problem gibt. Der Begriff „falsch positiv“ kann auch verwendet werden, wenn legitime Anti-Spyware-Anwendungen fälschlicherweise als Bedrohung identifiziert werden. Professor Steve Grobman ging näher auf dieses Thema ein und sagte, dass Fehlalarme katastrophale Folgen haben könnten. Ein Paradebeispiel dafür waren die erschreckenden 23 Minuten am 26. September 1983 – auf dem Höhepunkt der Spannungen im Kalten Krieg. Mehrere internationale Warnzentren, darunter die USA und die Sowjetunion, gaben in großer Höhe Warnungen vor einem Blitzangriff heraus, der die Welt schockierte, aber am Ende war es nur ein Fehler. Wirklich falsch. Konkret entdeckte die sowjetische Seite fünf abgefeuerte US-Atomraketen, die auf ihr Territorium zusteuerten, und erteilte sofort die Anweisung, alle Streitkräfte in Kriegsbereitschaft zu versetzen. Doch als Sirenen heulten und Bildschirme blinkten, kam Oberstleutnant Stanislav Petrov schließlich zu dem Schluss, dass es sich bei dem Vorfall lediglich um eine Fehlfunktion des Computersystems handelte. Konkret argumentierte Petrov, dass die Vereinigten Staaten nicht in der Lage wären, einen Weltkrieg durch den Abschuss von nur fünf Raketen zu beginnen. Er ignorierte die Anweisungen, mit denen er trainiert worden war, und mit seiner Intuition schätzte der Oberstleutnant die Situation genau ein und trug so dazu bei, einen Atomkrieg zu verhindern.
„Es stellte sich heraus, dass die Hauptursache des Vorfalls eine seltene Ausrichtung des Sonnenlichts auf hohen Wolken war, die raketenartige Effekte erzeugte. So können wir sehen, wie gefährlich die Folgen einer Verwirrung auf Computersystemen sein und sogar einen Atomkrieg auslösen können. Was wäre, wenn die Sowjetunion als unmittelbare Reaktion Raketenstarts gestartet hätte? Und es ist wichtig, dass wir uns der wahren Macht der KI bei der Lösung von Problemen bewusst sind, aber sie wird auch ein zweischneidiges Schwert sein, wenn sie in die Hände von Bösewichten gerät, die online lauern“, teilte Steve Grobman mit.
Darüber hinaus sagte Grobman auch, dass er immer davon überzeugt sei, dass Technologie im Wesentlichen nur ein unbelebtes Werkzeug sei und sowohl für gute als auch für schlechte Zwecke eingesetzt werden könne. Beispielsweise könnte eine Kriminalitätskarte mit Daten darüber, wo die Straftat begangen wurde und wo der Täter festgenommen wurde, der Polizei bei der Aufklärung des Verbrechens helfen – oder sie könnte auch von den Kriminellen selbst genutzt werden, um einer polizeilichen Verfolgung zu entgehen. In einem anderen Beispiel wurde ein Flugzeug zur Bombardierung von Zivilisten eingesetzt, was im Zweiten Weltkrieg zu 2 Millionen Todesopfern führte. Auf die Frage, ob er die Erfindung des Flugzeugs bereue, sagte Orville Wright 1948, dass er es als die Verwendung von Feuer betrachte, das im Falle eines Brandes enormen Schaden anrichten könne, aber dennoch für Tausende wichtiger Zwecke genutzt werde. Und das gilt auch für die KI.
„Orvilles Erkenntnisse zeigen uns, dass Technologie von Natur aus moralisch irrelevant ist. Man kann nur sagen, dass sie je nach Verwendungszweck nützlich oder schädlich ist. Und genau dagegen kämpft unsere Branche, die Cybersicherheit, ständig!“
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.
Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.
Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.
Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.
Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.
Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .
Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.
Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.
Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.