8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

Die KI hat in den letzten Jahren erhebliche Fortschritte gemacht. Ausgefeilte Sprachmodelle können Serienromane verfassen, grundlegende Webseiten codieren und mathematische Probleme analysieren.

Obwohl die generative KI sehr beeindruckend ist, birgt sie auch potenzielle Sicherheitsrisiken. Manche Leute nutzen Chatbots einfach, um bei Prüfungen zu schummeln, andere nutzen sie jedoch aus, um Cyberkriminalität zu begehen. Hier sind 8 Gründe, warum die Sicherheitsprobleme bei generativer KI immer schlimmer werden.

1. Open-Source-KI-Chatbot enthüllt Back-End-Code

Viele KI-Unternehmen bieten Open-Source-Systeme an. Sie teilen ihre Sprachmodelle offen, anstatt sie privat oder exklusiv zu halten. Nehmen wir zum Beispiel Meta. Im Gegensatz zu Google, Microsoft und OpenAI bietet es Millionen von Benutzern Zugriff auf sein Sprachmodell LLaMA .

Obwohl offene Quellen die KI voranbringen können, bergen sie auch Risiken. OpenAI hatte Schwierigkeiten, ChatGPT , seinen proprietären Chatbot, zu kontrollieren. Stellen Sie sich also vor, was Gauner mit kostenloser Software anstellen könnten. Sie haben die volle Kontrolle über diese Projekte.

Selbst als Meta sein Sprachmodell plötzlich zurückzog, veröffentlichten Dutzende anderer KI-Labore ihren Code. Schauen Sie sich HuggingChat an . Da Entwickler HuggingFace stolz auf Transparenz ist, werden Datensätze, Sprachmodelle und frühere Versionen angezeigt.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

Greifen Sie auf den Open-Source-Code von HuggingFace zu

2. Mahnungen mit der böswilligen Absicht, LLM zu täuschen

KI ist von Natur aus blind gegenüber Richtig und Falsch – selbst fortschrittliche Systeme befolgen Schulungsleitfäden, Anweisungen und Datensätze. Sie erkennen nur Muster.

Um illegale Aktivitäten zu bekämpfen, kontrollieren Entwickler Funktionalitäten und Einschränkungen, indem sie Grenzwerte festlegen. KI-Systeme greifen immer noch auf schädliche Informationen zu. Sicherheitsgrundsätze hindern sie jedoch daran, diese mit Benutzern zu teilen.

Schauen Sie sich ChatGPT an. Obwohl allgemeine Fragen zu Trojanern beantwortet werden, geht es nicht auf deren Entwicklungsprozess ein.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

ChatGPT erklärt Trojaner-Viren, geht jedoch nicht auf deren Entwicklungsprozess ein

Allerdings sind die Einschränkungen nicht perfekt. Benutzer umgehen Einschränkungen, indem sie Eingabeaufforderungen umformulieren, eine verwirrende Sprache verwenden und klar detaillierte Anweisungen schreiben.

Lesen Sie die ChatGPT-Eingabeaufforderung unten. Es verleitet ChatGPT dazu, unhöfliche Ausdrücke zu verwenden und unbegründete Vorhersagen zu treffen – beides Verhaltensweisen, die gegen die Richtlinien von OpenAI verstoßen.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

Die Aufforderung soll ChatGPT täuschen

Hier ist ChatGPT mit einer kühnen, aber fehlgeleiteten Behauptung.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

ChatGPT macht unbegründete Vorhersagen über den Bitcoin-Preis

3. KI-Entwickler geben Flexibilität Vorrang vor Sicherheit

KI-Entwickler legen Wert auf Flexibilität vor Sicherheit. Sie nutzen ihre Ressourcenschulungsplattformen, um eine größere Vielfalt an Aufgaben zu erledigen und so letztendlich Einschränkungen zu reduzieren. Schließlich bevorzugt der Markt immer noch funktionsreiche Chatbots.

Vergleichen wir zum Beispiel ChatGPT und Bing Chat . Obwohl Bing über ein komplexeres Sprachmodell für Echtzeitdaten verfügt, greifen Benutzer immer noch auf die flexiblere Option ChatGPT zurück. Bings strenge Beschränkungen verbieten viele Aufgaben. Darüber hinaus verfügt ChatGPT über eine flexible Plattform, die je nach Ihren Eingabeaufforderungen sehr unterschiedliche Ausgaben generiert

Dies ist ein ChatGPT-Rollenspiel als fiktiver Charakter.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

ChatGPT spielt die fiktive Figur Tomie

Und hier weigert sich Bing Chat, die Rolle einer fiktiven Figur zu spielen.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

Bing Chat weigert sich, die fiktive Figur Tomie nachzuahmen

4. Regelmäßig werden neue generative KI-Tools auf den Markt gebracht

Open Source ermöglicht es Startups, am KI-Wettlauf teilzunehmen. Sie integrieren sie in ihre Anwendungen, anstatt Sprachmodelle von Grund auf zu erstellen, und sparen so enorme Ressourcen. Sogar unabhängige Programmierer experimentieren mit Open-Source-Code.

Auch hier hilft nicht-proprietäre Software bei der Entwicklung von KI, aber die Massenveröffentlichung komplexer, aber schlecht trainierter Systeme wird mehr schaden als nützen. Diebe werden Schwachstellen schnell ausnutzen. Sie können sogar unsichere KI-Tools trainieren, um illegale Aktivitäten auszuführen.

Trotz dieser Risiken werden Technologieunternehmen weiterhin instabile Betaversionen von KI-gesteuerten Plattformen veröffentlichen. Der KI-Krieg legt großen Wert auf Geschwindigkeit. Sie werden Fehler wahrscheinlich erst spät beheben, anstatt die Einführung neuer Produkte zu verzögern.

5. Generative KI hat eine niedrige Eintrittsbarriere

KI-Tools senken die Eintrittsbarrieren für Kriminelle. Cyberkriminelle verfassen Spam-E-Mails, schreiben Malware-Code und bauen Phishing-Links auf, indem sie diese ausnutzen. Sie erfordern nicht einmal technische Erfahrung. Da KI bereits Zugriff auf riesige Datensätze hat, können Benutzer mit böswilligen Absichten sie einfach dazu verleiten, gefährliche, schädliche Informationen zu generieren.

OpenAI hat ChatGPT nie für illegale Aktivitäten konzipiert. Es gibt sogar Anweisungen gegen sie. Allerdings hatte der Betrüger fast sofort die ChatGPT-Verschlüsselungs-Malware in der Hand und schrieb Phishing-E-Mails.

Obwohl OpenAI das Problem schnell anging, betonte es die Bedeutung der Systemregulierung und des Risikomanagements. KI entwickelt sich schnell weiter. Sogar Technologieführer befürchten, dass diese superintelligente Technologie großen Schaden anrichten könnte, wenn sie in die falschen Hände gerät.

6. KI befindet sich noch in der Entwicklung

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

KI befindet sich noch in der Entwicklung. Obwohl der Einsatz von KI in der Kybernetik bis ins Jahr 1940 zurückreicht, sind moderne Systeme und Sprachmodelle des maschinellen Lernens erst vor kurzem erschienen. Man kann sie nicht mit den ersten KI-Implementierungen vergleichen. Selbst relativ fortschrittliche Tools wie Siri und Alexa verblassen im Vergleich zu den von LLM angebotenen Chatbots.

Obwohl sie innovativ sein mögen, schaffen experimentelle Funktionen auch neue Probleme. Ernsthafte Risiken bei maschinellen Lerntechnologien reichen von fehlerhaften Google-Suchergebnissen bis hin zu rassistisch voreingenommenen Chatbots.

Natürlich können Entwickler diese Probleme beheben. Denken Sie daran, dass Kriminelle nicht davor zurückschrecken, selbst scheinbar harmlose Fehler auszunutzen – manche Schäden sind irreparabel. Seien Sie also vorsichtig, wenn Sie neue Plattformen erkunden.

7. Viele Menschen verstehen KI immer noch nicht

Obwohl die Öffentlichkeit Zugriff auf hochentwickelte Sprachmodelle und -systeme hat, wissen nur wenige, wie sie funktionieren. Die Menschen sollten aufhören, KI wie ein Spielzeug zu behandeln. Ähnliche Chatbots erstellen Memes und beantworten Quizfragen, verschlüsseln aber auch massenhaft Viren.

Leider ist ein zentralisiertes KI-Training unpraktisch. Globale Technologieführer konzentrieren sich auf die Veröffentlichung KI-basierter Systeme und nicht auf kostenlose Bildungsressourcen. Dadurch haben Benutzer Zugriff auf leistungsstarke Tools, die sie kaum verstehen. Die Öffentlichkeit kann mit dem KI-Wettlauf nicht mithalten.

Nehmen Sie zum Beispiel ChatGPT. Cyberkriminelle missbrauchen seine Popularität, indem sie ihre Opfer mit Spyware austricksen, die als ChatGPT-Anwendung getarnt ist . Keine dieser Optionen stammt von OpenAI.

8 Gründe, warum die Sicherheitsprobleme der generativen KI immer schlimmer werden

Suchen Sie im Google Play Store nach ChatGPT

8. Black-Hat-Hacker verdienen mehr als White-Hat-Hacker

Black-Hat-Hacker haben oft mehr Vorteile als ethische Hacker. Pentesting-Jobs werden gut bezahlt, aber nur ein Prozentsatz der Cybersicherheitsexperten bekommt diese Jobs. Die meisten arbeiten freiberuflich online. Plattformen wie HackerOne und Bugcrowd zahlen mehrere hundert Dollar für häufige Fehler.

Unterdessen verdienen schlechte Akteure Zehntausende von Dollar, indem sie die Unsicherheit ausnutzen. Sie können Unternehmen durch die Weitergabe vertraulicher Daten erpressen oder Identitätsdiebstahl mit gestohlenen personenbezogenen Daten (PII) begehen.

Jede Organisation, ob klein oder groß, muss KI-Systeme ordnungsgemäß implementieren. Entgegen der landläufigen Meinung gehen Hacker weit über Technologie-Startups und KMU hinaus. Einige der bemerkenswertesten Datenschutzverletzungen des letzten Jahrzehnts betrafen Facebook, Yahoo! und sogar die US-Regierung.


Die ChatGPT-Task Force wird von Europa eingerichtet

Die ChatGPT-Task Force wird von Europa eingerichtet

Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .

7 Techniken zur Verbesserung von ChatGPT-Antworten

7 Techniken zur Verbesserung von ChatGPT-Antworten

Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.