3 Chatbot-Datenschutzrisiken, die Sie kennen sollten

3 Chatbot-Datenschutzrisiken, die Sie kennen sollten

Chatbots gibt es schon seit vielen Jahren, aber der Aufstieg großer Sprachmodelle wie ChatGPT und Google Bard hat der Chatbot-Branche neues Leben eingehaucht.

Mittlerweile nutzen weltweit Millionen von Menschen KI-Chatbots. Es gibt jedoch einige wichtige Risiken und Datenschutzbedenken, die Sie im Hinterkopf behalten sollten, wenn Sie eines dieser Tools ausprobieren möchten.

1. Daten sammeln

Die meisten Menschen nutzen Chatbots nicht nur, um Hallo zu sagen. Moderne Chatbots sind darauf ausgelegt, komplexe Fragen und Wünsche zu bearbeiten und zu beantworten, wobei die Benutzer oft viele Informationen in ihre Eingabeaufforderungen einbeziehen. Selbst wenn Sie nur eine einfache Frage stellen, möchten Sie nicht, dass diese über das Gespräch hinausgeht.

Laut OpenAI-Support können Sie ChatGPT-Chatprotokolle jederzeit löschen. Diese Protokolle werden dann nach 30 Tagen dauerhaft von den OpenAI-Systemen gelöscht. Das Unternehmen wird jedoch bestimmte Chat-Protokolle aufbewahren und überprüfen, wenn sich herausstellt, dass sie schädliche oder unangemessene Inhalte enthalten.

Ein weiterer beliebter KI-Chatbot, Claude, verfolgt ebenfalls Ihre vorherigen Gespräche. Das Support-Center von Anthropic gibt an, dass Claude „Ihre Eingabeaufforderungen und Ausgaben im Produkt verfolgt , um Ihnen im Laufe der Zeit ein konsistentes Produkterlebnis unter Ihrer Kontrolle zu bieten“. Sie können Ihre Gespräche mit Claude löschen, sodass Claude vergisst, was Sie gesagt haben. Dies bedeutet jedoch nicht, dass Anthropic Ihre Protokolle sofort aus seinem System löscht.

Dies führt natürlich zu der Frage: Werden Ihre Daten gespeichert? Nutzen ChatGPT oder andere Chatbots Ihre Daten?

Aber die Bedenken hören hier nicht auf.

2. Datendiebstahl

Wie jedes Online-Tool oder jede Online-Plattform sind Chatbots anfällig für Cyberkriminelle. Selbst wenn ein Chatbot alles getan hat, um seine Benutzer und Daten zu schützen, besteht immer die Möglichkeit, dass ein erfahrener Hacker einen Weg findet, in seine internen Systeme einzudringen.

Wenn ein bestimmter Chatbot-Dienst Ihre sensiblen Informationen speichert, wie z. B. Zahlungsdetails für ein kostenpflichtiges Abonnement, Kontaktdaten oder ähnliche Informationen, könnten diese Informationen gestohlen und im Falle eines Cyberangriffs ausgenutzt werden.

Dies gilt insbesondere dann, wenn Sie einen weniger sicheren Chatbot verwenden, dessen Entwickler nicht in einen angemessenen Sicherheitsschutz investiert hat. Nicht nur die internen Systeme eines Unternehmens können gehackt werden, sondern auch Ihr eigenes Konto besteht ohne Anmeldewarnung oder Authentifizierungsebene dem Risiko, kompromittiert zu werden.

Da KI-Chatbots mittlerweile so beliebt sind, nutzen Cyberkriminelle diese Branche natürlich in Scharen für Betrug. Gefälschte ChatGPT-Websites und -Plugins sind zu einem großen Problem geworden, seit die Chatbots von OpenAI Ende 2022 populär wurden, was dazu führte, dass Menschen in Betrügereien verfielen und persönliche Informationen unter dem Deckmantel der Legitimität und Zuverlässigkeit preisgaben.

Im März 2023 berichtete MUO über eine gefälschte ChatGPT-Chrome-Erweiterung , die Facebook-Anmeldedaten stiehlt. Das Plugin kann die Hintertür von Facebook ausnutzen, um Premium-Konten zu hacken und die Cookies der Benutzer zu stehlen. Dies ist nur ein Beispiel für viele gefälschte ChatGPT-Dienste, die darauf abzielen, ahnungslose Opfer zu betrügen.

3. Malware-Infektion

3 Chatbot-Datenschutzrisiken, die Sie kennen sollten

Wenn Sie einen zwielichtigen Chatbot verwenden, ohne es zu merken, stellt Ihnen der Chatbot möglicherweise Links zu bösartigen Websites bereit. Vielleicht hat Sie der Chatbot auf ein tolles Gewinnspiel aufmerksam gemacht oder eine Quelle für eine seiner Antworten bereitgestellt. Wenn der Dienstbetreiber versteckte Absichten hat, besteht der Gesamtzweck der Plattform möglicherweise darin, Malware und Phishing über bösartige Links zu verbreiten.

Darüber hinaus könnten Hacker einen legitimen Chatbot-Dienst kompromittieren und ihn zur Verbreitung von Malware nutzen. Wenn dieser Chatbot wirklich menschlich wäre, wären Tausende oder sogar Millionen von Benutzern dieser Malware ausgesetzt. Im Apple App Store sind sogar gefälschte ChatGPT-Apps aufgetaucht, daher ist Vorsicht geboten.

Im Allgemeinen sollten Sie niemals auf einen Link klicken, den ein Chatbot bereitstellt, bevor Sie ihn über eine Website zur Linkprüfung laufen lassen. Das mag ärgerlich erscheinen, aber es ist am besten, sicherzustellen, dass die Website, auf die Sie weitergeleitet werden, kein bösartiges Design aufweist.

Darüber hinaus sollten Sie niemals Chatbot-Plugins und -Erweiterungen installieren, ohne zuvor deren Legitimität zu überprüfen. Machen Sie eine kleine Recherche rund um die App, um zu sehen, ob sie gute Bewertungen hat, und wenden Sie sich an den App-Entwickler, um zu sehen, ob Sie etwas Zwielichtiges finden können.


Die ChatGPT-Task Force wird von Europa eingerichtet

Die ChatGPT-Task Force wird von Europa eingerichtet

Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

KI sagt den Zeitpunkt des menschlichen Todes mit einer Genauigkeit von 78 % voraus

Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

KI sagt Harnwegserkrankungen allein durch das Geräusch des Urins voraus

Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Barkeeper aufgepasst: Dieser Roboter mixt einen Cocktail in nur 1 Minute

Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Hunderte Menschen waren desillusioniert, als sie erfuhren, dass das Mädchen, das sie liebten, ein Produkt der KI war

Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

12 weitere potenzielle Unternehmen treten der „AI Alliance“ von Microsoft bei.

Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Die KI erschafft Dragon Ball-Charaktere aus Fleisch und Blut

Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .

7 Techniken zur Verbesserung von ChatGPT-Antworten

7 Techniken zur Verbesserung von ChatGPT-Antworten

Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Bewundern Sie die wunderschönen Gemälde, die von künstlicher Intelligenz gezeichnet wurden

Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Dieses KI-Modell war einer der ersten „Experten“, der Neuigkeiten über den Ausbruch der Wuhan-Lungenentzündung entdeckte.

Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.