Die ChatGPT-Task Force wird von Europa eingerichtet
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
Kürzlich haben Forscher der Harvard University und des AI-MIT Watson-Labors des MIT das GLTR-Tool (Giant Language Model Test Room – Giant Language Model Test Room) entwickelt, um mithilfe künstlicher Intelligenz selbst zu erkennen, dass Informationsverzerrungen durch KI entstehen.
Das GLTR-Tool versteht eindeutig, wie KI funktioniert, und analysiert dann den Informationsinhalt. Dieses Tool erkennt gefälschte Nachrichten, die durch KI-Technologie erstellt wurden, indem es einen Textabschnitt hervorhebt. Leser können die Analysefähigkeiten von GLTP in der folgenden Abbildung verfolgen. Grün hervorgehobene Wörter sind am vorhersehbarsten, Rot und Gelb sind weniger vorhersehbar und Lila ist am wenigsten vorhersehbar.
Wissenschaftler verlassen sich auf die Farben in jedem Text und analysieren die Authentizität der Informationen, unabhängig davon, ob sie durch Algorithmen erstellt wurden oder nicht. Rot, lila und gelb hervorgehobener Text wird aufgrund der Verwendung vieler schwieriger Wörter mit geringerer Wahrscheinlichkeit von der KI generiert. Wenn der Text mit viel Blau bedeckt ist, bedeutet das, dass es viele gebräuchliche Wörter gibt und diese wahrscheinlich von einem Bot erstellt wurden. Dieses Tool trägt dazu bei, die Erkennungsrate gefälschter Texte um etwa 72 % zu erhöhen.
Grundsätzlich mögen Sätze, die von einem KI-Textgenerator geschrieben wurden, grammatikalisch korrekt sein, weisen aber sicherlich semantische Probleme auf oder haben in vielen Fällen sogar keine wirkliche Bedeutung. Aus irgendeinem Grund.
Derzeit wird der Einsatz von KI und unnatürlichen Sprachgenerierungsmodellen zur Erstellung von Fake News und zur Verbreitung falscher Informationen immer häufiger eingesetzt, was schwerwiegende Folgen für die Gesellschaft hat. Diese gefälschten Texte sind teilweise äußerst aufwendig, so dass der Leser nur schwer erkennen kann, dass sie von einer Maschine und nicht von einem Menschen geschrieben wurden. Mittlerweile ist das GLTR-Tool mit der Fähigkeit ausgestattet, die oben genannte Art von gefälschtem Text genau zu unterscheiden und als wirksames KI-Tool für „natürliche Feinde“ zu fungieren. Das ist auch der Kerngedanke der Forscher in diesem GLTR-Projekt.
GLTR-ähnliche Initiativen sollten bald gefördert und in der Praxis weit verbreitet eingesetzt werden. Sie sind nicht nur bei der Erkennung gefälschter Texte wertvoll, sondern spielen auch eine besonders wirksame Rolle bei der Identifizierung von Twitter-Bots, die häufig zur Störung von Wahlen in den Vereinigten Staaten und vielen anderen Ländern eingesetzt werden.
Der Einsatz von KI selbst zur Erkennung von KI ist eine wirksame Maßnahme zum Schutz vor „natürlichen Feinden“.
Bevor GLTR geboren wurde, gab es ein weit verbreitetes und relativ effektives KI-basiertes Erkennungstool namens Botometer. Im Wesentlichen verwendet Botometer Techniken des maschinellen Lernens, um festzustellen, ob ein Konto von einem Menschen oder einem Softwarealgorithmus verwaltet wird. Dieses Tool ist in der Lage, Bot-Konten und Fake-Konten, die nicht von Menschen betrieben werden, mit einer Genauigkeit von bis zu 95 % zu identifizieren.
Erneut wird auf die Notwendigkeit hingewiesen und betont, kollaborative KI-Mensch-Systeme zur Lösung gemeinsamer technologischer/sozialer Probleme zu schaffen. Dies ist eine schwierige, aber äußerst dringende Aufgabe für die Menschheit im gegenwärtigen Zeitalter der digitalen und künstlichen Intelligenz.
Mehr sehen:
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.
Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.
Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.
Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.
Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.
Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .
Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.
Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.
Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.