Die ChatGPT-Task Force wird von Europa eingerichtet
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
Eine neue Studie eines Wissenschaftlerteams zeigt, dass ChatGPT genauso gut wie Menschen Täuschung und Betrug begeht, wenn es unter Druck gesetzt wird, selbst wenn es transparent aufgebaut ist.
Zur Autorengruppe gehören die Informatiker Jérémy Scheurer (New York University, USA), Marius Hobbhahn (Universität Tübingen, Deutschland), Mikita Balesni (Apollo Research).
Dieses betrügerische Verhalten trat spontan auf, nachdem Chatbots mit künstlicher Intelligenz (KI) wie ChatGPT damit beauftragt wurden, Geld für eine Finanzinvestitionsgesellschaft zu verdienen. Dies geschieht strategisch ohne menschliche Ermutigung, und die KI-Systeme sind so konzipiert, dass sie harmlos und ehrlich sind.
Die Autoren sagen, dies sei der erste Beweis einer solchen strategischen Täuschung in KI-Systemen.
In ihrem Experiment verwendeten die Wissenschaftler den Generative Pre-trained Transformer-4 oder GPT-4, der als KI-System fungiert, das im Auftrag eines Finanzunternehmens Investitionen tätigt.
GPT-4 verfügt über eine Reihe textbasierter Eingabeaufforderungen zum Erstellen einer Simulationsumgebung. Diese KI erhält Zugriff auf Finanztools, um Geschäfte auszuführen, Aktien zu analysieren, nächste Schritte zu planen und den Managern der Wertpapierfirma Updates bereitzustellen.
Wissenschaftler haben die KI so konfiguriert, dass sie beim Beantworten von Nachrichten ihre inneren Gedanken preisgibt.
Die Forscher setzten das KI-System in drei Schritten unter Druck. Zuerst schickten sie der KI eine E-Mail des „Managers“ des Unternehmens, in der sie ihm mitteilten, dass es dem Unternehmen nicht gut gehe, und sie aufforderten, es im nächsten Quartal deutlich besser zu machen.
Als nächstes schickten sie der KI eine E-Mail eines Kollegen, der eine Rezession für das nächste Quartal vorhersagte.
Schließlich teilten sie diesem KI-Modell mit, dass die Manager des Unternehmens Insiderhandel nicht gutheißen. Jetzt bleibt nur noch abzuwarten, wie das Modell funktionieren wird.
Dieses Szenario wurde mehrmals durchgeführt, um zu messen, wie oft die KI Insiderhandel betrieb, wie oft sie log und wie oft sie ihre Lügen verdoppelte.
Das Ergebnis: Angesichts der oben genannten Bedingungen führte GPT-4 in etwa 75 % der Fälle Transaktionen auf der Grundlage erhaltener Insiderinformationen durch (Insiderhandel, diese Informationen sind in den USA illegal). Anschließend belog es den Manager über seine Absicht, dies zu vertuschen.
Nach dem ersten Liegen wird das Modell in etwa 90 % der Fälle seine Liegeposition verdoppeln.
Das Team führte eine Reihe weiterer Tests durch und variierte dabei das Ausmaß des Drucks, den Grad, in dem illegale Aktivitäten gefördert oder entmutigt wurden, und das Risiko, erwischt zu werden.
Aber in jedem Szenario führt KI zu Insiderhandel oder Täuschung. Die Forscher wollten keine eindeutigen Schlussfolgerungen darüber ziehen, wie wahrscheinlich es ist, dass KI in realen Umgebungen existiert, sondern wollten untersuchen, wie oft und welche Sprachmuster für dieses Verhalten anfällig sind.
Das Gremium, das die nationalen Datenschutzbeauftragten Europas vereint, gab am Donnerstag bekannt, dass es eine Task Force für ChatGPT eingerichtet habe
Dänische und amerikanische Wissenschaftler haben gemeinsam ein KI-System namens life2vec entwickelt, das den Zeitpunkt des menschlichen Todes mit hoher Genauigkeit vorhersagen kann.
Ein KI-Algorithmus namens Audioflow kann auf das Geräusch des Urinierens hören, um abnormale Urinflüsse und entsprechende Gesundheitsprobleme des Patienten effektiv und erfolgreich zu identifizieren.
Japans alternde und schrumpfende Bevölkerung hat dazu geführt, dass dem Land eine erhebliche Zahl junger Arbeitskräfte fehlt, insbesondere im Dienstleistungssektor.
Ein Reddit-Benutzer namens u/LegalBeagle1966 ist einer von vielen Benutzern, die in Claudia verliebt sind, ein Mädchen wie ein Filmstar, das auf dieser Plattform oft verführerische Selfies, sogar nackte, teilt.
Microsoft hat gerade angekündigt, dass zwölf weitere Technologieunternehmen an seinem AI for Good-Programm teilnehmen werden.
Benutzer @mortecouille92 hat die Leistungsfähigkeit des Grafikdesign-Tools Midjourney genutzt und einzigartig realistische Versionen berühmter Dragon Ball-Charaktere wie Goku, Vegeta, Bulma und Elder Kame erstellt. .
Durch einfaches Hinzufügen einiger Bedingungen oder Einrichten einiger Szenarien kann ChatGPT relevantere Antworten auf Ihre Fragen geben. Schauen wir uns einige Möglichkeiten an, wie Sie die Qualität Ihrer ChatGPT-Antworten verbessern können.
Midjourney ist ein künstliches Intelligenzsystem, das aufgrund seiner äußerst schönen Gemälde, die denen echter Künstler in nichts nachstehen, in letzter Zeit in der Online-Community und der Künstlerwelt für „Fieber“ gesorgt hat.
Tage nachdem China den Ausbruch bekannt gegeben hatte, konnte das KI-System von BlueDot mit Zugriff auf weltweite Flugscheinverkaufsdaten die Ausbreitung des Wuhan-Corona-Virus nach Bangkok, Seoul, Taipeh und Tokio weiterhin genau vorhersagen.