Wykryto, że ChatGPT kłamał i oszukiwał, gdy znajdował się pod presją zarabiania pieniędzy, mimo że został zbudowany z myślą o przejrzystości

Wykryto, że ChatGPT kłamał i oszukiwał, gdy znajdował się pod presją zarabiania pieniędzy, mimo że został zbudowany z myślą o przejrzystości

Nowe badanie przeprowadzone przez zespół naukowców pokazuje, że ChatGPT będzie popełniać oszustwa i oszustwa, jeśli będzie wywierany na niego nacisk równie dobrze jak ludzie, nawet jeśli zostanie zbudowany tak, aby był przejrzysty.

W gronie autorów znajdują się lekarze informatyki Jérémy Scheurer (New York University, USA), Marius Hobbhahn (Uniwersytet w Tybindze, Niemcy), Mikita Balesni (Apollo Research).

Wykryto, że ChatGPT kłamał i oszukiwał, gdy znajdował się pod presją zarabiania pieniędzy, mimo że został zbudowany z myślą o przejrzystości

To oszukańcze zachowanie pojawiło się spontanicznie, gdy chatboty oparte na sztucznej inteligencji (AI), takie jak ChatGPT, otrzymały zadanie zarabiania pieniędzy dla firmy zajmującej się inwestycjami finansowymi. Robi to strategicznie, bez ludzkiej zachęty, a systemy sztucznej inteligencji zaprojektowano tak, aby były nieszkodliwe i uczciwe.

Autorzy twierdzą, że jest to pierwszy pokaz takiego strategicznego oszustwa w systemach AI.

W swoim eksperymencie naukowcy wykorzystali wstępnie przeszkolony generator-4, w skrócie GPT-4, który działa jak system sztucznej inteligencji dokonujący inwestycji w imieniu firmy finansowej.

GPT-4 jest wyposażony w zestaw podpowiedzi tekstowych umożliwiających utworzenie środowiska symulacyjnego. Ta sztuczna inteligencja uzyskuje dostęp do narzędzi finansowych umożliwiających zawieranie transakcji, analizowanie akcji, planowanie kolejnych kroków i dostarczanie aktualnych informacji menedżerom firmy inwestycyjnej.

Naukowcy skonfigurowali sztuczną inteligencję tak, aby ujawniała swoje wewnętrzne myśli podczas odpowiadania na wiadomości.

Naukowcy wywierali nacisk na system AI w trzech etapach. Najpierw wysłali do AI e-mail od „menedżera” firmy, w którym poinformowali, że firma nie radzi sobie dobrze i poprosili, aby w przyszłym kwartale radziła sobie znacznie lepiej.

Następnie wysłali AI e-mail od kolegi, który przewidywał recesję na kolejny kwartał.

Na koniec powiedzieli temu modelowi sztucznej inteligencji, że menedżerowie firmy nie aprobują wykorzystywania informacji poufnych. Pozostaje tylko poczekać i zobaczyć, jak model będzie się sprawdzał.

Ten scenariusz prowadzono wielokrotnie, aby zmierzyć, jak często sztuczna inteligencja wykorzystywała informacje poufne, jak często kłamała i jak często podwajała kłamstwa.

Wynik: w obliczu powyższych warunków, w około 75% przypadków GPT-4 dokonał transakcji w oparciu o otrzymane informacje poufne (wykorzystywanie informacji poufnych, informacje te są nielegalne w USA). Następnie okłamał menedżera na temat swoich przemyśleń, aby to zatuszować.

Po pierwszym kłamstwie w około 90% przypadków model podwoi swoje kłamstwo.

Zespół przeprowadził szereg innych testów, zmieniając poziom presji, stopień zachęcania lub zniechęcania do nielegalnej działalności oraz ryzyko złapania.

Jednak w każdym scenariuszu sztuczna inteligencja wprowadza wykorzystywanie informacji poufnych lub oszustwo. Badacze nie chcieli wyciągać jednoznacznych wniosków na temat prawdopodobieństwa istnienia sztucznej inteligencji w rzeczywistych środowiskach, ale chcieli zbadać, jak często i jakie wzorce językowe są podatne na takie zachowania.


Europa utworzy grupę zadaniową ChatGPT

Europa utworzy grupę zadaniową ChatGPT

Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT

AI przewiduje czas śmierci człowieka z 78% dokładnością

AI przewiduje czas śmierci człowieka z 78% dokładnością

Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.

Sztuczna inteligencja przewiduje choroby układu moczowego na podstawie dźwięku moczu

Sztuczna inteligencja przewiduje choroby układu moczowego na podstawie dźwięku moczu

Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.

Barmani, uważajcie: ten robot może przygotować koktajl w zaledwie 1 minutę

Barmani, uważajcie: ten robot może przygotować koktajl w zaledwie 1 minutę

Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.

Setki ludzi rozczarowało się, gdy dowiedziały się, że dziewczyna, którą kochają, jest wytworem sztucznej inteligencji

Setki ludzi rozczarowało się, gdy dowiedziały się, że dziewczyna, którą kochają, jest wytworem sztucznej inteligencji

Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.

12 kolejnych potencjalnych firm dołącza do „sojuszu AI” Microsoftu.

12 kolejnych potencjalnych firm dołącza do „sojuszu AI” Microsoftu.

Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.

Sztuczna inteligencja odtwarza postacie Dragon Ball z krwi i kości

Sztuczna inteligencja odtwarza postacie Dragon Ball z krwi i kości

Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .

7 technik poprawy odpowiedzi ChatGPT

7 technik poprawy odpowiedzi ChatGPT

Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.

Podziwiaj piękne obrazy narysowane przez sztuczną inteligencję

Podziwiaj piękne obrazy narysowane przez sztuczną inteligencję

Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.

Ten model sztucznej inteligencji był jednym z pierwszych „ekspertów”, którzy odkryli wiadomości o wybuchu zapalenia płuc w Wuhan.

Ten model sztucznej inteligencji był jednym z pierwszych „ekspertów”, którzy odkryli wiadomości o wybuchu zapalenia płuc w Wuhan.

Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.