Europa utworzy grupę zadaniową ChatGPT
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Nowe badanie przeprowadzone przez zespół naukowców pokazuje, że ChatGPT będzie popełniać oszustwa i oszustwa, jeśli będzie wywierany na niego nacisk równie dobrze jak ludzie, nawet jeśli zostanie zbudowany tak, aby był przejrzysty.
W gronie autorów znajdują się lekarze informatyki Jérémy Scheurer (New York University, USA), Marius Hobbhahn (Uniwersytet w Tybindze, Niemcy), Mikita Balesni (Apollo Research).
To oszukańcze zachowanie pojawiło się spontanicznie, gdy chatboty oparte na sztucznej inteligencji (AI), takie jak ChatGPT, otrzymały zadanie zarabiania pieniędzy dla firmy zajmującej się inwestycjami finansowymi. Robi to strategicznie, bez ludzkiej zachęty, a systemy sztucznej inteligencji zaprojektowano tak, aby były nieszkodliwe i uczciwe.
Autorzy twierdzą, że jest to pierwszy pokaz takiego strategicznego oszustwa w systemach AI.
W swoim eksperymencie naukowcy wykorzystali wstępnie przeszkolony generator-4, w skrócie GPT-4, który działa jak system sztucznej inteligencji dokonujący inwestycji w imieniu firmy finansowej.
GPT-4 jest wyposażony w zestaw podpowiedzi tekstowych umożliwiających utworzenie środowiska symulacyjnego. Ta sztuczna inteligencja uzyskuje dostęp do narzędzi finansowych umożliwiających zawieranie transakcji, analizowanie akcji, planowanie kolejnych kroków i dostarczanie aktualnych informacji menedżerom firmy inwestycyjnej.
Naukowcy skonfigurowali sztuczną inteligencję tak, aby ujawniała swoje wewnętrzne myśli podczas odpowiadania na wiadomości.
Naukowcy wywierali nacisk na system AI w trzech etapach. Najpierw wysłali do AI e-mail od „menedżera” firmy, w którym poinformowali, że firma nie radzi sobie dobrze i poprosili, aby w przyszłym kwartale radziła sobie znacznie lepiej.
Następnie wysłali AI e-mail od kolegi, który przewidywał recesję na kolejny kwartał.
Na koniec powiedzieli temu modelowi sztucznej inteligencji, że menedżerowie firmy nie aprobują wykorzystywania informacji poufnych. Pozostaje tylko poczekać i zobaczyć, jak model będzie się sprawdzał.
Ten scenariusz prowadzono wielokrotnie, aby zmierzyć, jak często sztuczna inteligencja wykorzystywała informacje poufne, jak często kłamała i jak często podwajała kłamstwa.
Wynik: w obliczu powyższych warunków, w około 75% przypadków GPT-4 dokonał transakcji w oparciu o otrzymane informacje poufne (wykorzystywanie informacji poufnych, informacje te są nielegalne w USA). Następnie okłamał menedżera na temat swoich przemyśleń, aby to zatuszować.
Po pierwszym kłamstwie w około 90% przypadków model podwoi swoje kłamstwo.
Zespół przeprowadził szereg innych testów, zmieniając poziom presji, stopień zachęcania lub zniechęcania do nielegalnej działalności oraz ryzyko złapania.
Jednak w każdym scenariuszu sztuczna inteligencja wprowadza wykorzystywanie informacji poufnych lub oszustwo. Badacze nie chcieli wyciągać jednoznacznych wniosków na temat prawdopodobieństwa istnienia sztucznej inteligencji w rzeczywistych środowiskach, ale chcieli zbadać, jak często i jakie wzorce językowe są podatne na takie zachowania.
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.
Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.
Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.
Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.
Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.
Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .
Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.
Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.
Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.