Europa utworzy grupę zadaniową ChatGPT
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
„Nie warto widzieć stu słów, które usłyszano” – to przysłowie może już nie być aktualne, jeśli chodzi o cyberbezpieczeństwo, w obliczu „zagrożenia” ze strony deepfake w przyszłości nie będzie można już w nic wierzyć. Widziałem to Na własne oczy!
Przypominając koncepcję, deepfake to program wykorzystujący sztuczną inteligencję , pozwalający użytkownikom na zamianę czyjejś twarzy w filmie z twarzą innej osoby. W rzeczywistości pomaga użytkownikom tworzyć fałszywe treści, umieszczając w filmie twarze znanych osób w celu zniesławienia lub nielegalnego zysku. Z tego też powodu deepfake stał się głównym zagrożeniem dla firm rozrywkowych, celebrytów, a przede wszystkim dla cyberbezpieczeństwa.
Steve Grobman, dyrektor ds. technologii w firmie McAfee zajmującej się bezpieczeństwem cybernetycznym, i Celeste Fralick, jedna z wiodących na świecie badaczek danych, wydali ostrzeżenie w przemówieniu programowym na konferencji poświęconej bezpieczeństwu. RSA ujawniła niedawno, że technologia Deepfake stała się znacznie bardziej wyrafinowana, niż ludzkość myśli, i jest to naprawdę poważne zagrożenie w przyszłości. Aby to udowodnić, ci dwaj naukowcy pokazali film, na którym widać, że słowa Celeste Fralick zostały wypowiedziane z obrazu przypominającego twarz Steve'a Grobmana, chociaż Grobman jeszcze o tym nie wspomniał. Nigdy nie mów tych słów. Widać więc, że deepfake łatwo nas oszukać, więc w tej epoce to, co widzimy i słyszymy, niekoniecznie jest dokładne!
„Wykorzystałem Twoje publiczne komentarze do stworzenia i wyszkolenia modelu uczenia maszynowego, który pozwolił mi stworzyć fałszywy film, w którym moje słowa wychodzą z ust kogoś innego. To tylko jeden z niezliczonych sposobów wykorzystania sztucznej inteligencji i uczenia maszynowego do niecnych celów. Przywodzi mi to na myśl najgorszy scenariusz, w którym atakujący mogą wykorzystać sztuczną inteligencję, na przykład inżynierię społeczną i phishing, w ramach którego nasi przeciwnicy mogliby teraz automatycznie wyznaczać cele” – powiedziała Celeste Fralick.
W rzeczywistości to deepfake i sztuczna inteligencja stały się potężnymi asystentami pomagającymi hakerom w tworzeniu spersonalizowanych, ukierunkowanych ataków phishingowych w Internecie, które charakteryzują się większą skutecznością i mogą przeprowadzać na skalę zautomatyzowanych ataków.
„Można powiedzieć, że większość ludzi nie zdaje sobie sprawy, jak niebezpieczna może być sztuczna inteligencja i uczenie maszynowe, a granica pomiędzy wykorzystaniem ich w dobrym lub złym celu jest bardzo cienka. Istnieje obszar techniczny, w który zaangażowany jest mój zespół, zwany kontradyktoryjnym uczeniem maszynowym. Prowadzimy tam badania nad sposobami, w jakie złe podmioty mogą zaatakować lub zatruć hierarchię uczenia maszynowego” – dodał Celeste Fralick.
W wywiadzie przeprowadzonym w poniedziałek, 4 marca, Steve Grobman powiedział, że on i Celeste Fralick byli w stanie stworzyć filmy typu deepfake w ciągu zaledwie jednego weekendu, nie starając się, aby były idealne. To pokazuje, że gdy wykwalifikowany atakujący deepfake zidentyfikuje cel, tworzenie wyrafinowanych, sfabrykowanych filmów w oparciu o sztuczną inteligencję nie jest wcale trudne.
Jednym z najczęstszych sposobów oszukania prawdziwej osoby i modelu wygenerowanego przez sztuczną inteligencję jest zrobienie prawie prawdziwego zdjęcia, a następnie zmiana bardzo małej części szczegółów w sposób widoczny dla przeciętnego człowieka. Często będzie to nie do poznania . Fralick podał przykład, w którym zdjęcie pingwina można zinterpretować i zinterpretować przez sztuczną inteligencję jako patelnię, dzięki zaledwie kilku drobnym operacjom.
Celeste Fralick zastanawia się, czy te same techniki, które są używane do dezorientowania klasyfikatorów obrazów, mogą być nadal używane do dezorientowania ich modeli sieci, nas, czy nie, szczególnie w tym przypadku jest to fałszywie pozytywny (błąd fałszywej weryfikacji).
Istnieje kilka rodzajów fałszywych alarmów, na przykład niektóre niechlujne programy antyszpiegowskie sprawiają, że użytkownicy błędnie myślą, że ich komputer jest atakowany przez oprogramowanie szpiegujące, podczas gdy w rzeczywistości nie ma żadnego problemu. Terminu „fałszywie pozytywny” można także użyć, gdy legalne aplikacje antyszpiegowskie zostaną błędnie zidentyfikowane jako zagrożenia. Mówiąc szerzej na ten temat, profesor Steve Grobman powiedział, że fałszywe alarmy mogą mieć katastrofalne skutki. Doskonałym tego przykładem były przerażające 23 minuty z 26 września 1983 r. – w szczytowym okresie napięcia zimnej wojny. Kilka międzynarodowych ośrodków ostrzegawczych, w tym Stany Zjednoczone i Związek Radziecki, wydało ostrzeżenia na dużych wysokościach przed atakiem pioruna, który zszokował świat, ale ostatecznie był to po prostu błąd, naprawdę błędny. W szczególności strona radziecka odkryła wystrzelonych i skierowanych w stronę jej terytorium 5 amerykańskich rakiet nuklearnych i natychmiast wydała instrukcje wprowadzenia wszystkich sił zbrojnych w stan gotowości bojowej. Jednak przy dźwiękach syren i migających ekranach podpułkownik Stanislav Petrov w końcu stwierdził, że incydent był po prostu awarią systemu komputerowego. W szczególności Pietrow argumentował, że Stany Zjednoczone nie będą w stanie rozpocząć wojny światowej wystrzeliwując zaledwie pięć rakiet. Zignorował instrukcje, z którymi został przeszkolony i dzięki swojej intuicji podpułkownik trafnie ocenił sytuację, pomagając zapobiec wojnie nuklearnej.
„Okazało się, że przyczyną zdarzenia było rzadkie ustawienie światła słonecznego na wysokich chmurach, tworzące efekty przypominające rakietę. Widzimy zatem, jak niebezpieczne mogą być konsekwencje zamieszania w systemach komputerowych, a nawet wywołać wojnę nuklearną. Co by było, gdyby Związek Radziecki w natychmiastowej odpowiedzi wystrzelił rakiety? Ważne jest, abyśmy byli świadomi prawdziwej mocy sztucznej inteligencji w rozwiązywaniu problemów, ale będzie ona również mieczem obosiecznym, jeśli wpadnie w ręce złych facetów, których pełno jest w Internecie” – udostępnił Steve Grobman.
Poza tym Grobman powiedział również, że zawsze wierzy, że technologia jest w zasadzie tylko narzędziem nieożywionym i można ją zastosować zarówno do dobrych, jak i złych celów. Na przykład mapa przestępczości zawierająca dane o miejscu popełnienia przestępstwa i miejscu aresztowania sprawcy może pomóc policji w rozwiązaniu przestępstwa, ale może też zostać wykorzystana przez samych przestępców do uniknięcia schwytania. W innym przykładzie samolot został użyty do zbombardowania ludności cywilnej, co spowodowało 2 miliony ofiar podczas II wojny światowej. Zapytany, czy żałuje wynalezienia samolotu, Orville Wright powiedział w 1948 roku, że postrzega go jako użycie ognia, który w przypadku wybuchu pożaru może spowodować ogromne szkody, ale nadal jest używany do tysięcy ważnych celów. Podobnie jest ze sztuczną inteligencją.
„Spostrzeżenia Orville'a pokazują nam, że technologia jest z natury nieistotna pod względem moralnym. Można o niej naprawdę powiedzieć, że jest korzystna lub szkodliwa w zależności od sposobu jej wykorzystania. I właśnie z tym nieustannie walczy nasza branża, czyli cyberbezpieczeństwo!”
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.
Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.
Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.
Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.
Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.
Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .
Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.
Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.
Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.