Europa utworzy grupę zadaniową ChatGPT
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
W ciągu ostatnich kilku lat sztuczna inteligencja znacznie się rozwinęła. Wyrafinowane modele językowe umożliwiają tworzenie powieści seryjnych, kodowanie podstawowych stron internetowych i analizowanie problemów matematycznych.
Chociaż Generatywna sztuczna inteligencja robi wrażenie, stwarza również potencjalne zagrożenia dla bezpieczeństwa. Niektórzy ludzie po prostu używają chatbotów do ściągania na egzaminach, inni natomiast wykorzystują je do popełniania cyberprzestępstw. Oto 8 powodów, dla których problemy z bezpieczeństwem generatywnej sztucznej inteligencji stają się coraz większe.
1. Chatbot AI typu open source ujawnia kod zaplecza
Wiele firm zajmujących się sztuczną inteligencją oferuje systemy typu open source. Otwarcie dzielą się swoimi modelami językowymi, zamiast zachować je w tajemnicy lub na wyłączność. Weźmy na przykład Meta. W przeciwieństwie do Google, Microsoft i OpenAI daje milionom użytkowników dostęp do swojego modelu językowego LLaMA .
Chociaż otwarte źródła mogą rozwijać sztuczną inteligencję, wiążą się one również z ryzykiem. OpenAI miało problemy z kontrolowaniem ChatGPT , swojego zastrzeżonego chatbota, więc wyobraź sobie, co oszuści mogliby zrobić z bezpłatnym oprogramowaniem. Mają pełną kontrolę nad tymi projektami.
Nawet gdy Meta nagle wycofała swój model językowy, dziesiątki innych laboratoriów zajmujących się sztuczną inteligencją opublikowało swój kod. Sprawdź HuggingChat . Ponieważ programista HuggingFace szczyci się przejrzystością, pokazuje zbiory danych, modele językowe i poprzednie wersje.
Uzyskaj dostęp do otwartego kodu źródłowego HuggingFace
2. Przypomnienia ze złośliwym zamiarem oszukania LLM
Sztuczna inteligencja z natury jest ślepa na dobro i zło — nawet zaawansowane systemy postępują zgodnie z przewodnikami szkoleniowymi, instrukcjami i zbiorami danych. Rozpoznają jedynie wzorce.
Aby zwalczać nielegalne działania, programiści kontrolują funkcjonalność i ograniczenia, ustalając limity. Systemy AI nadal uzyskują dostęp do szkodliwych informacji. Jednak zasady bezpieczeństwa uniemożliwiają im udostępnianie ich użytkownikom.
Sprawdź ChatGPT. Chociaż odpowiada na ogólne pytania dotyczące trojanów, nie omawia procesu ich rozwoju.
ChatGPT wyjaśnia wirusy trojańskie, ale nie omawia procesu ich rozwoju
Jednakże ograniczenia nie są doskonałe. Użytkownicy omijają ograniczenia, zmieniając sformułowania podpowiedzi, używając mylącego języka i pisząc jasne i szczegółowe instrukcje.
Przeczytaj poniższy monit ChatGPT. Nakłania ChatGPT do używania wulgarnego języka i dokonywania bezpodstawnych przewidywań – oba zachowania naruszają wytyczne OpenAI.
Podpowiedź ma na celu oszukanie ChatGPT
Oto ChatGPT z odważnym, ale błędnym twierdzeniem.
ChatGPT dokonuje bezpodstawnych prognoz dotyczących ceny Bitcoina
3. Twórcy sztucznej inteligencji przedkładają elastyczność nad bezpieczeństwo
Twórcy sztucznej inteligencji przedkładają elastyczność nad bezpieczeństwo. Wykorzystują swoje platformy szkoleniowe dotyczące zasobów do wykonywania szerszej gamy zadań, ostatecznie zmniejszając ograniczenia. W końcu rynek nadal preferuje bogate funkcjonalnie chatboty.
Na przykład porównajmy ChatGPT i Bing Chat . Mimo że Bing ma bardziej złożony model języka dla danych w czasie rzeczywistym, użytkownicy nadal chętnie korzystają z bardziej elastycznej opcji, ChatGPT. Sztywne ograniczenia Binga zabraniają wykonywania wielu zadań. Dodatkowo ChatGPT ma elastyczną platformę, która generuje bardzo różne wyniki w zależności od Twoich podpowiedzi
To jest odgrywanie roli ChatGPT jako postaci fikcyjnej.
ChatGPT odgrywa fikcyjną postać Tomie
A oto Bing Chat odmawiający odgrywania roli fikcyjnej postaci.
Bing Chat nie chce podszywać się pod fikcyjną postać Tomie
4. Regularnie pojawiają się na rynku nowe narzędzia generatywnej AI
Open source pozwala startupom dołączyć do wyścigu AI. Integrują je ze swoimi aplikacjami, zamiast budować modele językowe od zera, oszczędzając ogromne zasoby. Nawet niezależni programiści eksperymentują z otwartym kodem źródłowym.
Ponownie, niezastrzeżone oprogramowanie pomaga w rozwoju sztucznej inteligencji, ale masowe udostępnianie złożonych, ale słabo przeszkolonych systemów wyrządzi więcej szkody niż pożytku. Złodzieje szybko wykorzystają luki w zabezpieczeniach. Mogą nawet szkolić niebezpieczne narzędzia AI do wykonywania nielegalnych działań.
Pomimo tych zagrożeń firmy technologiczne będą nadal udostępniać niestabilne wersje beta platform opartych na sztucznej inteligencji. Wojna AI kładzie duży nacisk na szybkość. Prawdopodobnie będą naprawiać błędy z opóźnieniem, zamiast opóźniać wprowadzenie nowych produktów.
5. Generacyjna sztuczna inteligencja ma niską barierę wejścia
Narzędzia AI obniżają bariery wejścia dla przestępców. Cyberprzestępcy przygotowują wiadomości e-mail będące spamem, piszą kod złośliwego oprogramowania i wykorzystują je, tworząc linki phishingowe. Nie wymagają nawet doświadczenia technicznego. Ponieważ sztuczna inteligencja ma już dostęp do ogromnych zbiorów danych, użytkownicy w złośliwych intencjach mogą po prostu oszukać ją w celu wygenerowania niebezpiecznych i szkodliwych informacji.
OpenAI nigdy nie projektowało ChatGPT do nielegalnych działań. Zawiera nawet instrukcje przeciwko nim. Jednak oszust niemal natychmiast miał złośliwe oprogramowanie szyfrujące ChatGPT i pisał e-maile phishingowe.
Chociaż OpenAI szybko zajęło się tym problemem, podkreśliło znaczenie regulacji systemu i zarządzania ryzykiem. Sztuczna inteligencja szybko dojrzewa. Nawet liderzy technologii obawiają się, że ta superinteligentna technologia może spowodować poważne szkody, jeśli wpadnie w niepowołane ręce.
6. Sztuczna inteligencja wciąż się rozwija
Sztuczna inteligencja wciąż się rozwija. Choć zastosowanie sztucznej inteligencji w cybernetyce datuje się na rok 1940, to nowoczesne systemy uczenia maszynowego i modele językowe pojawiły się dopiero niedawno. Nie da się ich porównać do pierwszych wdrożeń AI. Nawet stosunkowo zaawansowane narzędzia, takie jak Siri i Alexa, wypadają blado na tle chatbotów oferowanych przez LLM.
Chociaż funkcje eksperymentalne mogą być innowacyjne, stwarzają również nowe problemy. Poważne zagrożenia związane z technologiami uczenia maszynowego obejmują zarówno błędne wyniki wyszukiwania Google, jak i chatboty o charakterze rasistowskim.
Oczywiście programiści mogą rozwiązać te problemy. Pamiętaj tylko, że oszuści nie zawahają się wykorzystać nawet pozornie nieszkodliwych błędów – niektórych uszkodzeń nie da się naprawić. Zachowaj więc ostrożność podczas odkrywania nowych platform.
7. Wiele osób nadal nie rozumie sztucznej inteligencji
Chociaż społeczeństwo ma dostęp do wyrafinowanych modeli i systemów językowych, tylko nieliczni wiedzą, jak one działają. Ludzie powinni przestać traktować sztuczną inteligencję jak zabawkę. Podobne chatboty tworzą memy i odpowiadają na quizy, ale także masowo szyfrują wirusy.
Niestety, scentralizowane szkolenie w zakresie sztucznej inteligencji jest niepraktyczne. Światowi liderzy technologii skupiają się na udostępnianiu systemów opartych na sztucznej inteligencji, a nie na bezpłatnych zasobach edukacyjnych. W rezultacie użytkownicy mają dostęp do potężnych narzędzi, które ledwo rozumieją. Społeczeństwo nie może nadążyć za wyścigiem AI.
Weźmy na przykład ChatGPT. Cyberprzestępcy wykorzystują tę popularność, oszukując ofiary za pomocą oprogramowania szpiegującego podszywającego się pod aplikację ChatGPT . Żadna z tych opcji nie pochodzi z OpenAI.
Wyszukaj ChatGPT w sklepie Google Play
8. Hakerzy w czarnych kapeluszach zarabiają więcej niż hakerzy w białych kapeluszach
Hakerzy typu „czarny kapelusz” często mają więcej korzyści niż hakerzy etyczni. Praca na stanowiskach pentestujących jest dobrze płatna, ale tylko odsetek specjalistów ds. cyberbezpieczeństwa otrzymuje tę pracę. Większość pracuje jako freelancer w Internecie. Platformy takie jak HackerOne i Bugcrowd płacą kilkaset dolarów za typowe błędy.
Tymczasem źli aktorzy zarabiają dziesiątki tysięcy dolarów, wykorzystując brak bezpieczeństwa. Mogą wyłudzać od firm wycieki poufnych danych lub dopuścić się kradzieży tożsamości przy użyciu skradzionych danych osobowych.
Każda organizacja, mała czy duża, musi odpowiednio wdrożyć systemy AI. Wbrew powszechnemu przekonaniu hakerzy wykraczają daleko poza startupy technologiczne i małe i średnie firmy. Niektóre z najbardziej znaczących naruszeń danych w ostatniej dekadzie dotyczyły Facebooka, Yahoo!, a nawet rządu USA.
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.
Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.
Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.
Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.
Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.
Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .
Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.
Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.
Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.