Europa utworzy grupę zadaniową ChatGPT
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Pomimo imponujących możliwości ChatGPT kilka dużych firm zakazało swoim pracownikom korzystania z tego chatbota AI.
W maju 2023 roku Samsung zakazał używania ChatGPT i innych narzędzi generatywnej AI . Następnie w czerwcu 2023 r. australijski Commonwealth Bank wraz z firmami takimi jak Amazon, Apple i JPMorgan Chase & Co również wdrożyły ograniczenie. Niektóre szpitale, kancelarie prawne i agencje rządowe również zakazały pracownikom korzystania z ChatGPT.
Dlaczego więc coraz więcej firm zakazuje ChatGPT? Oto 5 głównych powodów.
1. Wyciek danych
ChatGPT wymaga dużej ilości danych do skutecznego szkolenia i działania. Chatbot został przeszkolony na podstawie ogromnych ilości danych pozyskanych z Internetu i będzie szkolony nadal.
Według strony pomocy OpenAI, każda część danych, w tym poufne dane klienta, tajemnice handlowe i wrażliwe informacje biznesowe, które podajesz chatbotowi, może zostać przejrzana i wykorzystana w celu ulepszenia systemu.
Skonfiguruj uwierzytelnianie wieloskładnikowe w ChatGPT
Wiele firm podlega surowym przepisom dotyczącym ochrony danych. Dlatego też ostrożnie podchodzą do udostępniania danych osobowych podmiotom zewnętrznym, gdyż zwiększa to ryzyko wycieku danych.
Poza tym OpenAI nie daje żadnej gwarancji doskonałego bezpieczeństwa i ochrony danych. W marcu 2023 roku OpenAI potwierdziło błąd, który umożliwiał niektórym użytkownikom przeglądanie tytułów czatów w historii innych aktywnych użytkowników. Chociaż błąd ten został naprawiony, a OpenAI uruchomiło program nagród za błędy, firma nie gwarantuje bezpieczeństwa i prywatności danych użytkowników.
Wiele organizacji decyduje się na ograniczenie pracownikom korzystania z ChatGPT, aby uniknąć naruszeń danych, które mogą zaszkodzić reputacji, prowadzić do strat finansowych i narazić klientów i pracowników na ryzyko.
2. Zagrożenia cyberbezpieczeństwa
Chociaż nie jest jasne, czy ChatGPT jest rzeczywiście podatny na zagrożenia cyberbezpieczeństwa, możliwe jest, że wdrożenie go w organizacji może stworzyć potencjalne luki, które mogą zostać wykorzystane przez cyberprzestępców.
Jeśli firma zintegruje ChatGPT i w systemie bezpieczeństwa chatbota wystąpi luka, napastnicy mogą wykorzystać tę lukę i zainfekować go złośliwym oprogramowaniem. Ponadto zdolność ChatGPT do generowania odpowiedzi przypominających ludzkie jest „złotym jajkiem” dla osób atakujących w ramach phishingu, którzy mogą przejąć konta lub podszyć się pod legalne podmioty, aby nakłonić pracowników firmy do udostępnienia poufnych informacji.
3. Twórz spersonalizowane chatboty
Pomimo swoich innowacyjnych funkcji ChatGPT może tworzyć fałszywe i wprowadzające w błąd informacje. Dlatego wiele firm stworzyło chatboty AI do celów zawodowych. Na przykład australijski Commonwealth Bank poprosił swoich pracowników o korzystanie z Gen.ai, chatbota opartego na sztucznej inteligencji (AI) , który wykorzystuje informacje CommBank do udzielania odpowiedzi.
Firmy takie jak Samsung i Amazon opracowały zaawansowane modele języka naturalnego, dzięki czemu firmy mogą łatwo tworzyć i wdrażać spersonalizowane chatboty w oparciu o istniejące transkrypcje. Dzięki tym wewnętrznym chatbotom możesz zapobiec konsekwencjom prawnym i reputacyjnym związanym z niewłaściwym obchodzeniem się z danymi.
4. Brak przepisów
W branżach, w których firmy podlegają protokołom i sankcjom, brak wytycznych regulacyjnych ChatGPT jest sygnałem ostrzegawczym. Bez precyzyjnych warunków prawnych regulujących korzystanie z ChatGPT firmy mogą ponieść poważne konsekwencje prawne w przypadku korzystania z chatbotów AI w swoich operacjach.
Ponadto brak regulacji może zmniejszyć odpowiedzialność i przejrzystość przedsiębiorstw. Wyjaśnianie klientom procesów decyzyjnych i środków bezpieczeństwa w oparciu o model języka AI może być mylące.
Firmy ograniczają ChatGPT ze względu na obawy dotyczące potencjalnego naruszenia przepisów dotyczących prywatności i przepisów branżowych.
5. Nieodpowiedzialne użytkowanie przez pracowników
W wielu firmach niektórzy pracownicy polegają wyłącznie na odpowiedziach ChatGPT przy tworzeniu treści i wykonywaniu swoich zadań. Powoduje to lenistwo w środowisku pracy i tłumi kreatywność i innowacyjność.
Poleganie na sztucznej inteligencji może utrudniać krytyczne myślenie. Może to również zaszkodzić reputacji firmy, ponieważ ChatGPT często podaje niedokładne i niewiarygodne dane.
Chociaż ChatGPT jest potężnym narzędziem, używanie go do rozwiązywania złożonych zapytań wymagających wiedzy specjalistycznej w danej dziedzinie może zaszkodzić operacjom i wydajności firmy. Niektórzy pracownicy mogą nie pamiętać o sprawdzaniu faktów i weryfikowaniu odpowiedzi udzielanych przez chatboty AI, uznając te dostarczone przez ChatGPT za rozwiązanie uniwersalne.
Aby złagodzić tego typu problemy, firmy zakazują chatbotów, aby pracownicy mogli skupić się na swoich zadaniach i zapewniać użytkownikom bezbłędne rozwiązania.
Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT
Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.
Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.
Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.
Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.
Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.
Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .
Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.
Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.
Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.