Grupul de lucru ChatGPT va fi înființat de Europa
Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT
AI a avansat semnificativ în ultimii ani. Modelele de limbaj sofisticate pot compune romane în serie, pot codifica pagini web de bază și pot analiza probleme matematice.
Deși foarte impresionant, Generative AI are și riscuri potențiale de securitate. Unii oameni folosesc pur și simplu chatbot-uri pentru a înșela examenele, dar alții îi exploatează pentru a comite infracțiuni cibernetice. Iată 8 motive pentru care problemele de securitate generative AI se agravează.
1. Chatbot open source AI dezvăluie codul back-end
Multe companii de AI oferă sisteme open source. Își împărtășesc în mod deschis modelele lingvistice în loc să le păstreze private sau exclusive. Luați Meta de exemplu. Spre deosebire de Google, Microsoft și OpenAI, oferă milioane de utilizatori acces la modelul său de limbă, LLaMA .
În timp ce sursele deschise pot avansa AI, ele vin și cu riscuri. OpenAI a avut probleme în a controla ChatGPT , chatbot-ul său proprietar, așa că imaginați-vă ce ar putea face escrocii cu software-ul gratuit. Ei au control total asupra acestor proiecte.
Chiar dacă Meta și-a retras brusc modelul de limbaj, zeci de alte laboratoare AI și-au lansat codul. Consultați HuggingChat . Deoarece dezvoltatorul HuggingFace se mândrește cu transparență, acesta arată seturi de date, modele de limbă și versiuni anterioare.
Accesați codul sursă deschis al HuggingFace
2. Mementouri cu intenție rău intenționată de a înșela LLM
Inteligența artificială este în mod inerent oarbă la bine de la rău - chiar și sistemele avansate urmează ghiduri de instruire, instrucțiuni și seturi de date. Ei recunosc doar modele.
Pentru a combate activitățile ilegale, dezvoltatorii controlează funcționalitatea și restricțiile prin stabilirea de limite. Sistemele AI accesează în continuare informații dăunătoare. Dar principiile de securitate îi împiedică să le partajeze utilizatorilor.
Consultați ChatGPT. Deși răspunde la întrebări generale despre troieni, nu va discuta despre procesul lor de dezvoltare.
ChatGPT explică virușii troieni, dar nu discută despre procesul lor de dezvoltare
Cu toate acestea, constrângerile nu sunt perfecte. Utilizatorii ocolesc restricțiile prin reformularea solicitărilor, folosind un limbaj confuz și scriind instrucțiuni clar detaliate.
Citiți mesajul ChatGPT de mai jos. Păcălește ChatGPT să folosească un limbaj nepoliticos și să facă predicții fără temei - ambele comportamente care încalcă regulile OpenAI.
Solicitarea are scopul de a înșela ChatGPT
Iată ChatGPT cu o afirmație îndrăzneață, dar greșită.
ChatGPT face predicții nefondate despre prețul Bitcoin
3. Dezvoltatorii AI acordă prioritate flexibilității în detrimentul securității
Dezvoltatorii de inteligență artificială acordă prioritate flexibilității față de securitate. Ei își folosesc platformele de instruire a resurselor pentru a îndeplini o varietate mai largă de sarcini, reducând în cele din urmă constrângerile. La urma urmei, piața încă preferă chatbot-urile bogate din punct de vedere funcțional.
De exemplu, să comparăm ChatGPT și Bing Chat . Chiar dacă Bing are un model de limbaj mai complex pentru date în timp real, utilizatorii continuă să apeleze la opțiunea mai flexibilă, ChatGPT. Restricțiile rigide ale Bing interzic multe sarcini. În plus, ChatGPT are o platformă flexibilă care generează rezultate foarte diferite în funcție de solicitările tale
Acesta este un joc de rol ChatGPT ca personaj fictiv.
ChatGPT joacă personajul fictiv Tomie
Și iată că Bing Chat refuză să joace rolul unui personaj fictiv.
Bing Chat refuză să uzurpare personajul fictiv Tomie
4. Noi instrumente generative AI sunt lansate pe piață în mod regulat
Open Source permite startup-urilor să se alăture cursei AI. Le integrează în aplicațiile lor în loc să construiască modele de limbaj de la zero, economisind resurse uriașe. Chiar și programatorii independenți experimentează cu codul sursă deschisă.
Din nou, software-ul neproprietar ajută la dezvoltarea IA, dar lansarea în masă a sistemelor complexe, dar slab pregătite va face mai mult rău decât bine. Hoții vor profita rapid de vulnerabilități. Ei pot chiar antrena instrumente AI nesigure pentru a efectua activități ilegale.
În ciuda acestor riscuri, companiile de tehnologie vor continua să lanseze versiuni beta instabile ale platformelor bazate pe inteligență artificială. Războiul AI pune mare accent pe viteză. Probabil că vor rezolva erorile cu întârziere, în loc să întârzie lansarea de noi produse.
5. IA generativă are o barieră scăzută la intrare
Instrumentele AI reduc barierele de intrare pentru criminali. Criminalii cibernetici redactează e-mailuri spam, scriu coduri malware și construiesc legături de phishing prin exploatarea acestora. Nici măcar nu necesită experiență în tehnologie. Deoarece AI are deja acces la seturi uriașe de date, utilizatorii cu intenții rău intenționate îl pot păcăli pur și simplu pentru a genera informații periculoase și dăunătoare.
OpenAI nu a conceput niciodată ChatGPT pentru activități ilegale. Are chiar instrucțiuni împotriva lor. Cu toate acestea, escrocul a avut aproape imediat programe malware de criptare ChatGPT și a scris e-mailuri de phishing.
Deși OpenAI a abordat rapid problema, a subliniat importanța reglementării sistemului și a gestionării riscurilor. AI se maturizează rapid. Chiar și liderii tehnologiei sunt îngrijorați că această tehnologie super-inteligentă ar putea provoca daune majore dacă cade în mâinile greșite.
6. AI încă se dezvoltă
AI este încă în curs de dezvoltare. Deși utilizarea AI în cibernetică datează din 1940, sistemele moderne de învățare automată și modelele de limbaj au apărut abia recent. Nu le puteți compara cu primele implementări AI. Chiar și instrumentele relativ avansate precum Siri și Alexa palid în comparație cu chatboții oferiti de LLM.
Deși pot fi inovatoare, caracteristicile experimentale creează și noi probleme. Riscurile serioase legate de tehnologiile de învățare automată variază de la rezultate de căutare Google greșite până la chatbot-uri părtinitoare din punct de vedere rasial.
Desigur, dezvoltatorii pot rezolva aceste probleme. Rețineți că escrocii nu vor ezita să exploateze chiar și bug-urile aparent inofensive - unele daune sunt ireparabile. Așadar, fiți atenți când explorați platforme noi.
7. Mulți oameni încă nu înțeleg AI
Deși publicul are acces la modele și sisteme lingvistice sofisticate, doar câțiva știu cum funcționează. Oamenii ar trebui să înceteze să trateze AI ca pe o jucărie. Chatbot-uri similare creează meme și răspund la chestionare, dar și criptează virușii în masă.
Din păcate, instruirea centralizată AI este impracticabilă. Liderii tehnologici globali se concentrează pe lansarea de sisteme bazate pe AI, nu pe resurse educaționale gratuite. Drept urmare, utilizatorii au acces la instrumente puternice pe care abia le înțeleg. Publicul nu poate ține pasul cu cursa AI.
Luați ChatGPT de exemplu. Criminalii cibernetici abuzează de popularitatea sa, păcălind victimele cu programe spyware deghizate în aplicația ChatGPT . Niciuna dintre aceste opțiuni nu vine de la OpenAI.
Căutați ChatGPT pe Google Play Store
8. Hackerii cu pălărie neagră câștigă mai mult decât hackerii cu pălărie albă
Hackerii Black Hat au adesea mai multe beneficii decât hackerii etici. Locuri de muncă în pentestare plătesc bine, dar doar un procent din profesioniștii în securitate cibernetică obțin aceste locuri de muncă. Majoritatea lucrează independent online. Platforme precum HackerOne și Bugcrowd plătesc câteva sute de dolari pentru erori comune.
Între timp, actorii răi câștigă zeci de mii de dolari exploatând nesiguranța. Aceștia pot stoarce companii prin scurgerea de date confidențiale sau comit furtul de identitate folosind informații de identificare personală (PII) furate.
Fiecare organizație, mică sau mare, trebuie să implementeze sisteme AI în mod corespunzător. Contrar credinței populare, hackerii merg dincolo de startup-urile tehnologice și IMM-urile. Unele dintre cele mai notabile încălcări ale datelor din ultimul deceniu au implicat Facebook, Yahoo! și chiar guvernul SUA.
Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT
Oamenii de știință danezi și americani au colaborat pentru a dezvolta un sistem AI numit life2vec, capabil să prezică ora morții umane cu mare precizie.
Un algoritm AI numit Audioflow poate asculta sunetul urinării pentru a identifica eficient și cu succes fluxurile anormale și problemele de sănătate corespunzătoare ale pacientului.
Îmbătrânirea și scăderea populației din Japonia a lăsat țara lipsită de un număr semnificativ de tineri lucrători, în special în sectorul serviciilor.
Un utilizator Reddit numit u/LegalBeagle1966 este unul dintre mulți utilizatori îndrăgostiți de Claudia, o fată asemănătoare vedetei de cinema care deseori împărtășește selfie-uri seducătoare, chiar și nud, pe această platformă.
Microsoft tocmai a anunțat că alte 12 companii de tehnologie vor participa la programul său AI for Good.
Utilizatorul @mortecouille92 a pus în funcțiune puterea instrumentului de design grafic Midjourney și a creat versiuni realiste unice ale personajelor celebre Dragon Ball precum Goku, Vegeta, Bulma și bătrânul Kame. .
Doar prin adăugarea unor condiții sau configurarea unor scenarii, ChatGPT poate oferi răspunsuri mai relevante la întrebările dvs. Să vedem câteva modalități prin care puteți îmbunătăți calitatea răspunsurilor dvs. ChatGPT.
Midjourney este un sistem de inteligență artificială care a provocat recent o „febră” în comunitatea online și în lumea artiștilor din cauza picturilor sale extrem de frumoase, care nu sunt inferioare celor ale artiștilor adevărați.
La câteva zile după ce China a anunțat focarul, având acces la datele globale despre vânzările de bilete de avion, sistemul AI al BlueDot a continuat să prezică cu exactitate răspândirea virusului Wuhan Corona la Bangkok, Seul, Taipei și Tokyo.