8 motive pentru care problemele de securitate generative AI se agravează

8 motive pentru care problemele de securitate generative AI se agravează

AI a avansat semnificativ în ultimii ani. Modelele de limbaj sofisticate pot compune romane în serie, pot codifica pagini web de bază și pot analiza probleme matematice.

Deși foarte impresionant, Generative AI are și riscuri potențiale de securitate. Unii oameni folosesc pur și simplu chatbot-uri pentru a înșela examenele, dar alții îi exploatează pentru a comite infracțiuni cibernetice. Iată 8 motive pentru care problemele de securitate generative AI se agravează.

1. Chatbot open source AI dezvăluie codul back-end

Multe companii de AI oferă sisteme open source. Își împărtășesc în mod deschis modelele lingvistice în loc să le păstreze private sau exclusive. Luați Meta de exemplu. Spre deosebire de Google, Microsoft și OpenAI, oferă milioane de utilizatori acces la modelul său de limbă, LLaMA .

În timp ce sursele deschise pot avansa AI, ele vin și cu riscuri. OpenAI a avut probleme în a controla ChatGPT , chatbot-ul său proprietar, așa că imaginați-vă ce ar putea face escrocii cu software-ul gratuit. Ei au control total asupra acestor proiecte.

Chiar dacă Meta și-a retras brusc modelul de limbaj, zeci de alte laboratoare AI și-au lansat codul. Consultați HuggingChat . Deoarece dezvoltatorul HuggingFace se mândrește cu transparență, acesta arată seturi de date, modele de limbă și versiuni anterioare.

8 motive pentru care problemele de securitate generative AI se agravează

Accesați codul sursă deschis al HuggingFace

2. Mementouri cu intenție rău intenționată de a înșela LLM

Inteligența artificială este în mod inerent oarbă la bine de la rău - chiar și sistemele avansate urmează ghiduri de instruire, instrucțiuni și seturi de date. Ei recunosc doar modele.

Pentru a combate activitățile ilegale, dezvoltatorii controlează funcționalitatea și restricțiile prin stabilirea de limite. Sistemele AI accesează în continuare informații dăunătoare. Dar principiile de securitate îi împiedică să le partajeze utilizatorilor.

Consultați ChatGPT. Deși răspunde la întrebări generale despre troieni, nu va discuta despre procesul lor de dezvoltare.

8 motive pentru care problemele de securitate generative AI se agravează

ChatGPT explică virușii troieni, dar nu discută despre procesul lor de dezvoltare

Cu toate acestea, constrângerile nu sunt perfecte. Utilizatorii ocolesc restricțiile prin reformularea solicitărilor, folosind un limbaj confuz și scriind instrucțiuni clar detaliate.

Citiți mesajul ChatGPT de mai jos. Păcălește ChatGPT să folosească un limbaj nepoliticos și să facă predicții fără temei - ambele comportamente care încalcă regulile OpenAI.

8 motive pentru care problemele de securitate generative AI se agravează

Solicitarea are scopul de a înșela ChatGPT

Iată ChatGPT cu o afirmație îndrăzneață, dar greșită.

8 motive pentru care problemele de securitate generative AI se agravează

ChatGPT face predicții nefondate despre prețul Bitcoin

3. Dezvoltatorii AI acordă prioritate flexibilității în detrimentul securității

Dezvoltatorii de inteligență artificială acordă prioritate flexibilității față de securitate. Ei își folosesc platformele de instruire a resurselor pentru a îndeplini o varietate mai largă de sarcini, reducând în cele din urmă constrângerile. La urma urmei, piața încă preferă chatbot-urile bogate din punct de vedere funcțional.

De exemplu, să comparăm ChatGPT și Bing Chat . Chiar dacă Bing are un model de limbaj mai complex pentru date în timp real, utilizatorii continuă să apeleze la opțiunea mai flexibilă, ChatGPT. Restricțiile rigide ale Bing interzic multe sarcini. În plus, ChatGPT are o platformă flexibilă care generează rezultate foarte diferite în funcție de solicitările tale

Acesta este un joc de rol ChatGPT ca personaj fictiv.

8 motive pentru care problemele de securitate generative AI se agravează

ChatGPT joacă personajul fictiv Tomie

Și iată că Bing Chat refuză să joace rolul unui personaj fictiv.

8 motive pentru care problemele de securitate generative AI se agravează

Bing Chat refuză să uzurpare personajul fictiv Tomie

4. Noi instrumente generative AI sunt lansate pe piață în mod regulat

Open Source permite startup-urilor să se alăture cursei AI. Le integrează în aplicațiile lor în loc să construiască modele de limbaj de la zero, economisind resurse uriașe. Chiar și programatorii independenți experimentează cu codul sursă deschisă.

Din nou, software-ul neproprietar ajută la dezvoltarea IA, dar lansarea în masă a sistemelor complexe, dar slab pregătite va face mai mult rău decât bine. Hoții vor profita rapid de vulnerabilități. Ei pot chiar antrena instrumente AI nesigure pentru a efectua activități ilegale.

În ciuda acestor riscuri, companiile de tehnologie vor continua să lanseze versiuni beta instabile ale platformelor bazate pe inteligență artificială. Războiul AI pune mare accent pe viteză. Probabil că vor rezolva erorile cu întârziere, în loc să întârzie lansarea de noi produse.

5. IA generativă are o barieră scăzută la intrare

Instrumentele AI reduc barierele de intrare pentru criminali. Criminalii cibernetici redactează e-mailuri spam, scriu coduri malware și construiesc legături de phishing prin exploatarea acestora. Nici măcar nu necesită experiență în tehnologie. Deoarece AI are deja acces la seturi uriașe de date, utilizatorii cu intenții rău intenționate îl pot păcăli pur și simplu pentru a genera informații periculoase și dăunătoare.

OpenAI nu a conceput niciodată ChatGPT pentru activități ilegale. Are chiar instrucțiuni împotriva lor. Cu toate acestea, escrocul a avut aproape imediat programe malware de criptare ChatGPT și a scris e-mailuri de phishing.

Deși OpenAI a abordat rapid problema, a subliniat importanța reglementării sistemului și a gestionării riscurilor. AI se maturizează rapid. Chiar și liderii tehnologiei sunt îngrijorați că această tehnologie super-inteligentă ar putea provoca daune majore dacă cade în mâinile greșite.

6. AI încă se dezvoltă

8 motive pentru care problemele de securitate generative AI se agravează

AI este încă în curs de dezvoltare. Deși utilizarea AI în cibernetică datează din 1940, sistemele moderne de învățare automată și modelele de limbaj au apărut abia recent. Nu le puteți compara cu primele implementări AI. Chiar și instrumentele relativ avansate precum Siri și Alexa palid în comparație cu chatboții oferiti de LLM.

Deși pot fi inovatoare, caracteristicile experimentale creează și noi probleme. Riscurile serioase legate de tehnologiile de învățare automată variază de la rezultate de căutare Google greșite până la chatbot-uri părtinitoare din punct de vedere rasial.

Desigur, dezvoltatorii pot rezolva aceste probleme. Rețineți că escrocii nu vor ezita să exploateze chiar și bug-urile aparent inofensive - unele daune sunt ireparabile. Așadar, fiți atenți când explorați platforme noi.

7. Mulți oameni încă nu înțeleg AI

Deși publicul are acces la modele și sisteme lingvistice sofisticate, doar câțiva știu cum funcționează. Oamenii ar trebui să înceteze să trateze AI ca pe o jucărie. Chatbot-uri similare creează meme și răspund la chestionare, dar și criptează virușii în masă.

Din păcate, instruirea centralizată AI este impracticabilă. Liderii tehnologici globali se concentrează pe lansarea de sisteme bazate pe AI, nu pe resurse educaționale gratuite. Drept urmare, utilizatorii au acces la instrumente puternice pe care abia le înțeleg. Publicul nu poate ține pasul cu cursa AI.

Luați ChatGPT de exemplu. Criminalii cibernetici abuzează de popularitatea sa, păcălind victimele cu programe spyware deghizate în aplicația ChatGPT . Niciuna dintre aceste opțiuni nu vine de la OpenAI.

8 motive pentru care problemele de securitate generative AI se agravează

Căutați ChatGPT pe Google Play Store

8. Hackerii cu pălărie neagră câștigă mai mult decât hackerii cu pălărie albă

Hackerii Black Hat au adesea mai multe beneficii decât hackerii etici. Locuri de muncă în pentestare plătesc bine, dar doar un procent din profesioniștii în securitate cibernetică obțin aceste locuri de muncă. Majoritatea lucrează independent online. Platforme precum HackerOne și Bugcrowd plătesc câteva sute de dolari pentru erori comune.

Între timp, actorii răi câștigă zeci de mii de dolari exploatând nesiguranța. Aceștia pot stoarce companii prin scurgerea de date confidențiale sau comit furtul de identitate folosind informații de identificare personală (PII) furate.

Fiecare organizație, mică sau mare, trebuie să implementeze sisteme AI în mod corespunzător. Contrar credinței populare, hackerii merg dincolo de startup-urile tehnologice și IMM-urile. Unele dintre cele mai notabile încălcări ale datelor din ultimul deceniu au implicat Facebook, Yahoo! și chiar guvernul SUA.


Grupul de lucru ChatGPT va fi înființat de Europa

Grupul de lucru ChatGPT va fi înființat de Europa

Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT

AI prezice ora morții umane cu o precizie de 78%.

AI prezice ora morții umane cu o precizie de 78%.

Oamenii de știință danezi și americani au colaborat pentru a dezvolta un sistem AI numit life2vec, capabil să prezică ora morții umane cu mare precizie.

AI prezice bolile urinare doar prin sunetul urinei

AI prezice bolile urinare doar prin sunetul urinei

Un algoritm AI numit Audioflow poate asculta sunetul urinării pentru a identifica eficient și cu succes fluxurile anormale și problemele de sănătate corespunzătoare ale pacientului.

Barmani, atenție: acest robot poate amesteca un cocktail în doar 1 minut

Barmani, atenție: acest robot poate amesteca un cocktail în doar 1 minut

Îmbătrânirea și scăderea populației din Japonia a lăsat țara lipsită de un număr semnificativ de tineri lucrători, în special în sectorul serviciilor.

Sute de oameni au fost dezamăgiți când au aflat că fata pe care o iubeau este un produs al inteligenței artificiale

Sute de oameni au fost dezamăgiți când au aflat că fata pe care o iubeau este un produs al inteligenței artificiale

Un utilizator Reddit numit u/LegalBeagle1966 este unul dintre mulți utilizatori îndrăgostiți de Claudia, o fată asemănătoare vedetei de cinema care deseori împărtășește selfie-uri seducătoare, chiar și nud, pe această platformă.

Încă 12 companii potențiale se alătură „alianței AI” a Microsoft.

Încă 12 companii potențiale se alătură „alianței AI” a Microsoft.

Microsoft tocmai a anunțat că alte 12 companii de tehnologie vor participa la programul său AI for Good.

AI recreează personajele Dragon Ball în carne și oase

AI recreează personajele Dragon Ball în carne și oase

Utilizatorul @mortecouille92 a pus în funcțiune puterea instrumentului de design grafic Midjourney și a creat versiuni realiste unice ale personajelor celebre Dragon Ball precum Goku, Vegeta, Bulma și bătrânul Kame. .

7 tehnici pentru a îmbunătăți răspunsurile ChatGPT

7 tehnici pentru a îmbunătăți răspunsurile ChatGPT

Doar prin adăugarea unor condiții sau configurarea unor scenarii, ChatGPT poate oferi răspunsuri mai relevante la întrebările dvs. Să vedem câteva modalități prin care puteți îmbunătăți calitatea răspunsurilor dvs. ChatGPT.

Minunați-vă de tablourile frumoase desenate de inteligența artificială

Minunați-vă de tablourile frumoase desenate de inteligența artificială

Midjourney este un sistem de inteligență artificială care a provocat recent o „febră” în comunitatea online și în lumea artiștilor din cauza picturilor sale extrem de frumoase, care nu sunt inferioare celor ale artiștilor adevărați.

Acest model AI a fost unul dintre primii „experți” care au descoperit știri despre focarul de pneumonie din Wuhan.

Acest model AI a fost unul dintre primii „experți” care au descoperit știri despre focarul de pneumonie din Wuhan.

La câteva zile după ce China a anunțat focarul, având acces la datele globale despre vânzările de bilete de avion, sistemul AI al BlueDot a continuat să prezică cu exactitate răspândirea virusului Wuhan Corona la Bangkok, Seul, Taipei și Tokyo.