Grupul de lucru ChatGPT va fi înființat de Europa
Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT
„O sută de cuvinte auzite nu merită văzute”, acest proverb s-ar putea să nu mai fie exact când vine vorba de securitate cibernetică în fața „amenințării” de la deepfake în viitor, nu vei mai putea crede nimic. Am văzut cu ochii mei!
Reamintind conceptul, deepfake este un program care folosește inteligența artificială , permițând utilizatorilor să schimbe fața cuiva dintr-un videoclip cu fața altei persoane. De fapt, ajută utilizatorii să creeze conținut fals inserând chipurile unor oameni celebri în videoclip în scopul defăimării sau al profitului ilegal. Acesta este și motivul pentru care deepfake-ul a devenit o amenințare de top pentru companiile de divertisment, celebrități și, mai ales, securitatea cibernetică.
Steve Grobman, director de tehnologie la compania de securitate cibernetică McAfee, și Celeste Fralick, unul dintre cei mai importanți oameni de știință de date din lume, au emis avertismentul într-un discurs principal la o conferință de securitate. RSA a dezvăluit recent că tehnologia Deepfake a devenit mult mai sofisticată decât crede omenirea. și este cu adevărat o amenințare majoră în viitor. Pentru a dovedi acest lucru, acești doi oameni de știință au arătat un videoclip, care arăta că cuvintele lui Celeste Fralick au fost rostite dintr-o imagine care semăna cu chipul lui Steve Grobman, deși Grobman nu a menționat încă vreodată acele cuvinte. Așa că se vede că suntem ușor păcăliți de deepfake, așa că în această eră, ceea ce vedem și auzim nu este neapărat exact!
„Am folosit comentariile tale publice pentru a crea și antrena un model de învățare automată care mi-a permis să dezvolt un videoclip deepfake, cu cuvintele mele ieșind din gura altcuiva. Acesta este doar unul dintre nenumăratele moduri prin care AI și învățarea automată pot fi folosite în scopuri nefaste. Mă face să mă gândesc la cel mai rău scenariu în care AI ar putea fi folosită de atacatori, lucruri precum inginerie socială și phishing, în care adversarii noștri ar putea acum să creeze țintire automată”, a spus Celeste Fralick.
De fapt, deepfake-ul și inteligența artificială au devenit asistenți puternici pentru a-i ajuta pe hackeri să creeze atacuri de phishing online personalizate, direcționate, cu rate de succes mai mari și pot conduce la scara atacurilor automate.
„Este corect să spunem că majoritatea oamenilor nu realizează cât de periculoase pot fi de fapt AI și învățarea automată, iar limita dintre a fi folosită pentru bine și pentru rău este foarte subțire. Există o zonă tehnică în care este implicată echipa mea numită învățare automată adversară. Acolo, efectuăm cercetări asupra modalităților în care actorii răi pot invada sau otrăvi ierarhia învățării automate”, a adăugat dl Celeste Fralick.
Într-un interviu de luni, 4 martie, Steve Grobman a spus că el și Celeste Fralick au reușit să creeze videoclipuri deepfake într-un singur weekend, fără a încerca din greu să le facă perfecte. Asta arată că, odată ce un atacator calificat deepfake a identificat o țintă, crearea de videoclipuri sofisticate fabricate bazate pe inteligență artificială nu este deloc dificilă.
Una dintre cele mai obișnuite modalități de a înșela între o persoană reală și un model generat de inteligență artificială este să faci o fotografie aproape reală și apoi să schimbi o parte foarte mică a detaliilor într-un mod în care persoana obișnuită ar putea să le vadă. . Fralick a dat un exemplu în care o fotografie a unui pinguin poate fi interpretată și interpretată de AI ca o tigaie, datorită doar câtorva mici operațiuni.
Ceea ce se întreabă Celeste Fralick aici este dacă aceleași tehnici care sunt folosite pentru a confunda clasificatorii de imagini pot fi încă folosite pentru a confunda modelele lor de rețea. noi sau nu, în special aici este fals pozitiv (eroare de verificare falsă).
Există mai multe tipuri de fals pozitive, de exemplu, unele programe anti-spyware neglijente îi fac pe utilizatori să creadă, în mod eronat, că computerul lor este atacat de spyware, când de fapt nu există nicio problemă. Termenul „fals pozitiv” poate fi folosit și atunci când aplicațiile anti-spyware legitime sunt identificate în mod eronat ca amenințări. Vorbind mai multe despre această problemă, profesorul Steve Grobman a spus că falsele pozitive ar putea avea consecințe catastrofale. Un prim exemplu în acest sens au fost cele 23 de minute terifiante din 26 septembrie 1983 - în apogeul tensiunilor din Războiul Rece. Mai multe centre internaționale de avertizare, inclusiv Statele Unite și Uniunea Sovietică, au emis avertismente la mare altitudine cu privire la un atac fulger care a șocat lumea, dar în cele din urmă a fost doar o greșeală. Mai exact, partea sovietică a descoperit 5 rachete nucleare americane lansate și s-au îndreptat către teritoriul său și a dat imediat instrucțiuni de a pune toate forțele armate în stare de pregătire pentru război. Dar cu sirenele sunet și ecranele clipind, locotenent-colonelul Stanislav Petrov a stabilit în cele din urmă că incidentul a fost doar o defecțiune a sistemului informatic. Mai exact, Petrov a susținut că Statele Unite nu vor putea declanșa un război mondial lansând doar cinci rachete. A ignorat instrucțiunile cu care fusese antrenat și, cu intuiția sa, locotenent-colonelul a judecat situația cu acuratețe, ajutând la prevenirea unui război nuclear.
„S-a dovedit că cauza principală a incidentului a fost o aliniere rară a luminii soarelui pe norii înalți, creând efecte asemănătoare unei rachete. Așadar, putem vedea cât de periculoase pot fi consecințele confuziei asupra sistemelor informatice și pot chiar declanșa un război nuclear. Dacă Uniunea Sovietică ar fi lansat lansări de rachete ca răspuns imediat? Și este important să fim conștienți de adevărata putere a inteligenței artificiale în rezolvarea problemelor, dar va fi, de asemenea, o sabie cu două tăișuri dacă se află în mâinile băieților răi care răspândesc online”, a spus Steve Grobman.
În plus, Grobman a mai spus că întotdeauna crede că tehnologia este în esență doar un instrument neînsuflețit și poate fi aplicată atât în scopuri bune, cât și în scopuri rele. De exemplu, o hartă a crimei cu date despre locul unde a avut loc infracțiunea și unde a fost arestat făptuitorul ar putea fi folosită pentru a ajuta poliția să rezolve infracțiunea - sau ar putea fi folosită și de infractorii înșiși pentru a se sustrage de la captură. Într-un alt exemplu, un avion a fost folosit pentru a bombarda civili, rezultând 2 milioane de victime în timpul celui de-al Doilea Război Mondial. Când a fost întrebat dacă regretă că a inventat avionul, Orville Wright a spus în 1948 că îl considera folosind foc, care ar putea provoca pagube enorme dacă izbucnește un incendiu, dar a fost încă folosit în mii de scopuri importante. La fel și AI.
„Perspectiva lui Orville ne arată că tehnologia este în mod inerent irelevantă din punct de vedere moral, că se poate spune că este benefică sau dăunătoare, în funcție de modul în care este utilizată, și asta este cu ce industria noastră, securitatea cibernetică, se luptă constant!”
Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT
Oamenii de știință danezi și americani au colaborat pentru a dezvolta un sistem AI numit life2vec, capabil să prezică ora morții umane cu mare precizie.
Un algoritm AI numit Audioflow poate asculta sunetul urinării pentru a identifica eficient și cu succes fluxurile anormale și problemele de sănătate corespunzătoare ale pacientului.
Îmbătrânirea și scăderea populației din Japonia a lăsat țara lipsită de un număr semnificativ de tineri lucrători, în special în sectorul serviciilor.
Un utilizator Reddit numit u/LegalBeagle1966 este unul dintre mulți utilizatori îndrăgostiți de Claudia, o fată asemănătoare vedetei de cinema care deseori împărtășește selfie-uri seducătoare, chiar și nud, pe această platformă.
Microsoft tocmai a anunțat că alte 12 companii de tehnologie vor participa la programul său AI for Good.
Utilizatorul @mortecouille92 a pus în funcțiune puterea instrumentului de design grafic Midjourney și a creat versiuni realiste unice ale personajelor celebre Dragon Ball precum Goku, Vegeta, Bulma și bătrânul Kame. .
Doar prin adăugarea unor condiții sau configurarea unor scenarii, ChatGPT poate oferi răspunsuri mai relevante la întrebările dvs. Să vedem câteva modalități prin care puteți îmbunătăți calitatea răspunsurilor dvs. ChatGPT.
Midjourney este un sistem de inteligență artificială care a provocat recent o „febră” în comunitatea online și în lumea artiștilor din cauza picturilor sale extrem de frumoase, care nu sunt inferioare celor ale artiștilor adevărați.
La câteva zile după ce China a anunțat focarul, având acces la datele globale despre vânzările de bilete de avion, sistemul AI al BlueDot a continuat să prezică cu exactitate răspândirea virusului Wuhan Corona la Bangkok, Seul, Taipei și Tokyo.