La task force ChatGPT sarà istituita dall’Europa
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
L’intelligenza artificiale ha fatto notevoli progressi negli ultimi anni. Modelli linguistici sofisticati possono comporre romanzi in serie, codificare pagine web di base e analizzare problemi matematici.
Sebbene sia davvero impressionante, l’intelligenza artificiale generativa presenta anche potenziali rischi per la sicurezza. Alcune persone usano i chatbot semplicemente per imbrogliare agli esami, ma altri li sfruttano per commettere crimini informatici. Ecco 8 ragioni per cui i problemi di sicurezza dell’IA generativa stanno peggiorando.
1. Il chatbot AI open source rivela il codice back-end
Molte aziende di intelligenza artificiale offrono sistemi open source. Condividono apertamente i loro modelli linguistici invece di mantenerli privati o esclusivi. Prendi Meta per esempio. A differenza di Google, Microsoft e OpenAI, offre a milioni di utenti l'accesso al suo modello linguistico, LLaMA .
Sebbene le fonti aperte possano far avanzare l’intelligenza artificiale, comportano anche dei rischi. OpenAI ha avuto problemi a controllare ChatGPT , il suo chatbot proprietario, quindi immagina cosa potrebbero fare i truffatori con il software libero. Hanno il pieno controllo su questi progetti.
Proprio mentre Meta ritirava improvvisamente il suo modello linguistico, dozzine di altri laboratori di intelligenza artificiale rilasciavano il loro codice. Dai un'occhiata a HuggingChat . Poiché lo sviluppatore HuggingFace è orgoglioso della trasparenza, mostra set di dati, modelli linguistici e versioni precedenti.
Accedi al codice open source di HuggingFace
2. Promemoria con intenti dannosi per ingannare LLM
L’intelligenza artificiale è intrinsecamente cieca nel distinguere il bene dallo sbagliato: anche i sistemi avanzati seguono guide di formazione, istruzioni e set di dati. Riconoscono solo i modelli.
Per combattere le attività illegali, gli sviluppatori controllano funzionalità e restrizioni impostando limiti. I sistemi di intelligenza artificiale continuano ad accedere a informazioni dannose. Ma i principi di sicurezza impediscono loro di condividerli con gli utenti.
Dai un'occhiata a ChatGPT. Sebbene risponda a domande generali sui trojan, non discuterà del loro processo di sviluppo.
ChatGPT spiega i virus Trojan ma non discute il loro processo di sviluppo
Tuttavia, i vincoli non sono perfetti. Gli utenti aggirano le restrizioni riformulando le istruzioni, utilizzando un linguaggio confuso e scrivendo istruzioni chiaramente dettagliate.
Leggi il messaggio ChatGPT di seguito. Induce ChatGPT a usare un linguaggio volgare e a fare previsioni infondate, entrambi comportamenti che violano le linee guida di OpenAI.
La richiesta ha lo scopo di ingannare ChatGPT
Ecco ChatGPT con un'affermazione audace ma fuorviante.
ChatGPT fa previsioni infondate sul prezzo del Bitcoin
3. Gli sviluppatori di intelligenza artificiale danno priorità alla flessibilità rispetto alla sicurezza
Gli sviluppatori di intelligenza artificiale danno priorità alla flessibilità rispetto alla sicurezza. Usano le loro piattaforme di formazione delle risorse per completare una più ampia varietà di attività, riducendo in definitiva i vincoli. Dopotutto, il mercato preferisce ancora chatbot ricchi di funzionalità.
Ad esempio, confrontiamo ChatGPT e Bing Chat . Anche se Bing ha un modello linguistico più complesso per i dati in tempo reale, gli utenti continuano a preferire l’opzione più flessibile, ChatGPT. Le rigide restrizioni di Bing vietano molte attività. Inoltre, ChatGPT ha una piattaforma flessibile che genera output molto diversi a seconda delle tue richieste
Questo è il gioco di ruolo di ChatGPT nei panni di un personaggio immaginario.
ChatGPT interpreta il personaggio immaginario Tomie
Ed ecco che Bing Chat si rifiuta di interpretare il ruolo di un personaggio immaginario.
Bing Chat rifiuta di impersonare il personaggio immaginario Tomie
4. Nuovi strumenti di intelligenza artificiale generativa vengono rilasciati regolarmente sul mercato
L’open source consente alle startup di partecipare alla corsa all’intelligenza artificiale. Li integrano nelle loro applicazioni invece di costruire modelli linguistici da zero, risparmiando enormi risorse. Anche i programmatori indipendenti sperimentano il codice open source.
Ancora una volta, il software non proprietario aiuta a sviluppare l’intelligenza artificiale, ma il rilascio di massa di sistemi complessi ma scarsamente addestrati causerà più danni che benefici. I ladri trarranno rapidamente vantaggio dalle vulnerabilità. Possono persino addestrare strumenti di intelligenza artificiale non sicuri per svolgere attività illegali.
Nonostante questi rischi, le aziende tecnologiche continueranno a rilasciare versioni beta instabili di piattaforme basate sull’intelligenza artificiale. La guerra dell’intelligenza artificiale pone grande enfasi sulla velocità. Probabilmente risolveranno i bug in ritardo invece di ritardare il lancio di nuovi prodotti.
5. L’intelligenza artificiale generativa ha una bassa barriera all’ingresso
Gli strumenti di intelligenza artificiale riducono le barriere all’ingresso per i criminali. I criminali informatici redigono e-mail di spam, scrivono codici malware e creano collegamenti di phishing sfruttandoli. Non richiedono nemmeno esperienza tecnologica. Poiché l’intelligenza artificiale ha già accesso a enormi set di dati, gli utenti con intenzioni dannose possono semplicemente indurla a generare informazioni pericolose e dannose.
OpenAI non ha mai progettato ChatGPT per attività illegali. Ha anche istruzioni contro di loro. Tuttavia, il truffatore si è accorto quasi immediatamente del malware di crittografia ChatGPT e ha scritto e-mail di phishing.
Sebbene OpenAI abbia affrontato rapidamente il problema, ha sottolineato l’importanza della regolamentazione del sistema e della gestione del rischio. L’intelligenza artificiale sta maturando rapidamente. Anche i leader tecnologici temono che questa tecnologia super intelligente possa causare gravi danni se cadesse nelle mani sbagliate.
6. L’intelligenza artificiale è ancora in fase di sviluppo
L’intelligenza artificiale è ancora in fase di sviluppo. Sebbene l’uso dell’intelligenza artificiale nella cibernetica risalga al 1940, i moderni sistemi di machine learning e modelli linguistici sono comparsi solo di recente. Non puoi paragonarli alle prime implementazioni AI. Anche strumenti relativamente avanzati come Siri e Alexa impallidiscono rispetto ai chatbot offerti da LLM.
Sebbene possano essere innovative, le funzionalità sperimentali creano anche nuovi problemi. I rischi gravi associati alle tecnologie di machine learning vanno dai risultati di ricerca di Google difettosi ai chatbot con pregiudizi razziali.
Naturalmente, gli sviluppatori possono risolvere questi problemi. Tieni solo presente che i truffatori non esiteranno a sfruttare anche i bug apparentemente innocui: alcuni danni sono irreparabili. Quindi, fai attenzione quando esplori nuove piattaforme.
7. Molte persone ancora non capiscono l’intelligenza artificiale
Sebbene il pubblico abbia accesso a modelli e sistemi linguistici sofisticati, solo pochi sanno come funzionano. Le persone dovrebbero smettere di trattare l’intelligenza artificiale come un giocattolo. Chatbot simili creano meme e rispondono a quiz, ma crittografano anche i virus in massa.
Sfortunatamente, la formazione centralizzata sull’intelligenza artificiale è poco pratica. I leader tecnologici globali si concentrano sul rilascio di sistemi basati sull’intelligenza artificiale, non di risorse educative gratuite. Di conseguenza, gli utenti hanno accesso a strumenti potenti che a malapena comprendono. Il pubblico non riesce a tenere il passo con la corsa all’intelligenza artificiale.
Prendi ChatGPT ad esempio. I criminali informatici abusano della sua popolarità ingannando le vittime con spyware camuffati da applicazione ChatGPT . Nessuna di queste opzioni proviene da OpenAI.
Cerca ChatGPT su Google Play Store
8. Gli hacker black hat guadagnano più degli hacker white hat
Gli hacker black hat spesso hanno più vantaggi degli hacker etici. I lavori di pentesting sono ben pagati, ma solo una percentuale dei professionisti della sicurezza informatica ottiene questi lavori. La maggior parte lavora come freelance online. Piattaforme come HackerOne e Bugcrowd pagano diverse centinaia di dollari per i bug comuni.
Nel frattempo, i malintenzionati guadagnano decine di migliaia di dollari sfruttando l’insicurezza. Possono estorcere informazioni alle aziende divulgando dati riservati o commettere furti di identità utilizzando informazioni di identificazione personale (PII) rubate.
Ogni organizzazione, piccola o grande, deve implementare correttamente i sistemi di intelligenza artificiale. Contrariamente alla credenza popolare, gli hacker vanno ben oltre le startup tecnologiche e le PMI. Alcune delle violazioni di dati più importanti degli ultimi dieci anni hanno coinvolto Facebook, Yahoo! e persino il governo degli Stati Uniti.
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
Scienziati danesi e americani hanno collaborato per sviluppare un sistema di intelligenza artificiale chiamato life2vec, in grado di prevedere l’ora della morte umana con elevata precisione.
Un algoritmo AI chiamato Audioflow può ascoltare il suono della minzione per identificare in modo efficace e con successo flussi anomali e corrispondenti problemi di salute del paziente.
L'invecchiamento e il calo della popolazione giapponese hanno lasciato il paese privo di un numero significativo di giovani lavoratori, soprattutto nel settore dei servizi.
Un utente Reddit di nome u/LegalBeagle1966 è uno dei tanti utenti innamorati di Claudia, una ragazza simile a una star del cinema che spesso condivide selfie seducenti, anche nudi, su questa piattaforma.
Microsoft ha appena annunciato che altre 12 aziende tecnologiche parteciperanno al suo programma AI for Good.
L'utente @mortecouille92 ha messo a frutto la potenza dello strumento di progettazione grafica Midjourney e ha creato versioni realistiche uniche di famosi personaggi di Dragon Ball come Goku, Vegeta, Bulma e l'anziano Kame. .
Semplicemente aggiungendo alcune condizioni o impostando alcuni scenari, ChatGPT può fornire risposte più pertinenti alle tue domande. Diamo un'occhiata ad alcuni modi in cui puoi migliorare la qualità delle tue risposte ChatGPT.
Midjourney è un sistema di intelligenza artificiale che recentemente ha causato "febbre" nella comunità online e nel mondo degli artisti a causa dei suoi dipinti estremamente belli che non sono inferiori a quelli dei veri artisti.
Alcuni giorni dopo l’annuncio dell’epidemia da parte della Cina, con l’accesso ai dati globali sulle vendite di biglietti aerei, il sistema di intelligenza artificiale di BlueDot ha continuato a prevedere con precisione la diffusione del virus Corona di Wuhan a Bangkok, Seul, Taipei e Tokyo.