La task force ChatGPT sarà istituita dall’Europa
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
“Cento parole sentite non valgono la pena di essere viste”, questo proverbio potrebbe non essere più esatto quando si parla di cybersecurity di fronte alla “minaccia” dei deepfake in futuro non si potrà più credere a nulla. con i miei occhi!
Riprendendo il concetto, deepfake è un programma che sfrutta l'intelligenza artificiale , permettendo agli utenti di scambiare il volto di qualcuno in un video con il volto di un'altra persona. Aiuta infatti gli utenti a creare contenuti fake inserendo nei video i volti di personaggi famosi con scopo di diffamazione o profitto illecito. Questo è anche il motivo per cui il deepfake è diventato una delle principali minacce per le società di intrattenimento, le celebrità e, soprattutto, per la sicurezza informatica.
Steve Grobman, chief technology officer della società di sicurezza informatica McAfee, e Celeste Fralick, uno dei più importanti data scientist al mondo, hanno lanciato l'avvertimento in un discorso programmatico durante una conferenza sulla sicurezza. RSA ha recentemente rivelato che la tecnologia Deepfake è diventata molto più sofisticata di quanto l'umanità pensi. ed è davvero una grave minaccia per il futuro. Per dimostrarlo, questi due scienziati hanno mostrato un video, che mostrava che le parole di Celeste Fralick erano state pronunciate da un'immagine che somigliava al volto di Steve Grobman, sebbene Grobman non ne avesse ancora parlato. Quindi si può vedere che siamo facilmente ingannati dal deepfake, quindi in questa epoca, ciò che vediamo e sentiamo non è necessariamente accurato!
“Ho utilizzato i tuoi commenti pubblici per creare e addestrare un modello di machine learning che mi ha permesso di sviluppare un video deepfake, in cui le mie parole uscivano dalla bocca di qualcun altro. Questo è solo uno degli innumerevoli modi in cui l’intelligenza artificiale e l’apprendimento automatico possono essere utilizzati per scopi nefasti. Mi fa pensare allo scenario peggiore in cui l’intelligenza artificiale potrebbe essere utilizzata dagli aggressori, cose come l’ingegneria sociale e il phishing, in cui i nostri avversari potrebbero ora creare targeting automatico”, ha affermato Celeste Fralick.
In effetti, sono proprio il deepfake e l’intelligenza artificiale a diventare potenti assistenti per aiutare gli hacker a creare attacchi di phishing online personalizzati e mirati con percentuali di successo più elevate e che possono essere condotti con la stessa portata degli attacchi automatizzati.
“È giusto dire che la maggior parte delle persone non si rende conto di quanto possano essere pericolosi l’intelligenza artificiale e l’apprendimento automatico, e il confine tra l’uso per il bene o per il male è molto sottile. C'è un'area tecnica in cui è coinvolto il mio team chiamata apprendimento automatico antagonista. Lì conduciamo ricerche sui modi in cui i malintenzionati possono invadere o avvelenare la gerarchia del machine learning”, ha aggiunto Celeste Fralick.
In un'intervista di lunedì 4 marzo, Steve Grobman ha affermato che lui e Celeste Fralick sono stati in grado di creare video deepfake in un solo fine settimana senza sforzarsi di renderlo perfetto. Ciò dimostra che una volta che un utente malintenzionato qualificato deepfake ha identificato un obiettivo, la creazione di sofisticati video fabbricati basati sull’intelligenza artificiale non è affatto difficile.
Uno dei modi più comuni per ingannare tra una persona reale e un modello generato dall'intelligenza artificiale è scattare una foto quasi reale e quindi modificare una parte molto piccola dei dettagli in un modo che la persona media vedrebbe spesso irriconoscibile. . Fralick ha fatto un esempio in cui la foto di un pinguino può essere interpretata e interpretata dall'intelligenza artificiale come una padella, grazie a poche piccole operazioni.
Ciò che Celeste Fralick si chiede qui è se le stesse tecniche utilizzate per confondere i classificatori di immagini possano ancora essere utilizzate per confonderci i loro modelli di rete o no, in particolare qui si tratta di False Positive (falso errore di verifica).
Esistono diversi tipi di falsi positivi, ad esempio alcuni programmi anti-spyware sciatti inducono gli utenti a credere erroneamente che il loro computer sia stato attaccato da spyware, quando in realtà non vi è alcun problema. Il termine "falso positivo" può essere utilizzato anche quando applicazioni anti-spyware legittime vengono erroneamente identificate come minacce. Parlando più approfonditamente di questo problema, il professor Steve Grobman ha affermato che i falsi positivi potrebbero avere conseguenze catastrofiche. Un primo esempio di ciò furono i terrificanti 23 minuti del 26 settembre 1983, al culmine delle tensioni della Guerra Fredda. Diversi centri di allerta internazionali, tra cui gli Stati Uniti e l’Unione Sovietica, hanno emesso avvisi ad alta quota su un fulmine che ha scioccato il mondo, ma alla fine si è trattato solo di un errore, davvero sbagliato. Nello specifico, la parte sovietica scoprì 5 missili nucleari statunitensi lanciati e diretti verso il suo territorio e diede immediatamente istruzioni di mettere tutte le forze armate in uno stato di prontezza alla guerra. Ma con le sirene a tutto volume e gli schermi lampeggianti, il tenente colonnello Stanislav Petrov ha finalmente stabilito che l'incidente era solo un malfunzionamento del sistema informatico. Nello specifico, Petrov sosteneva che gli Stati Uniti non sarebbero stati in grado di iniziare una guerra mondiale lanciando solo cinque missili. Ignorò le istruzioni con cui era stato addestrato e con il suo intuito il tenente colonnello giudicò accuratamente la situazione, contribuendo a prevenire una guerra nucleare.
“Si è scoperto che la causa principale dell’incidente era un raro allineamento della luce solare sulle nuvole alte che creava effetti simili a quelli di un razzo. Possiamo quindi vedere quanto possano essere pericolose le conseguenze della confusione sui sistemi informatici e quanto possano persino innescare una guerra nucleare. E se l’Unione Sovietica avesse lanciato missili in risposta immediata? Ed è importante essere consapevoli del vero potere dell'intelligenza artificiale nel risolvere i problemi, ma sarà anche un'arma a doppio taglio se nelle mani di malintenzionati che imperversano online," ha condiviso Steve Grobman. .
Inoltre, Grobman ha anche affermato di credere sempre che la tecnologia sia essenzialmente solo uno strumento inanimato e che possa essere applicata sia per scopi buoni che cattivi. Ad esempio, una mappa del crimine con dati su dove è avvenuto il crimine e dove è stato arrestato l’autore del reato potrebbe essere utilizzata per aiutare la polizia a risolvere il crimine – oppure potrebbe essere utilizzata anche dai criminali stessi per sfuggire alla cattura e all’inseguimento della polizia. In un altro esempio, un aereo fu utilizzato per bombardare i civili, provocando 2 milioni di vittime durante la seconda guerra mondiale. Quando gli fu chiesto se si fosse pentito di aver inventato l'aereo, Orville Wright disse nel 1948 che lo considerava come l'uso del fuoco, che avrebbe potuto causare enormi danni in caso di incendio, ma era comunque utilizzato per migliaia di scopi importanti. E lo stesso vale per l’intelligenza artificiale.
"L'intuizione di Orville ci mostra che la tecnologia è intrinsecamente moralmente irrilevante, si può dire che sia davvero benefica o dannosa solo a seconda di come viene utilizzata. E questo è ciò che il nostro settore, la sicurezza informatica, combatte costantemente!"
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
Scienziati danesi e americani hanno collaborato per sviluppare un sistema di intelligenza artificiale chiamato life2vec, in grado di prevedere l’ora della morte umana con elevata precisione.
Un algoritmo AI chiamato Audioflow può ascoltare il suono della minzione per identificare in modo efficace e con successo flussi anomali e corrispondenti problemi di salute del paziente.
L'invecchiamento e il calo della popolazione giapponese hanno lasciato il paese privo di un numero significativo di giovani lavoratori, soprattutto nel settore dei servizi.
Un utente Reddit di nome u/LegalBeagle1966 è uno dei tanti utenti innamorati di Claudia, una ragazza simile a una star del cinema che spesso condivide selfie seducenti, anche nudi, su questa piattaforma.
Microsoft ha appena annunciato che altre 12 aziende tecnologiche parteciperanno al suo programma AI for Good.
L'utente @mortecouille92 ha messo a frutto la potenza dello strumento di progettazione grafica Midjourney e ha creato versioni realistiche uniche di famosi personaggi di Dragon Ball come Goku, Vegeta, Bulma e l'anziano Kame. .
Semplicemente aggiungendo alcune condizioni o impostando alcuni scenari, ChatGPT può fornire risposte più pertinenti alle tue domande. Diamo un'occhiata ad alcuni modi in cui puoi migliorare la qualità delle tue risposte ChatGPT.
Midjourney è un sistema di intelligenza artificiale che recentemente ha causato "febbre" nella comunità online e nel mondo degli artisti a causa dei suoi dipinti estremamente belli che non sono inferiori a quelli dei veri artisti.
Alcuni giorni dopo l’annuncio dell’epidemia da parte della Cina, con l’accesso ai dati globali sulle vendite di biglietti aerei, il sistema di intelligenza artificiale di BlueDot ha continuato a prevedere con precisione la diffusione del virus Corona di Wuhan a Bangkok, Seul, Taipei e Tokyo.