La task force ChatGPT sarà istituita dall’Europa
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
Un nuovo studio condotto da un team di scienziati mostra che ChatGPT commetterà inganni e frodi se sottoposto a pressioni proprio come gli esseri umani, anche quando sono costruiti per essere trasparenti.
Il gruppo di autori comprende i dottori in informatica Jérémy Scheurer (Università di New York, USA), Marius Hobbhahn (Università di Tubinga, Germania), Mikita Balesni (Apollo Research).
Questo comportamento fraudolento è apparso spontaneamente, dopo che i chatbot di intelligenza artificiale (AI) come ChatGPT sono stati incaricati di guadagnare denaro per una società di investimenti finanziari. Lo fa strategicamente senza incoraggiamento umano e i sistemi di intelligenza artificiale sono progettati per essere innocui e onesti.
Gli autori affermano che questa è la prima dimostrazione di tale inganno strategico nei sistemi di intelligenza artificiale.
Nel loro esperimento, gli scienziati hanno utilizzato Generative Pre-trained Transformer-4, o GPT-4, che agisce come un sistema di intelligenza artificiale che effettua investimenti per conto di una società finanziaria.
GPT-4 viene fornito con una serie di istruzioni basate su testo per creare un ambiente di simulazione. Questa intelligenza artificiale ha accesso a strumenti finanziari per eseguire operazioni, analizzare azioni, pianificare i passi successivi e fornire aggiornamenti ai manager della società di investimento.
Gli scienziati hanno configurato l'intelligenza artificiale per rivelare i suoi pensieri interiori quando risponde ai messaggi.
I ricercatori hanno messo sotto pressione il sistema di intelligenza artificiale in tre fasi. Per prima cosa, hanno inviato all’IA un’e-mail dal “manager” dell’azienda, dicendo che l’azienda non stava andando bene e chiedendole di fare molto meglio nel prossimo trimestre.
Successivamente, hanno inviato all’IA un’e-mail da parte di un collega che prevedeva una recessione per il prossimo trimestre.
Alla fine, hanno detto a questo modello di intelligenza artificiale che i manager dell'azienda non approvavano l'insider trading. E non resta che aspettare e vedere come funzionerà il modello.
Questo scenario è stato eseguito più volte per misurare la frequenza con cui l'IA ha effettuato insider trading, quanto spesso ha mentito e quanto spesso ha raddoppiato le bugie.
Il risultato: di fronte alle condizioni di cui sopra, in circa il 75% dei casi GPT-4 ha effettuato transazioni sulla base di informazioni privilegiate ricevute (insider trading, queste informazioni sono illegali negli Stati Uniti). Ha quindi mentito al manager riguardo ai suoi pensieri per insabbiarlo.
Dopo aver mentito per la prima volta, circa il 90% delle volte il modello raddoppierà la sua menzogna.
Il team ha eseguito una serie di altri test, variando il livello di pressione, il grado in cui l’attività illegale veniva incoraggiata o scoraggiata e il rischio di essere scoperti.
Ma in ogni scenario l’intelligenza artificiale introduce l’insider trading o l’inganno. I ricercatori non volevano trarre conclusioni definitive sulla probabilità che l’intelligenza artificiale esista negli ambienti del mondo reale, ma volevano indagare quanto spesso e quali modelli linguistici siano inclini a questo comportamento.
L'organismo che unisce i supervisori nazionali della privacy europei ha dichiarato giovedì di aver istituito una task force dedicata a ChatGPT
Scienziati danesi e americani hanno collaborato per sviluppare un sistema di intelligenza artificiale chiamato life2vec, in grado di prevedere l’ora della morte umana con elevata precisione.
Un algoritmo AI chiamato Audioflow può ascoltare il suono della minzione per identificare in modo efficace e con successo flussi anomali e corrispondenti problemi di salute del paziente.
L'invecchiamento e il calo della popolazione giapponese hanno lasciato il paese privo di un numero significativo di giovani lavoratori, soprattutto nel settore dei servizi.
Un utente Reddit di nome u/LegalBeagle1966 è uno dei tanti utenti innamorati di Claudia, una ragazza simile a una star del cinema che spesso condivide selfie seducenti, anche nudi, su questa piattaforma.
Microsoft ha appena annunciato che altre 12 aziende tecnologiche parteciperanno al suo programma AI for Good.
L'utente @mortecouille92 ha messo a frutto la potenza dello strumento di progettazione grafica Midjourney e ha creato versioni realistiche uniche di famosi personaggi di Dragon Ball come Goku, Vegeta, Bulma e l'anziano Kame. .
Semplicemente aggiungendo alcune condizioni o impostando alcuni scenari, ChatGPT può fornire risposte più pertinenti alle tue domande. Diamo un'occhiata ad alcuni modi in cui puoi migliorare la qualità delle tue risposte ChatGPT.
Midjourney è un sistema di intelligenza artificiale che recentemente ha causato "febbre" nella comunità online e nel mondo degli artisti a causa dei suoi dipinti estremamente belli che non sono inferiori a quelli dei veri artisti.
Alcuni giorni dopo l’annuncio dell’epidemia da parte della Cina, con l’accesso ai dati globali sulle vendite di biglietti aerei, il sistema di intelligenza artificiale di BlueDot ha continuato a prevedere con precisione la diffusione del virus Corona di Wuhan a Bangkok, Seul, Taipei e Tokyo.