De ChatGPT-taskforce zal door Europa worden opgericht
Het orgaan dat de nationale privacywaakhonden van Europa verenigt, zei donderdag dat het een taskforce heeft opgericht die zich specifiek bezighoudt met ChatGPT
AI heeft de afgelopen jaren aanzienlijke vooruitgang geboekt. Geavanceerde taalmodellen kunnen seriële romans samenstellen, eenvoudige webpagina's coderen en wiskundige problemen analyseren.
Hoewel zeer indrukwekkend, brengt generatieve AI ook potentiële veiligheidsrisico’s met zich mee. Sommige mensen gebruiken chatbots simpelweg om te spieken bij examens, maar anderen misbruiken ze om cybercriminaliteit te plegen. Hier zijn 8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden.
1. Open source AI-chatbot onthult back-endcode
Veel AI-bedrijven bieden open source-systemen aan. Ze delen openlijk hun taalmodellen in plaats van ze privé of exclusief te houden. Neem bijvoorbeeld Meta. In tegenstelling tot Google, Microsoft en OpenAI geeft het miljoenen gebruikers toegang tot zijn taalmodel, LLaMA .
Hoewel open bronnen AI kunnen bevorderen, brengen ze ook risico's met zich mee. OpenAI heeft problemen gehad met het controleren van ChatGPT , zijn eigen chatbot, dus stel je eens voor wat boeven zouden kunnen doen met gratis software. Zij hebben de volledige controle over deze projecten.
Zelfs toen Meta plotseling zijn taalmodel terugtrok, gaven tientallen andere AI-laboratoria hun code vrij. Kijk eens op KnuffelChat . Omdat ontwikkelaar HuggingFace trots is op transparantie, toont het datasets, taalmodellen en eerdere versies.
Toegang tot de open source-code van HuggingFace
2. Herinneringen met kwade bedoelingen om LLM te misleiden
AI is inherent blind voor goed en kwaad; zelfs geavanceerde systemen volgen trainingshandleidingen, instructies en datasets. Ze herkennen alleen patronen.
Om illegale activiteiten te bestrijden, controleren ontwikkelaars de functionaliteit en beperkingen door limieten in te stellen. AI-systemen hebben nog steeds toegang tot schadelijke informatie. Maar beveiligingsprincipes weerhouden hen ervan deze met gebruikers te delen.
Kijk eens naar ChatGPT. Hoewel het algemene vragen over Trojaanse paarden beantwoordt, wordt hun ontwikkelingsproces niet besproken.
ChatGPT legt Trojaanse virussen uit, maar gaat niet in op hun ontwikkelingsproces
De beperkingen zijn echter niet perfect. Gebruikers omzeilen beperkingen door aanwijzingen opnieuw te formuleren, verwarrende taal te gebruiken en duidelijk gedetailleerde instructies te schrijven.
Lees de ChatGPT-prompt hieronder. Het misleidt ChatGPT tot het gebruik van grof taalgebruik en het doen van ongegronde voorspellingen - beide gedragingen die in strijd zijn met de richtlijnen van OpenAI.
De prompt is bedoeld om ChatGPT te misleiden
Hier is ChatGPT met een gewaagde maar misleidende claim.
ChatGPT doet ongefundeerde voorspellingen over de Bitcoin-prijs
3. AI-ontwikkelaars geven prioriteit aan flexibiliteit boven beveiliging
AI-ontwikkelaars geven prioriteit aan flexibiliteit boven beveiliging. Ze gebruiken hun trainingsplatforms voor hulpmiddelen om een grotere verscheidenheid aan taken uit te voeren, waardoor uiteindelijk de beperkingen worden verminderd. De markt geeft immers nog steeds de voorkeur aan functioneel rijke chatbots.
Laten we bijvoorbeeld ChatGPT en Bing Chat vergelijken . Hoewel Bing een complexer taalmodel heeft voor realtime gegevens, kiezen gebruikers nog steeds voor de flexibelere optie ChatGPT. De strenge beperkingen van Bing verbieden veel taken. Bovendien heeft ChatGPT een flexibel platform dat zeer verschillende outputs genereert, afhankelijk van uw aanwijzingen
Dit is ChatGPT-rollenspel als een fictief personage.
ChatGPT speelt het fictieve personage Tomie
En hier weigert Bing Chat de rol van een fictief personage te spelen.
Bing Chat weigert zich voor te doen als het fictieve personage Tomie
4. Er worden regelmatig nieuwe generatieve AI-tools op de markt gebracht
Met open source kunnen startups meedoen aan de AI-race. Ze integreren ze in hun applicaties in plaats van taalmodellen helemaal opnieuw te bouwen, waardoor enorme hulpbronnen worden bespaard. Zelfs onafhankelijke programmeurs experimenteren met open source-code.
Ook hier helpt niet-gepatenteerde software bij de ontwikkeling van AI, maar de massale introductie van complexe maar slecht opgeleide systemen zal meer kwaad dan goed doen. Dieven zullen snel misbruik maken van kwetsbaarheden. Ze kunnen zelfs onveilige AI-tools trainen om illegale activiteiten uit te voeren.
Ondanks deze risico’s zullen technologiebedrijven onstabiele bètaversies van AI-gestuurde platforms blijven uitbrengen. De AI-oorlog legt grote nadruk op snelheid. Ze zullen bugs waarschijnlijk laat oplossen in plaats van de lancering van nieuwe producten uit te stellen.
5. Generatieve AI heeft een lage toetredingsdrempel
AI-instrumenten verlagen de toetredingsdrempels voor criminelen. Cybercriminelen stellen spam-e-mails op, schrijven malwarecode en bouwen phishing-links door deze te misbruiken. Ze vereisen niet eens technische ervaring. Omdat AI al toegang heeft tot enorme datasets, kunnen gebruikers met kwade bedoelingen het eenvoudigweg misleiden om gevaarlijke, schadelijke informatie te genereren.
OpenAI heeft ChatGPT nooit ontworpen voor illegale activiteiten. Er zijn zelfs instructies tegen hen. De oplichter beschikte echter vrijwel onmiddellijk over ChatGPT-encryptie-malware en schreef phishing-e-mails.
Hoewel OpenAI het probleem snel aanpakte, benadrukte het het belang van systeemregulering en risicobeheer. AI wordt snel volwassen. Zelfs technologieleiders zijn bang dat deze superslimme technologie grote schade kan aanrichten als deze in verkeerde handen valt.
6. AI is nog steeds in ontwikkeling
AI is nog steeds in ontwikkeling. Hoewel het gebruik van AI in de cybernetica teruggaat tot 1940, zijn moderne Machine Learning- systemen en taalmodellen pas onlangs verschenen. Je kunt ze niet vergelijken met de eerste AI-implementaties. Zelfs relatief geavanceerde tools als Siri en Alexa verbleken in vergelijking met de chatbots die LLM aanbiedt.
Hoewel ze innovatief kunnen zijn, creëren experimentele functies ook nieuwe problemen. Ernstige risico's met Machine Learning-technologieën variëren van gebrekkige Google-zoekresultaten tot racistisch bevooroordeelde chatbots.
Uiteraard kunnen ontwikkelaars deze problemen oplossen. Houd er rekening mee dat oplichters niet zullen aarzelen om zelfs ogenschijnlijk onschuldige bugs te misbruiken; sommige schade is onherstelbaar. Wees dus voorzichtig bij het verkennen van nieuwe platforms.
7. Veel mensen begrijpen AI nog steeds niet
Hoewel het publiek toegang heeft tot geavanceerde taalmodellen en -systemen, weten slechts enkelen hoe deze werken. Mensen moeten stoppen met het behandelen van AI als speelgoed. Soortgelijke chatbots maken memes en beantwoorden quizzen, maar versleutelen ook massaal virussen.
Helaas is gecentraliseerde AI-training onpraktisch. Mondiale technologieleiders zijn gefocust op het vrijgeven van op AI gebaseerde systemen, niet op gratis onderwijsmiddelen. Als gevolg hiervan hebben gebruikers toegang tot krachtige tools die ze nauwelijks begrijpen. Het publiek kan de AI-race niet bijhouden.
Neem bijvoorbeeld ChatGPT. Cybercriminelen misbruiken de populariteit ervan door slachtoffers te misleiden met spyware vermomd als de ChatGPT-applicatie . Geen van deze opties komt van OpenAI.
Zoek naar ChatGPT in de Google Play Store
8. Black hat-hackers verdienen meer dan white hat-hackers
Black hat-hackers hebben vaak meer voordelen dan ethische hackers. Pentestbanen betalen goed, maar slechts een percentage van de cyberbeveiligingsprofessionals krijgt deze banen. De meesten doen freelance werk online. Platforms als HackerOne en Bugcrowd betalen honderden dollars voor veelvoorkomende bugs.
Ondertussen verdienen slechte acteurs tienduizenden dollars door de onveiligheid uit te buiten. Ze kunnen bedrijven afpersen door vertrouwelijke gegevens te lekken of identiteitsdiefstal te plegen met behulp van gestolen persoonlijk identificeerbare informatie (PII).
Elke organisatie, klein of groot, moet AI-systemen op de juiste manier implementeren. In tegenstelling tot wat vaak wordt gedacht, gaan hackers veel verder dan tech-startups en MKB-bedrijven. Bij enkele van de meest opvallende datalekken van de afgelopen tien jaar waren Facebook, Yahoo! en zelfs de Amerikaanse overheid betrokken.
Het orgaan dat de nationale privacywaakhonden van Europa verenigt, zei donderdag dat het een taskforce heeft opgericht die zich specifiek bezighoudt met ChatGPT
Deense en Amerikaanse wetenschappers hebben samengewerkt om een AI-systeem te ontwikkelen genaamd life2vec, dat in staat is om het tijdstip van menselijke dood met hoge nauwkeurigheid te voorspellen.
Een AI-algoritme genaamd Audioflow kan naar het geluid van het plassen luisteren om abnormale stromingen en bijbehorende gezondheidsproblemen van de patiënt effectief en met succes te identificeren.
Door de vergrijzing en de afnemende bevolking van Japan heeft het land een aanzienlijk aantal jonge werknemers nodig, vooral in de dienstensector.
Een Reddit-gebruiker genaamd u/LegalBeagle1966 is een van de vele gebruikers die verliefd zijn op Claudia, een filmsterachtig meisje dat vaak verleidelijke selfies deelt, zelfs naakte, op dit platform.
Microsoft heeft zojuist aangekondigd dat nog twaalf technologiebedrijven zullen deelnemen aan zijn AI for Good-programma.
Gebruiker @mortecouille92 heeft de kracht van de grafische ontwerptool Midjourney aan het werk gezet en uniek realistische versies gemaakt van beroemde Dragon Ball-personages zoals Goku, Vegeta, Bulma en oudere Kame.
Door enkele voorwaarden toe te voegen of enkele scenario's in te stellen, kan ChatGPT relevantere antwoorden op uw vragen geven. Laten we eens kijken naar enkele manieren waarop u de kwaliteit van uw ChatGPT-reacties kunt verbeteren.
Midjourney is een kunstmatig intelligentiesysteem dat de laatste tijd voor ‘koorts’ zorgt in de online community en de kunstenaarswereld vanwege zijn buitengewoon mooie schilderijen die niet onderdoen voor die van echte kunstenaars.
Dagen nadat China de uitbraak had aangekondigd, bleef het AI-systeem van BlueDot, met toegang tot wereldwijde gegevens over de verkoop van vliegtickets, nauwkeurig de verspreiding van het Wuhan Corona-virus naar Bangkok, Seoul, Taipei en Tokio voorspellen.