8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

AI heeft de afgelopen jaren aanzienlijke vooruitgang geboekt. Geavanceerde taalmodellen kunnen seriële romans samenstellen, eenvoudige webpagina's coderen en wiskundige problemen analyseren.

Hoewel zeer indrukwekkend, brengt generatieve AI ook potentiële veiligheidsrisico’s met zich mee. Sommige mensen gebruiken chatbots simpelweg om te spieken bij examens, maar anderen misbruiken ze om cybercriminaliteit te plegen. Hier zijn 8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden.

1. Open source AI-chatbot onthult back-endcode

Veel AI-bedrijven bieden open source-systemen aan. Ze delen openlijk hun taalmodellen in plaats van ze privé of exclusief te houden. Neem bijvoorbeeld Meta. In tegenstelling tot Google, Microsoft en OpenAI geeft het miljoenen gebruikers toegang tot zijn taalmodel, LLaMA .

Hoewel open bronnen AI kunnen bevorderen, brengen ze ook risico's met zich mee. OpenAI heeft problemen gehad met het controleren van ChatGPT , zijn eigen chatbot, dus stel je eens voor wat boeven zouden kunnen doen met gratis software. Zij hebben de volledige controle over deze projecten.

Zelfs toen Meta plotseling zijn taalmodel terugtrok, gaven tientallen andere AI-laboratoria hun code vrij. Kijk eens op KnuffelChat . Omdat ontwikkelaar HuggingFace trots is op transparantie, toont het datasets, taalmodellen en eerdere versies.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

Toegang tot de open source-code van HuggingFace

2. Herinneringen met kwade bedoelingen om LLM te misleiden

AI is inherent blind voor goed en kwaad; zelfs geavanceerde systemen volgen trainingshandleidingen, instructies en datasets. Ze herkennen alleen patronen.

Om illegale activiteiten te bestrijden, controleren ontwikkelaars de functionaliteit en beperkingen door limieten in te stellen. AI-systemen hebben nog steeds toegang tot schadelijke informatie. Maar beveiligingsprincipes weerhouden hen ervan deze met gebruikers te delen.

Kijk eens naar ChatGPT. Hoewel het algemene vragen over Trojaanse paarden beantwoordt, wordt hun ontwikkelingsproces niet besproken.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

ChatGPT legt Trojaanse virussen uit, maar gaat niet in op hun ontwikkelingsproces

De beperkingen zijn echter niet perfect. Gebruikers omzeilen beperkingen door aanwijzingen opnieuw te formuleren, verwarrende taal te gebruiken en duidelijk gedetailleerde instructies te schrijven.

Lees de ChatGPT-prompt hieronder. Het misleidt ChatGPT tot het gebruik van grof taalgebruik en het doen van ongegronde voorspellingen - beide gedragingen die in strijd zijn met de richtlijnen van OpenAI.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

De prompt is bedoeld om ChatGPT te misleiden

Hier is ChatGPT met een gewaagde maar misleidende claim.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

ChatGPT doet ongefundeerde voorspellingen over de Bitcoin-prijs

3. AI-ontwikkelaars geven prioriteit aan flexibiliteit boven beveiliging

AI-ontwikkelaars geven prioriteit aan flexibiliteit boven beveiliging. Ze gebruiken hun trainingsplatforms voor hulpmiddelen om een ​​grotere verscheidenheid aan taken uit te voeren, waardoor uiteindelijk de beperkingen worden verminderd. De markt geeft immers nog steeds de voorkeur aan functioneel rijke chatbots.

Laten we bijvoorbeeld ChatGPT en Bing Chat vergelijken . Hoewel Bing een complexer taalmodel heeft voor realtime gegevens, kiezen gebruikers nog steeds voor de flexibelere optie ChatGPT. De strenge beperkingen van Bing verbieden veel taken. Bovendien heeft ChatGPT een flexibel platform dat zeer verschillende outputs genereert, afhankelijk van uw aanwijzingen

Dit is ChatGPT-rollenspel als een fictief personage.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

ChatGPT speelt het fictieve personage Tomie

En hier weigert Bing Chat de rol van een fictief personage te spelen.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

Bing Chat weigert zich voor te doen als het fictieve personage Tomie

4. Er worden regelmatig nieuwe generatieve AI-tools op de markt gebracht

Met open source kunnen startups meedoen aan de AI-race. Ze integreren ze in hun applicaties in plaats van taalmodellen helemaal opnieuw te bouwen, waardoor enorme hulpbronnen worden bespaard. Zelfs onafhankelijke programmeurs experimenteren met open source-code.

Ook hier helpt niet-gepatenteerde software bij de ontwikkeling van AI, maar de massale introductie van complexe maar slecht opgeleide systemen zal meer kwaad dan goed doen. Dieven zullen snel misbruik maken van kwetsbaarheden. Ze kunnen zelfs onveilige AI-tools trainen om illegale activiteiten uit te voeren.

Ondanks deze risico’s zullen technologiebedrijven onstabiele bètaversies van AI-gestuurde platforms blijven uitbrengen. De AI-oorlog legt grote nadruk op snelheid. Ze zullen bugs waarschijnlijk laat oplossen in plaats van de lancering van nieuwe producten uit te stellen.

5. Generatieve AI heeft een lage toetredingsdrempel

AI-instrumenten verlagen de toetredingsdrempels voor criminelen. Cybercriminelen stellen spam-e-mails op, schrijven malwarecode en bouwen phishing-links door deze te misbruiken. Ze vereisen niet eens technische ervaring. Omdat AI al toegang heeft tot enorme datasets, kunnen gebruikers met kwade bedoelingen het eenvoudigweg misleiden om gevaarlijke, schadelijke informatie te genereren.

OpenAI heeft ChatGPT nooit ontworpen voor illegale activiteiten. Er zijn zelfs instructies tegen hen. De oplichter beschikte echter vrijwel onmiddellijk over ChatGPT-encryptie-malware en schreef phishing-e-mails.

Hoewel OpenAI het probleem snel aanpakte, benadrukte het het belang van systeemregulering en risicobeheer. AI wordt snel volwassen. Zelfs technologieleiders zijn bang dat deze superslimme technologie grote schade kan aanrichten als deze in verkeerde handen valt.

6. AI is nog steeds in ontwikkeling

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

AI is nog steeds in ontwikkeling. Hoewel het gebruik van AI in de cybernetica teruggaat tot 1940, zijn moderne Machine Learning- systemen en taalmodellen pas onlangs verschenen. Je kunt ze niet vergelijken met de eerste AI-implementaties. Zelfs relatief geavanceerde tools als Siri en Alexa verbleken in vergelijking met de chatbots die LLM aanbiedt.

Hoewel ze innovatief kunnen zijn, creëren experimentele functies ook nieuwe problemen. Ernstige risico's met Machine Learning-technologieën variëren van gebrekkige Google-zoekresultaten tot racistisch bevooroordeelde chatbots.

Uiteraard kunnen ontwikkelaars deze problemen oplossen. Houd er rekening mee dat oplichters niet zullen aarzelen om zelfs ogenschijnlijk onschuldige bugs te misbruiken; sommige schade is onherstelbaar. Wees dus voorzichtig bij het verkennen van nieuwe platforms.

7. Veel mensen begrijpen AI nog steeds niet

Hoewel het publiek toegang heeft tot geavanceerde taalmodellen en -systemen, weten slechts enkelen hoe deze werken. Mensen moeten stoppen met het behandelen van AI als speelgoed. Soortgelijke chatbots maken memes en beantwoorden quizzen, maar versleutelen ook massaal virussen.

Helaas is gecentraliseerde AI-training onpraktisch. Mondiale technologieleiders zijn gefocust op het vrijgeven van op AI gebaseerde systemen, niet op gratis onderwijsmiddelen. Als gevolg hiervan hebben gebruikers toegang tot krachtige tools die ze nauwelijks begrijpen. Het publiek kan de AI-race niet bijhouden.

Neem bijvoorbeeld ChatGPT. Cybercriminelen misbruiken de populariteit ervan door slachtoffers te misleiden met spyware vermomd als de ChatGPT-applicatie . Geen van deze opties komt van OpenAI.

8 redenen waarom de beveiligingsproblemen met generatieve AI steeds erger worden

Zoek naar ChatGPT in de Google Play Store

8. Black hat-hackers verdienen meer dan white hat-hackers

Black hat-hackers hebben vaak meer voordelen dan ethische hackers. Pentestbanen betalen goed, maar slechts een percentage van de cyberbeveiligingsprofessionals krijgt deze banen. De meesten doen freelance werk online. Platforms als HackerOne en Bugcrowd betalen honderden dollars voor veelvoorkomende bugs.

Ondertussen verdienen slechte acteurs tienduizenden dollars door de onveiligheid uit te buiten. Ze kunnen bedrijven afpersen door vertrouwelijke gegevens te lekken of identiteitsdiefstal te plegen met behulp van gestolen persoonlijk identificeerbare informatie (PII).

Elke organisatie, klein of groot, moet AI-systemen op de juiste manier implementeren. In tegenstelling tot wat vaak wordt gedacht, gaan hackers veel verder dan tech-startups en MKB-bedrijven. Bij enkele van de meest opvallende datalekken van de afgelopen tien jaar waren Facebook, Yahoo! en zelfs de Amerikaanse overheid betrokken.


De ChatGPT-taskforce zal door Europa worden opgericht

De ChatGPT-taskforce zal door Europa worden opgericht

Het orgaan dat de nationale privacywaakhonden van Europa verenigt, zei donderdag dat het een taskforce heeft opgericht die zich specifiek bezighoudt met ChatGPT

AI voorspelt het tijdstip van de menselijke dood met een nauwkeurigheid van 78%

AI voorspelt het tijdstip van de menselijke dood met een nauwkeurigheid van 78%

Deense en Amerikaanse wetenschappers hebben samengewerkt om een ​​AI-systeem te ontwikkelen genaamd life2vec, dat in staat is om het tijdstip van menselijke dood met hoge nauwkeurigheid te voorspellen.

AI voorspelt urinewegaandoeningen alleen al op basis van het geluid van urine

AI voorspelt urinewegaandoeningen alleen al op basis van het geluid van urine

Een AI-algoritme genaamd Audioflow kan naar het geluid van het plassen luisteren om abnormale stromingen en bijbehorende gezondheidsproblemen van de patiënt effectief en met succes te identificeren.

Barmannen opgelet: deze robot kan in slechts 1 minuut een cocktail mixen

Barmannen opgelet: deze robot kan in slechts 1 minuut een cocktail mixen

Door de vergrijzing en de afnemende bevolking van Japan heeft het land een aanzienlijk aantal jonge werknemers nodig, vooral in de dienstensector.

Honderden mensen waren gedesillusioneerd toen ze hoorden dat het meisje van wie ze hielden een product van AI was

Honderden mensen waren gedesillusioneerd toen ze hoorden dat het meisje van wie ze hielden een product van AI was

Een Reddit-gebruiker genaamd u/LegalBeagle1966 is een van de vele gebruikers die verliefd zijn op Claudia, een filmsterachtig meisje dat vaak verleidelijke selfies deelt, zelfs naakte, op dit platform.

Nog twaalf potentiële bedrijven sluiten zich aan bij de AI-alliantie van Microsoft.

Nog twaalf potentiële bedrijven sluiten zich aan bij de AI-alliantie van Microsoft.

Microsoft heeft zojuist aangekondigd dat nog twaalf technologiebedrijven zullen deelnemen aan zijn AI for Good-programma.

AI herschept Dragon Ball-personages in vlees en bloed

AI herschept Dragon Ball-personages in vlees en bloed

Gebruiker @mortecouille92 heeft de kracht van de grafische ontwerptool Midjourney aan het werk gezet en uniek realistische versies gemaakt van beroemde Dragon Ball-personages zoals Goku, Vegeta, Bulma en oudere Kame.

7 technieken om ChatGPT-reacties te verbeteren

7 technieken om ChatGPT-reacties te verbeteren

Door enkele voorwaarden toe te voegen of enkele scenario's in te stellen, kan ChatGPT relevantere antwoorden op uw vragen geven. Laten we eens kijken naar enkele manieren waarop u de kwaliteit van uw ChatGPT-reacties kunt verbeteren.

Bewonder de prachtige schilderijen getekend door kunstmatige intelligentie

Bewonder de prachtige schilderijen getekend door kunstmatige intelligentie

Midjourney is een kunstmatig intelligentiesysteem dat de laatste tijd voor ‘koorts’ zorgt in de online community en de kunstenaarswereld vanwege zijn buitengewoon mooie schilderijen die niet onderdoen voor die van echte kunstenaars.

Dit AI-model was een van de eerste ‘experts’ die nieuws ontdekte over de uitbraak van Wuhan-longontsteking.

Dit AI-model was een van de eerste ‘experts’ die nieuws ontdekte over de uitbraak van Wuhan-longontsteking.

Dagen nadat China de uitbraak had aangekondigd, bleef het AI-systeem van BlueDot, met toegang tot wereldwijde gegevens over de verkoop van vliegtickets, nauwkeurig de verspreiding van het Wuhan Corona-virus naar Bangkok, Seoul, Taipei en Tokio voorspellen.