De ChatGPT-taskforce zal door Europa worden opgericht
Het orgaan dat de nationale privacywaakhonden van Europa verenigt, zei donderdag dat het een taskforce heeft opgericht die zich specifiek bezighoudt met ChatGPT
"Honderd gehoorde woorden zijn het niet waard om gezien te worden", dit spreekwoord is misschien niet meer accuraat als het gaat om cyberveiligheid, gezien de "dreiging" van deepfake in de toekomst zul je niets meer kunnen geloven. Ik heb het gezien. met mijn eigen ogen!
Denkend aan het concept: deepfake is een programma dat gebruik maakt van kunstmatige intelligentie , waardoor gebruikers in een video iemands gezicht kunnen verwisselen met het gezicht van iemand anders. In feite helpt het gebruikers valse inhoud te creëren door de gezichten van beroemde mensen in de video in te voegen met als doel laster of illegale winst. Dat is ook de reden waarom deepfake een topdreiging is geworden voor entertainmentbedrijven, beroemdheden en vooral de cyberveiligheid.
Steve Grobman, chief technology officer bij cybersecuritybedrijf McAfee, en Celeste Fralick, een van 's werelds toonaangevende datawetenschappers, waarschuwden in een keynote speech op een beveiligingsconferentie. RSA onthulde onlangs dat deepfake-technologie veel geavanceerder is geworden dan de mensheid denkt. en het is werkelijk een grote bedreiging voor de toekomst. Om dit te bewijzen lieten deze twee wetenschappers een video zien, waaruit bleek dat de woorden van Celeste Fralick werden uitgesproken vanuit een beeld dat leek op het gezicht van Steve Grobman, hoewel Grobman het nog niet had gezegd. Het is dus duidelijk dat we gemakkelijk voor de gek worden gehouden door deepfake, dus in dit tijdperk is wat we zien en horen niet noodzakelijkerwijs accuraat!
“Ik heb jullie openbare reacties gebruikt om een machine learning-model te creëren en te trainen waarmee ik een deepfake-video kon ontwikkelen, waarbij mijn woorden uit de mond van iemand anders kwamen. Dit is slechts een van de talloze manieren waarop AI en machine learning voor snode doeleinden kunnen worden gebruikt. Het doet me denken aan het worstcasescenario waarin AI door aanvallers zou kunnen worden gebruikt, zaken als social engineering en phishing, waarbij onze tegenstanders nu automatische targeting zouden kunnen creëren”, aldus Celeste Fralick.
In feite zijn het deepfake en AI die krachtige assistenten zijn geworden om hackers te helpen gepersonaliseerde, gerichte online phishing-aanvallen te creëren met hogere succespercentages, die kunnen worden uitgevoerd met de schaal van geautomatiseerde aanvallen.
“Je kunt eerlijk zeggen dat de meeste mensen zich niet realiseren hoe gevaarlijk AI en machinaal leren eigenlijk kunnen zijn, en dat de grens tussen goed of kwaad gebruikt worden heel dun is. Er is een technisch gebied waarbij mijn team betrokken is: vijandig machine learning. Daar doen we onderzoek naar manieren waarop slechte actoren de hiërarchie van machine learning kunnen binnendringen of vergiftigen”, aldus de heer Celeste Fralick.
In een interview op maandag 4 maart zei Steve Grobman dat hij en Celeste Fralick in slechts één weekend deepfake-video's konden maken zonder hun best te doen om het perfect te maken. Dat laat zien dat zodra een gekwalificeerde deepfake-aanvaller een doelwit heeft geïdentificeerd, het maken van geavanceerde, op AI gebaseerde video’s helemaal niet moeilijk is.
Een van de meest voorkomende manieren om te misleiden tussen een echte persoon en een door AI gegenereerd model is door een bijna echte foto te maken en vervolgens een heel klein deel van de details te veranderen op een manier die de gemiddelde persoon vaak onherkenbaar zal zien. . Fralick gaf een voorbeeld waarin een foto van een pinguïn dankzij slechts een paar kleine handelingen door AI kan worden geïnterpreteerd en geïnterpreteerd als een koekenpan.
Wat Celeste Fralick zich hier afvraagt, is of dezelfde technieken die worden gebruikt om beeldclassificatoren te verwarren nog steeds kunnen worden gebruikt om hun netwerkmodellen te verwarren of niet, met name hier is sprake van False Positive (valse verificatiefout).
Er zijn verschillende soorten valse positieven. Sommige slordige antispywareprogramma's laten gebruikers bijvoorbeeld ten onrechte denken dat hun computer wordt aangevallen door spyware, terwijl er in werkelijkheid helemaal geen probleem is. De term “false positive” kan ook worden gebruikt wanneer legitieme antispywaretoepassingen ten onrechte als bedreigingen worden geïdentificeerd. Professor Steve Grobman zei meer over deze kwestie en zei dat valse positieven catastrofale gevolgen kunnen hebben. Een goed voorbeeld hiervan waren de angstaanjagende 23 minuten op 26 september 1983 – op het hoogtepunt van de spanningen in de Koude Oorlog. Verschillende internationale waarschuwingscentra, waaronder de Verenigde Staten en de Sovjet-Unie, waarschuwden op grote hoogte voor een bliksemaanval die de wereld schokte, maar uiteindelijk was het gewoon een vergissing. Concreet ontdekte de Sovjet-kant vijf Amerikaanse kernraketten die waren gelanceerd en op weg waren naar zijn grondgebied, en gaven ze onmiddellijk instructies om alle strijdkrachten in een staat van oorlogsgereedheid te brengen. Maar met loeiende sirenes en knipperende schermen stelde luitenant-kolonel Stanislav Petrov uiteindelijk vast dat het incident slechts een storing in het computersysteem was. Specifiek betoogde Petrov dat de Verenigde Staten niet in staat zouden zijn een wereldoorlog te beginnen door slechts vijf raketten te lanceren. Hij negeerde de instructies waarmee hij was getraind en met zijn intuïtie schatte de luitenant-kolonel de situatie nauwkeurig in, waardoor een kernoorlog werd voorkomen.
“Het bleek dat de hoofdoorzaak van het incident een zeldzame uitlijning van zonlicht op hoge wolken was, waardoor raketachtige effecten ontstonden. We kunnen dus zien hoe gevaarlijk de gevolgen van verwarring op computersystemen kunnen zijn, en zelfs een nucleaire oorlog kunnen veroorzaken. Wat als de Sovjet-Unie als onmiddellijke reactie raketlanceringen had gelanceerd? En het is belangrijk dat we ons bewust zijn van de ware kracht van AI bij het oplossen van problemen, maar het zal ook een tweesnijdend zwaard zijn als het in de handen komt van slechteriken die online wijdverbreid zijn”, aldus Steve Grobman.
Bovendien zei Grobman ook dat hij altijd gelooft dat technologie in wezen slechts een levenloos hulpmiddel is, en dat het voor zowel goede als slechte doeleinden kan worden toegepast. Een misdaadkaart met gegevens over waar het misdrijf heeft plaatsgevonden en waar de dader is gearresteerd, kan bijvoorbeeld worden gebruikt om de politie te helpen het misdrijf op te lossen, maar het kan ook door de criminelen zelf worden gebruikt om aan arrestatie te ontkomen. In een ander voorbeeld werd een vliegtuig gebruikt om burgers te bombarderen, waarbij tijdens de Tweede Wereldoorlog twee miljoen slachtoffers vielen. Op de vraag of hij er spijt van had dat hij het vliegtuig had uitgevonden, zei Orville Wright in 1948 dat hij het beschouwde als het gebruik van vuur, dat enorme schade zou kunnen veroorzaken als er brand uitbrak, maar dat het nog steeds voor duizenden belangrijke doeleinden werd gebruikt. En dat geldt ook voor AI.
“Het inzicht van Orville laat ons zien dat technologie inherent moreel irrelevant is. Er kan alleen maar worden gezegd dat het nuttig of schadelijk is, afhankelijk van hoe het wordt gebruikt. En dit is waar onze industrie, cybersecurity, voortdurend tegen vecht!”
Het orgaan dat de nationale privacywaakhonden van Europa verenigt, zei donderdag dat het een taskforce heeft opgericht die zich specifiek bezighoudt met ChatGPT
Deense en Amerikaanse wetenschappers hebben samengewerkt om een AI-systeem te ontwikkelen genaamd life2vec, dat in staat is om het tijdstip van menselijke dood met hoge nauwkeurigheid te voorspellen.
Een AI-algoritme genaamd Audioflow kan naar het geluid van het plassen luisteren om abnormale stromingen en bijbehorende gezondheidsproblemen van de patiënt effectief en met succes te identificeren.
Door de vergrijzing en de afnemende bevolking van Japan heeft het land een aanzienlijk aantal jonge werknemers nodig, vooral in de dienstensector.
Een Reddit-gebruiker genaamd u/LegalBeagle1966 is een van de vele gebruikers die verliefd zijn op Claudia, een filmsterachtig meisje dat vaak verleidelijke selfies deelt, zelfs naakte, op dit platform.
Microsoft heeft zojuist aangekondigd dat nog twaalf technologiebedrijven zullen deelnemen aan zijn AI for Good-programma.
Gebruiker @mortecouille92 heeft de kracht van de grafische ontwerptool Midjourney aan het werk gezet en uniek realistische versies gemaakt van beroemde Dragon Ball-personages zoals Goku, Vegeta, Bulma en oudere Kame.
Door enkele voorwaarden toe te voegen of enkele scenario's in te stellen, kan ChatGPT relevantere antwoorden op uw vragen geven. Laten we eens kijken naar enkele manieren waarop u de kwaliteit van uw ChatGPT-reacties kunt verbeteren.
Midjourney is een kunstmatig intelligentiesysteem dat de laatste tijd voor ‘koorts’ zorgt in de online community en de kunstenaarswereld vanwege zijn buitengewoon mooie schilderijen die niet onderdoen voor die van echte kunstenaars.
Dagen nadat China de uitbraak had aangekondigd, bleef het AI-systeem van BlueDot, met toegang tot wereldwijde gegevens over de verkoop van vliegtickets, nauwkeurig de verspreiding van het Wuhan Corona-virus naar Bangkok, Seoul, Taipei en Tokio voorspellen.