8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

AI telah berkembang dengan ketara sejak beberapa tahun kebelakangan ini. Model bahasa yang canggih boleh mengarang novel bersiri, mengekodkan halaman web asas dan menganalisis masalah matematik.

Walaupun sangat mengagumkan, AI Generatif juga mempunyai potensi risiko keselamatan. Sesetengah orang hanya menggunakan chatbots untuk menipu dalam peperiksaan, tetapi yang lain mengeksploitasi mereka untuk melakukan jenayah siber. Berikut ialah 8 sebab mengapa masalah keselamatan AI Generatif semakin teruk.

1. Chatbot AI sumber terbuka mendedahkan kod bahagian belakang

Banyak syarikat AI menawarkan sistem sumber terbuka. Mereka berkongsi model bahasa mereka secara terbuka dan bukannya mengekalkannya secara peribadi atau eksklusif. Ambil Meta sebagai contoh. Tidak seperti Google, Microsoft dan OpenAI, ia memberikan berjuta-juta pengguna akses kepada model bahasanya, LLaMA .

Walaupun sumber terbuka boleh memajukan AI, mereka juga datang dengan risiko. OpenAI menghadapi masalah mengawal ChatGPT , chatbot proprietarinya, jadi bayangkan apa yang boleh dilakukan oleh penjahat dengan perisian percuma. Mereka mempunyai kawalan penuh ke atas projek-projek ini.

Walaupun Meta tiba-tiba menarik balik model bahasanya, berpuluh-puluh makmal AI lain mengeluarkan kod mereka. Lihat HuggingChat . Memandangkan pembangun HuggingFace berbangga dengan ketelusan, ia menunjukkan set data, model bahasa dan versi sebelumnya.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

Akses kod sumber terbuka HuggingFace

2. Peringatan dengan niat jahat untuk menipu LLM

AI sememangnya buta kepada betul daripada salah - malah sistem lanjutan mengikut panduan latihan, arahan dan set data. Mereka hanya mengenali corak.

Untuk memerangi aktiviti haram, pembangun mengawal fungsi dan sekatan dengan menetapkan had. Sistem AI masih mengakses maklumat berbahaya. Tetapi prinsip keselamatan menghalang mereka daripada berkongsi perkara ini dengan pengguna.

Lihat ChatGPT. Walaupun ia menjawab soalan umum tentang Trojan, ia tidak akan membincangkan proses pembangunan mereka.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

ChatGPT menerangkan virus Trojan tetapi tidak membincangkan proses pembangunannya

Walau bagaimanapun, kekangan tidak sempurna. Pengguna memintas sekatan dengan menyusun semula gesaan, menggunakan bahasa yang mengelirukan dan menulis arahan terperinci dengan jelas.

Baca gesaan ChatGPT di bawah. Ia menipu ChatGPT untuk menggunakan bahasa kasar dan membuat ramalan tidak berasas - kedua-dua tingkah laku yang melanggar garis panduan OpenAI.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

Gesaan itu bertujuan untuk menipu ChatGPT

Berikut ialah ChatGPT dengan dakwaan yang berani tetapi tersasar.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

ChatGPT membuat ramalan yang tidak berasas tentang harga Bitcoin

3. Pembangun AI mengutamakan fleksibiliti berbanding keselamatan

Pembangun AI mengutamakan fleksibiliti berbanding keselamatan. Mereka menggunakan platform latihan sumber mereka untuk menyelesaikan pelbagai tugas yang lebih luas, akhirnya mengurangkan kekangan. Lagipun, pasaran masih lebih suka chatbots kaya berfungsi.

Sebagai contoh, mari kita bandingkan ChatGPT dan Bing Chat . Walaupun Bing mempunyai model bahasa yang lebih kompleks untuk data masa nyata, pengguna masih berpusu-pusu kepada pilihan yang lebih fleksibel, ChatGPT. Sekatan tegar Bing melarang banyak tugas. Selain itu, ChatGPT mempunyai platform fleksibel yang menjana output yang sangat berbeza bergantung pada gesaan anda

Ini ialah lakonan ChatGPT sebagai watak fiksyen.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

ChatGPT memainkan watak fiksyen Tomie

Dan inilah Bing Chat yang enggan memainkan peranan sebagai watak fiksyen.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

Bing Chat enggan menyamar sebagai watak fiksyen Tomie

4. Alat AI Generatif baharu dikeluarkan ke pasaran dengan kerap

Sumber terbuka membenarkan pemula untuk menyertai perlumbaan AI. Mereka mengintegrasikannya ke dalam aplikasi mereka dan bukannya membina model bahasa dari awal, menjimatkan sumber yang besar. Malah pengaturcara bebas bereksperimen dengan kod sumber terbuka.

Sekali lagi, perisian bukan proprietari membantu membangunkan AI, tetapi pelepasan besar-besaran sistem yang kompleks tetapi kurang terlatih akan mendatangkan lebih banyak mudarat daripada kebaikan. Pencuri akan cepat mengambil kesempatan daripada kelemahan. Mereka juga boleh melatih alat AI yang tidak selamat untuk melakukan aktiviti haram.

Walaupun terdapat risiko ini, syarikat teknologi akan terus mengeluarkan versi beta yang tidak stabil bagi platform dipacu AI. Perang AI memberi penekanan yang besar pada kelajuan. Mereka mungkin akan menyelesaikan pepijat lewat dan bukannya menangguhkan pelancaran produk baharu.

5. Generatif AI mempunyai halangan yang rendah untuk masuk

Alat AI merendahkan halangan kemasukan penjenayah. Penjenayah siber mendraf e-mel spam, menulis kod perisian hasad dan membina pautan pancingan data dengan mengeksploitasinya. Mereka tidak memerlukan pengalaman teknologi pun. Memandangkan AI sudah mempunyai akses kepada set data yang besar, pengguna dengan niat jahat hanya boleh menipunya untuk menghasilkan maklumat berbahaya dan berbahaya.

OpenAI tidak pernah mereka ChatGPT untuk aktiviti haram. Ia juga mempunyai arahan terhadap mereka. Walau bagaimanapun, penipu hampir serta-merta mempunyai perisian hasad penyulitan ChatGPT dan menulis e-mel pancingan data.

Walaupun OpenAI cepat menangani isu itu, ia menekankan kepentingan pengawalan sistem dan pengurusan risiko. AI semakin matang dengan cepat. Malah pemimpin teknologi bimbang bahawa teknologi super pintar ini boleh menyebabkan kerosakan besar jika ia jatuh ke tangan yang salah.

6. AI masih berkembang

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

AI masih berkembang. Walaupun penggunaan AI dalam sibernetik bermula sejak 1940, sistem Pembelajaran Mesin moden dan model bahasa baru sahaja muncul. Anda tidak boleh membandingkannya dengan pelaksanaan AI yang pertama. Malah alat yang agak maju seperti Siri dan Alexa pucat berbanding dengan chatbots yang ditawarkan oleh LLM.

Walaupun ia mungkin inovatif, ciri eksperimen juga mencipta masalah baharu. Risiko serius dengan teknologi Pembelajaran Mesin terdiri daripada hasil carian Google yang cacat kepada chatbot yang berat sebelah kaum.

Sudah tentu, pembangun boleh menyelesaikan masalah ini. Perlu diingat bahawa penyangak tidak akan teragak-agak untuk mengeksploitasi pepijat yang kelihatan tidak berbahaya - sesetengah kerosakan tidak boleh diperbaiki. Jadi, berhati-hati apabila meneroka platform baharu.

7. Masih ramai yang tidak faham AI

Walaupun orang ramai mempunyai akses kepada model dan sistem bahasa yang canggih, hanya segelintir yang mengetahui cara ia berfungsi. Orang ramai harus berhenti melayan AI seperti mainan. Chatbots serupa mencipta meme dan menjawab kuiz, tetapi juga menyulitkan virus secara beramai-ramai.

Malangnya, latihan AI terpusat tidak praktikal. Pemimpin teknologi global menumpukan pada mengeluarkan sistem berasaskan AI, bukan sumber pendidikan percuma. Akibatnya, pengguna mempunyai akses kepada alat berkuasa yang mereka hampir tidak faham. Orang ramai tidak dapat bersaing dengan perlumbaan AI.

Ambil ChatGPT sebagai contoh. Penjenayah siber menyalahgunakan popularitinya dengan memperdaya mangsa dengan perisian pengintip yang menyamar sebagai aplikasi ChatGPT . Tiada satu pun daripada pilihan ini datang daripada OpenAI.

8 sebab mengapa masalah keselamatan AI Generatif semakin teruk

Cari ChatGPT di Gedung Google Play

8. Penggodam topi hitam memperoleh pendapatan lebih daripada penggodam topi putih

Penggodam topi hitam selalunya mempunyai lebih banyak faedah daripada penggodam beretika. Pekerjaan pentesting berbayar dengan baik, tetapi hanya peratusan profesional keselamatan siber mendapat pekerjaan ini. Kebanyakan melakukan kerja bebas dalam talian. Platform seperti HackerOne dan Bugcrowd membayar beberapa ratus dolar untuk pepijat biasa.

Sementara itu, pelakon jahat membuat puluhan ribu dolar dengan mengeksploitasi ketidakamanan. Mereka boleh memeras ugut syarikat dengan membocorkan data sulit atau melakukan kecurian ID menggunakan maklumat pengenalan peribadi (PII) yang dicuri.

Setiap organisasi, kecil atau besar, mesti melaksanakan sistem AI dengan betul. Bertentangan dengan kepercayaan popular, penggodam melampaui syarikat permulaan teknologi dan SMB. Beberapa pelanggaran data yang paling ketara dalam dekad yang lalu melibatkan Facebook, Yahoo!, dan juga kerajaan AS.


Pasukan petugas ChatGPT akan ditubuhkan oleh Eropah

Pasukan petugas ChatGPT akan ditubuhkan oleh Eropah

Badan yang menyatukan pemerhati privasi negara Eropah berkata pada hari Khamis ia telah menubuhkan pasukan petugas khusus untuk ChatGPT

AI meramalkan masa kematian manusia dengan ketepatan 78%.

AI meramalkan masa kematian manusia dengan ketepatan 78%.

Para saintis Denmark dan Amerika telah bekerjasama untuk membangunkan sistem AI yang dipanggil life2vec, yang mampu meramalkan masa kematian manusia dengan ketepatan yang tinggi.

AI meramalkan penyakit kencing hanya dengan bunyi air kencing

AI meramalkan penyakit kencing hanya dengan bunyi air kencing

Algoritma AI yang dipanggil Audioflow boleh mendengar bunyi kencing untuk mengenal pasti aliran tidak normal dan masalah kesihatan pesakit yang sepadan dengan berkesan dan berjaya.

Pelayan bar, berhati-hati: Robot ini boleh mencampurkan koktel dalam masa 1 minit sahaja

Pelayan bar, berhati-hati: Robot ini boleh mencampurkan koktel dalam masa 1 minit sahaja

Penduduk Jepun yang semakin tua dan semakin berkurangan menyebabkan negara itu kekurangan sejumlah besar pekerja muda, terutamanya dalam sektor perkhidmatan.

Beratus-ratus orang kecewa apabila mereka mengetahui bahawa gadis yang mereka cintai adalah produk AI

Beratus-ratus orang kecewa apabila mereka mengetahui bahawa gadis yang mereka cintai adalah produk AI

Pengguna Reddit bernama u/LegalBeagle1966 ialah salah satu daripada ramai pengguna yang terpikat dengan Claudia, seorang gadis seperti bintang filem yang sering berkongsi swafoto yang menggoda, malah bogel. di platform ini.

12 lagi syarikat berpotensi menyertai AI alliance Microsoft.

12 lagi syarikat berpotensi menyertai AI alliance Microsoft.

Microsoft baru sahaja mengumumkan bahawa 12 lagi syarikat teknologi akan mengambil bahagian dalam program AI for Goodnya.

AI mencipta semula watak Dragon Ball dalam daging dan darah

AI mencipta semula watak Dragon Ball dalam daging dan darah

Pengguna @mortecouille92 telah meletakkan kuasa alat reka bentuk grafik Midjourney untuk berfungsi dan mencipta versi unik realistik watak Dragon Ball yang terkenal seperti Goku, Vegeta, Bulma dan Kame yang lebih tua. .

7 teknik untuk meningkatkan respons ChatGPT

7 teknik untuk meningkatkan respons ChatGPT

Hanya dengan menambah beberapa syarat atau menyediakan beberapa senario, ChatGPT boleh memberikan jawapan yang lebih berkaitan kepada pertanyaan anda. Mari lihat beberapa cara anda boleh meningkatkan kualiti respons ChatGPT anda.

Kagum dengan lukisan cantik yang dilukis oleh kecerdasan buatan

Kagum dengan lukisan cantik yang dilukis oleh kecerdasan buatan

Midjourney ialah sistem kecerdasan buatan yang baru-baru ini menyebabkan "demam" dalam komuniti dalam talian dan dunia artis kerana lukisannya yang sangat cantik yang tidak kalah dengan lukisan artis sebenar.

Model AI ini adalah salah seorang pakar pertama yang menemui berita tentang wabak pneumonia Wuhan.

Model AI ini adalah salah seorang pakar pertama yang menemui berita tentang wabak pneumonia Wuhan.

Beberapa hari selepas China mengumumkan wabak itu, dengan akses kepada data jualan tiket penerbangan global, sistem AI BlueDot terus meramalkan dengan tepat penyebaran virus Wuhan Corona ke Bangkok, Seoul, Taipei dan Tokyo.