Generative AI のセキュリティ問題が悪化している 8 つの理由

Generative AI のセキュリティ問題が悪化している 8 つの理由

AIはここ数年で大きく進歩しました。洗練された言語モデルにより、連続小説を作成し、基本的な Web ページをコーディングし、数学的問題を分析できます。

非常に印象的なものではありますが、Generative AI には潜在的なセキュリティ リスクもあります。チャットボットを単に試験でカンニングするために使用する人もいますが、チャットボットを悪用してサイバー犯罪を犯す人もいます。Generative AI のセキュリティ問題が悪化している 8 つの理由を以下に示します。

1. オープンソース AI チャットボットがバックエンド コードを明らかにする

多くの AI 企業がオープンソース システムを提供しています。彼らは言語モデルを非公開または排他的なものにするのではなく、オープンに共有します。メタを例に考えてみましょう。Google、Microsoft、OpenAI とは異なり、何百万ものユーザーが言語モデルLLaMAにアクセスできるようになります。

オープンソースは AI を進化させることができますが、リスクも伴います。OpenAI は、独自のチャットボットであるChatGPTの制御に問題を抱えています。そのため、詐欺師がフリー ソフトウェアで何ができるかを想像してみてください。彼らはこれらのプロジェクトを完全に制御できます。

Meta が突然その言語モデルを撤回したにもかかわらず、他の数十の AI ラボがコードを公開しました。ハギングチャットをチェックしてください。開発者の HuggingFace は透明性を重視しているため、データセット、言語モデル、および以前のバージョンが表示されます。

Generative AI のセキュリティ問題が悪化している 8 つの理由

HuggingFace のオープンソース コードにアクセスする

2. LLMを欺く悪意のあるリマインダー

AI は本質的に善悪の区別がつきません。高度なシステムであっても、トレーニング ガイド、指示、データ セットに従います。彼らはパターンのみを認識します。

違法行為に対抗するために、開発者は制限を設定することで機能と制限を制御します。AI システムは依然として有害な情報にアクセスしています。しかし、セキュリティ原則により、これらをユーザーと共有することはできません。

ChatGPT をチェックしてください。トロイの木馬に関する一般的な質問には答えますが、その開発プロセスについては説明しません。

Generative AI のセキュリティ問題が悪化している 8 つの理由

ChatGPT はトロイの木馬ウイルスについて説明していますが、その開発プロセスについては説明していません

ただし、制約は完全ではありません。ユーザーは、プロンプトを言い換えたり、紛らわしい言葉を使用したり、明確に詳細な指示を書いたりすることで、制限を回避します。

以下の ChatGPT プロンプトを読んでください。これは ChatGPT をだまして失礼な言葉を使用させたり、根拠のない予測をさせたりしますが、どちらの動作も OpenAI のガイドラインに違反します。

Generative AI のセキュリティ問題が悪化している 8 つの理由

プロンプトは ChatGPT を欺くことを目的としています。

これは、大胆だが見当違いの主張をした ChatGPT です。

Generative AI のセキュリティ問題が悪化している 8 つの理由

ChatGPTはビットコイン価格について根拠のない予測を行う

3. AI開発者はセキュリティよりも柔軟性を優先する

AI 開発者はセキュリティよりも柔軟性を優先します。彼らはリソース トレーニング プラットフォームを使用してさまざまなタスクを完了し、最終的に制約を軽減します。結局のところ、市場は依然として機能が豊富なチャットボットを好みます。

たとえば、ChatGPT と Bing Chat を比較してみましょう。Bing にはリアルタイム データ用のより複雑な言語モデルがありますが、ユーザーは依然としてより柔軟なオプションである ChatGPT に群がっています。Bing の厳格な制限により、多くのタスクが禁止されています。さらに、ChatGPT には、プロンプトに応じて非常に異なる出力を生成する柔軟なプラットフォームがあります。

これは、架空のキャラクターとしての ChatGPT ロールプレイングです。

Generative AI のセキュリティ問題が悪化している 8 つの理由

ChatGPT は架空の人物富江を演じます

そして、Bing Chatは架空の人物の役割を演じることを拒否しています。

Generative AI のセキュリティ問題が悪化している 8 つの理由

Bing Chatは架空の人物「富江」になりすますことを拒否

4. 新しい生成 AI ツールが定期的に市場にリリースされます

オープンソースにより、スタートアップ企業が AI 競争に参加できるようになります。彼らは言語モデルをゼロから構築するのではなく、アプリケーションに統合し、膨大なリソースを節約します。独立したプログラマーであっても、オープン ソース コードを実験します。

繰り返しになりますが、非独自ソフトウェアは AI の開発に役立ちますが、複雑ではあるが十分にトレーニングされていないシステムを大量にリリースすると、利益よりも害の方が大きくなります。窃盗犯は脆弱性をすぐに利用します。安全でない AI ツールを訓練して違法行為を実行することもできます。

こうしたリスクにもかかわらず、ハイテク企業は今後も AI 駆動プラットフォームの不安定なベータ版をリリースし続けるでしょう。AI戦争ではスピードが非常に重視されます。新製品の発売を遅らせるのではなく、バグの解決が遅れる可能性が高い。

5. 生成 AI は参入障壁が低い

AI ツールは犯罪者の参入障壁を低くします。サイバー犯罪者は、スパムメールを作成し、マルウェアコードを作成し、それを悪用してフィッシングリンクを構築します。技術的な経験も必要ありません。AI はすでに膨大なデータセットにアクセスできるため、悪意のあるユーザーが AI を騙して危険で有害な情報を生成させることができます。

OpenAI は違法行為のために ChatGPT を設計したことはありません。彼らに対する指示さえあります。しかし、詐欺師はすぐに ChatGPT 暗号化マルウェアを感染させ、フィッシングメールを作成しました。

OpenAI はこの問題に迅速に対処しましたが、システム規制とリスク管理の重要性を強調しました。AIは急速に成熟しています。テクノロジーリーダーでさえ、この超スマートテクノロジーが悪者の手に渡った場合、大きな損害を引き起こす可能性があると懸念しています。

6. AIはまだ発展中

Generative AI のセキュリティ問題が悪化している 8 つの理由

AIはまだまだ発展途上です。サイバネティクスにおける AI の使用は 1940 年に遡りますが、最新の機械学習システムと言語モデルが登場したのはつい最近です。最初の AI 実装と比較することはできません。Siri や Alexa のような比較的高度なツールでさえ、LLM が提供するチャットボットと比較すると見劣りします。

実験的な機能は革新的かもしれませんが、新たな問題も引き起こします。機械学習テクノロジーに関する深刻なリスクは、欠陥のある Google 検索結果から人種的に偏見のあるチャットボットまで多岐にわたります。

もちろん、開発者はこれらの問題を解決できます。犯罪者は、一見無害に見えるバグであっても悪用することをためらわないことに注意してください。一部の損害は修復不可能です。したがって、新しいプラットフォームを検討するときは注意してください。

7. 多くの人はまだ AI を理解していません

一般の人々は洗練された言語モデルとシステムにアクセスできますが、それらがどのように機能するかを知っている人はほんのわずかです。人々はAIをおもちゃのように扱うのをやめるべきです。同様のチャットボットはミームを作成し、クイズに答えますが、ウイルスをまとめて暗号化することもできます。

残念ながら、一元的な AI トレーニングは現実的ではありません。世界的なテクノロジー リーダーは、無料の教育リソースではなく、AI ベースのシステムのリリースに重点を置いています。その結果、ユーザーはほとんど理解できない強力なツールにアクセスできるようになります。一般大衆はAI競争についていけない。

ChatGPT を例に考えてみましょう。サイバー犯罪者は、 ChatGPT アプリケーションを装ったスパイウェアで被害者を騙すことで、その人気を悪用します。これらのオプションはいずれも OpenAI から提供されたものではありません。

Generative AI のセキュリティ問題が悪化している 8 つの理由

Google Play ストアで ChatGPT を検索します

8. ブラックハットハッカーはホワイトハッカーよりも収入が多い

ブラックハットハッカーは、多くの場合、倫理的ハッカーよりも多くの利益をもたらします。侵入テストの仕事は高収入ですが、こうした仕事に就くサイバーセキュリティ専門家の割合はわずかです。ほとんどはオンラインでフリーランスの仕事をしています。HackerOne や Bugcrowd などのプラットフォームは、一般的なバグに対して数百ドルを支払います。

一方、悪者は治安の悪さを利用して数万ドルを稼いでいます。機密データを漏洩して企業を恐喝したり、盗んだ個人識別情報 (PII) を使用して ID 盗難を犯したりする可能性があります。

規模の大小を問わず、すべての組織は AI システムを適切に導入する必要があります。一般に信じられていることに反して、ハッカーはテクノロジー関連の新興企業や中小企業をはるかに超えています。過去 10 年間で最も注目されたデータ侵害には、Facebook、Yahoo!、さらには米国政府が関与したものもあります。


ChatGPTタスクフォースはヨーロッパによって設立されます

ChatGPTタスクフォースはヨーロッパによって設立されます

欧州の国家プライバシー監視団体を統合する団体は木曜日、ChatGPT専用の対策委員会を設置したと発表した。

AI は人間の死亡時刻を 78% の精度で予測します

AI は人間の死亡時刻を 78% の精度で予測します

デンマークとアメリカの科学者は共同で、人間の死亡時刻を高精度で予測できる life2vec と呼ばれる AI システムを開発しました。

AIが尿音だけで泌尿器疾患を予測

AIが尿音だけで泌尿器疾患を予測

Audioflow と呼ばれる AI アルゴリズムは、排尿音を聞いて、異常な排尿の流れとそれに対応する患者の健康上の問題を効果的かつ首尾よく特定できます。

バーテンダーの皆さん、気をつけてください: このロボットはわずか 1 分でカクテルを作ることができます

バーテンダーの皆さん、気をつけてください: このロボットはわずか 1 分でカクテルを作ることができます

日本では高齢化と人口減少により、特にサービス部門で大量の若年労働者が不足しています。

自分たちが愛した少女がAIの産物だと知り、何百人もの人々が幻滅した

自分たちが愛した少女がAIの産物だと知り、何百人もの人々が幻滅した

u/LegalBeagle1966 という名前の Reddit ユーザーは、このプラットフォームで魅惑的な自撮り写真、さらにはヌード写真を頻繁に共有する映画スターのような女の子、クローディアに夢中になっている多くのユーザーの 1 人です。

さらに 12 社の潜在的な企業がマイクロソフトの「AI アライアンス」に参加します。

さらに 12 社の潜在的な企業がマイクロソフトの「AI アライアンス」に参加します。

Microsoft は、さらに 12 社のテクノロジー企業が AI for Good プログラムに参加すると発表しました。

AI がドラゴンボールのキャラクターを生身で再現

AI がドラゴンボールのキャラクターを生身で再現

ユーザー @mortecouille92 は、グラフィック デザイン ツール Midjourney の力を活用し、悟空、ベジータ、ブルマ、カメ長老などの有名なドラゴンボールのキャラクターのユニークでリアルなバージョンを作成しました。

ChatGPT の応答を改善する 7 つのテクニック

ChatGPT の応答を改善する 7 つのテクニック

いくつかの条件を追加したり、いくつかのシナリオを設定したりするだけで、ChatGPT はクエリに対してより適切な回答を与えることができます。ChatGPT 応答の品質を向上させる方法をいくつか見てみましょう。

人工知能が描く美しい絵画に驚嘆

人工知能が描く美しい絵画に驚嘆

Midjourney は、本物のアーティストに劣らない非常に美しい絵画のため、最近オンライン コミュニティとアーティスト界で「フィーバー」を引き起こしている人工知能システムです。

この AI モデルは、武漢肺炎の発生に関するニュースを発見した最初の「専門家」の 1 人でした。

この AI モデルは、武漢肺炎の発生に関するニュースを発見した最初の「専門家」の 1 人でした。

中国が発生を発表してから数日後、世界の航空券販売データにアクセスできるブルードットのAIシステムは、武漢コロナウイルスのバンコク、ソウル、台北、東京への感染拡大を正確に予測し続けた。