ChatGPTタスクフォースはヨーロッパによって設立されます
欧州の国家プライバシー監視団体を統合する団体は木曜日、ChatGPT専用の対策委員会を設置したと発表した。
「百の言葉を聞いても見る価値はない」、このことわざは、将来ディープフェイクによる「脅威」に直面したサイバーセキュリティに関してはもはや正確ではなくなり、何も信じられなくなるかもしれません。自分の目で!
概念を思い出すと、ディープフェイクは人工知能を使用するプログラムであり、ユーザーがビデオ内の誰かの顔を別の人の顔と交換できるようにします。実際、これはユーザーが名誉毀損や違法な利益を目的として、有名人の顔をビデオに挿入して偽のコンテンツを作成するのに役立ちます。これが、ディープフェイクがエンターテインメント企業、有名人、そして何よりもサイバーセキュリティにとって最大の脅威となっている理由でもあります。
サイバーセキュリティ企業マカフィーの最高技術責任者スティーブ・グロブマン氏と世界有数のデータサイエンティストのセレステ・フラリック氏はセキュリティカンファレンスの基調講演で警告を発し、RSAは最近、ディープフェイク技術が人類が考えているよりもはるかに洗練されていると明らかにした。そしてそれは将来において本当に大きな脅威となるのです。それを証明するために、この二人の科学者はビデオを見せ、セレステ・フラリックの言葉がスティーブ・グロブマンの顔に似た画像から発せられたことを示しましたが、グロブマンはまだそれについて言及していませんでした。このように、私たちはディープフェイクに簡単にだまされてしまうことがわかり、この時代、私たちが見たり聞いたりすることが必ずしも正確であるとは限りません。
「私は皆さんのパブリックコメントを利用して機械学習モデルを作成、トレーニングし、私の言葉が他人の口から出てくるディープフェイクビデオを開発することができました。これは、AI と機械学習が不正な目的に使用される無数の方法の 1 つにすぎません。AI がソーシャル エンジニアリングやフィッシングなどの攻撃者に利用され、敵が自動ターゲットを作成できるようになるという最悪のシナリオを思い出します」と Celeste Fralick 氏は述べています。
実際、ディープフェイクと AI は、ハッカーがより高い成功率でパーソナライズされたターゲットを絞ったオンライン フィッシング攻撃を作成するのを支援する強力なアシスタントとなっており、自動化された攻撃の規模で実行することができます。
「ほとんどの人は、AI と機械学習が実際にどれほど危険であるかを理解していないと言えます。また、善に利用されるか悪に利用されるかの境界線は非常に薄いです。私のチームが関わっている技術分野には、敵対的機械学習と呼ばれるものがあります。そこで私たちは、悪意のある者が機械学習階層に侵入したり汚染したりする方法について研究を行っています」とセレステ・フラリック氏は付け加えた。
3月4日月曜日のインタビューで、スティーブ・グロブマン氏は、自分とセレステ・フラリック氏は完璧にしようと努力することなく、わずか1週間でディープフェイク動画を作成できたと語った。これは、資格のあるディープフェイク攻撃者がターゲットを特定したら、AI に基づいて高度な捏造ビデオを作成することはまったく難しいことではないことを示しています。
本物の人物と AI が生成したモデルの間で欺瞞を行う最も一般的な方法の 1 つは、ほぼ本物に近い写真を撮影し、細部のごく一部を一般の人が見ることができるように変更することです。多くの場合、認識できなくなります。 。フラリック氏は、ほんの少しの操作のおかげで、ペンギンの写真をAIがフライパンとして解釈できる例を挙げた。
Celeste Fralick がここで疑問に思っているのは、画像分類器を混乱させるために使用されているのと同じ手法が、ネットワーク モデルを混乱させるために依然として使用できるかどうか、特にここでは False Positive (偽の検証エラー) について疑問に思っていることです。
誤検知にはいくつかの種類があります。たとえば、ずさんなスパイウェア対策プログラムによっては、実際にはまったく問題がないにもかかわらず、ユーザーが自分のコンピュータがスパイウェアに攻撃されていると誤解させます。「誤検知」という用語は、正規のスパイウェア対策アプリケーションが誤って脅威として認識される場合にも使用されます。この問題について詳しく話したスティーブ・グロブマン教授は、誤検知は壊滅的な結果をもたらす可能性があると述べた。この典型的な例は、冷戦の緊張が最高潮に達していた 1983 年 9 月 26 日の恐ろしい 23 分間でした。米国やソ連を含むいくつかの国際警報センターは、世界に衝撃を与えた落雷について高空警報を発令したが、結局のところ、それは単なる間違いであり、本当に間違っていた。具体的には、ソ連側は米国の核ミサイル5発が発射され自国領土に向かっているのを発見し、ただちに全軍を臨戦態勢に置くよう指示を出した。しかし、サイレンが鳴り響き、画面が点滅する中、スタニスラフ・ペトロフ中佐は最終的に、この事件は単なるコンピューターシステムの故障であると判断した。具体的には、ペトロフ氏は、米国はわずか5発のミサイルを発射しただけでは世界戦争を始めることはできないと主張した。中佐は訓練された指示を無視し、その直感で状況を正確に判断し、核戦争の阻止に貢献した。
「事件の根本原因は、上空の雲に太陽光がまれに配置されてロケットのような効果を生み出していたことが判明した。このことから、コンピュータ システムの混乱がもたらす結果がいかに危険であり、核戦争を引き起こす可能性さえあることがわかります。もしソ連が即時にミサイル発射を行っていたらどうなっていただろうか?そして、問題解決における AI の真の力を認識することは重要ですが、オンラインにはびこる悪者の手に渡れば、諸刃の剣にもなります」とスティーブ・グロブマン氏は語った。
さらに、グロブマン氏は、テクノロジーは本質的に単なる無生物のツールであり、良い目的にも悪い目的にも適用できると常々信じているとも述べた。たとえば、犯罪が発生した場所と犯人が逮捕された場所に関するデータを含む犯罪マップは、警察が犯罪を解決するために使用することも、犯罪者自身が警察の追跡を回避するために使用することもできます。別の例では、第二次世界大戦中に飛行機が民間人を爆撃するために使用され、200万人の死傷者を出しました。飛行機を発明したことを後悔しているかとの質問に対し、オーヴィル・ライトは1948年、飛行機は火を使うものだと考えており、火災が発生すれば甚大な被害をもたらす可能性があるが、依然として何千もの重要な目的に使用されていると述べた。AIも同様です。
「オーヴィルの洞察は、テクノロジーは本質的に道徳的に無関係であることを示しています。実際には、それがどのように使用されるかによって有益か有害であるとしか言えません。そして、これが私たちの業界であるサイバーセキュリティが常に戦っていることです。」
欧州の国家プライバシー監視団体を統合する団体は木曜日、ChatGPT専用の対策委員会を設置したと発表した。
デンマークとアメリカの科学者は共同で、人間の死亡時刻を高精度で予測できる life2vec と呼ばれる AI システムを開発しました。
Audioflow と呼ばれる AI アルゴリズムは、排尿音を聞いて、異常な排尿の流れとそれに対応する患者の健康上の問題を効果的かつ首尾よく特定できます。
日本では高齢化と人口減少により、特にサービス部門で大量の若年労働者が不足しています。
u/LegalBeagle1966 という名前の Reddit ユーザーは、このプラットフォームで魅惑的な自撮り写真、さらにはヌード写真を頻繁に共有する映画スターのような女の子、クローディアに夢中になっている多くのユーザーの 1 人です。
Microsoft は、さらに 12 社のテクノロジー企業が AI for Good プログラムに参加すると発表しました。
ユーザー @mortecouille92 は、グラフィック デザイン ツール Midjourney の力を活用し、悟空、ベジータ、ブルマ、カメ長老などの有名なドラゴンボールのキャラクターのユニークでリアルなバージョンを作成しました。
いくつかの条件を追加したり、いくつかのシナリオを設定したりするだけで、ChatGPT はクエリに対してより適切な回答を与えることができます。ChatGPT 応答の品質を向上させる方法をいくつか見てみましょう。
Midjourney は、本物のアーティストに劣らない非常に美しい絵画のため、最近オンライン コミュニティとアーティスト界で「フィーバー」を引き起こしている人工知能システムです。
中国が発生を発表してから数日後、世界の航空券販売データにアクセスできるブルードットのAIシステムは、武漢コロナウイルスのバンコク、ソウル、台北、東京への感染拡大を正確に予測し続けた。