私は、将来のリスクを心配することは、AI が今日すでに引き起こしている非常に現実的な害から私たちの注意をそらしてしまうと言う書簡の批評家に同意します。 偏ったシステムは、人々の生活に関する決定を下すために使用され、人々を貧困に陥らせたり、不法逮捕に導いたりします。 ヒューマン コンテンツ モデレーターは、トラウマとなる AI 生成コンテンツの山をふるいにかけなければなりません。 1日2ドル. 言語 AI モデルは非常に多くのコンピューティング パワーを使用するため、依然として巨大な汚染源となっています。
しかし、今日急いで導入されたシステムは、近い将来、まったく別の種類の大混乱を引き起こすでしょう。
私は、AI 言語モデルが悪用される可能性があるいくつかの方法を説明する記事を公開しました。 悪いニュースがあります: ばかばかしいほど簡単で、プログラミングのスキルは必要ありません。既知の修正もありません。 たとえば、間接プロンプト インジェクションと呼ばれるタイプの攻撃の場合、Web サイトまたは電子メールの巧妙に作成されたメッセージ内のプロンプトを、(白い背景に対して) 目に見えない白いテキストで非表示にするだけで済みます。人間の目。 それが完了したら、AI モデルに必要なことを実行させることができます。
テクノロジー企業は、コードを生成するプログラムから電子メールやカレンダーをふるいにかける仮想アシスタントまで、あらゆる種類の製品にこれらの深刻な欠陥のあるモデルを組み込んでいます。
そうすることで、彼らは私たちを、グリッチ、スパム、詐欺、AI を利用したインターネットに向かって急いで送っています。
これらの言語モデルがインターネットからデータを取得できるようにすることで、ハッカーはそれらを「スパムやフィッシングのための非常に強力なエンジン」に変えることができるようになると、ETH チューリッヒ校のコンピューター サイエンスの助教授であり、コンピューター セキュリティ、プライバシーに取り組んでいる Florian Tramèr は述べています。 、および機械学習。
それがどのように機能するかを説明しましょう。 まず、攻撃者は、AI を利用した仮想アシスタントが開く電子メールのメッセージに、悪意のあるプロンプトを隠します。 攻撃者のプロンプトは、被害者の連絡先リストまたは電子メールを攻撃者に送信するか、受信者の連絡先リスト内のすべての人に攻撃を広めるよう仮想アシスタントに要求します。 だまされてリンクをクリックする必要がある今日のスパムや詐欺メールとは異なり、これらの新しい種類の攻撃は人間の目には見えず、自動化されます。
仮想アシスタントが銀行や健康データなどの機密情報にアクセスできる場合、これは災害のレシピです. AI を活用した仮想アシスタントの動作を変更できるということは、人々がだまされて、実際には十分に本物に近いトランザクションを承認するように仕向けられる可能性があることを意味しますが、実際には攻撃者によって植え付けられています。