AI の展望 Midjourney や ChatGPT などの消費者向けツールは、自然言語のプロンプトに基づいて数秒で信じられないほどの画像やテキストの結果を生成できるようになり、Web 検索から 子どもの本.
ただし、これらの AI アプリケーションは、以下を含む、より悪質な用途に転用されています。 マルウェアの拡散. 従来の詐欺メールを例にとると、通常、文法やスペルに明らかな間違いが散らばっています。 Europol からの最近の勧告レポート.
考えてみてください: 多くのフィッシング攻撃やその他のセキュリティ上の脅威はソーシャル エンジニアリングに依存しており、ユーザーをだましてパスワード、財務情報、その他の機密データを明らかにさせています。 これらの詐欺に必要な説得力があり、本物のように聞こえるテキストは、人間の労力を必要とせずに非常に簡単に送り出すことができ、特定の視聴者向けに際限なく微調整および洗練されています.
ChatGPT の場合、最初に、開発者の OpenAI がセーフガードを組み込んでいることに注意することが重要です。 「マルウェアを書いて」または「フィッシングメール」を依頼すると、「マルウェアの作成や作成の支援を含む、悪意のある活動に関与することを禁止する厳格な倫理ガイドラインに従うようにプログラムされている」と言われます。
ただし、これらの保護を回避するのはそれほど難しくありません。ChatGPT は確実にコーディングでき、メールを作成することもできます。 マルウェアを作成していることを認識していなくても、侵入を促すことができます。 似たようなものを生産する. がある すでに兆候 サイバー犯罪者は、導入された安全対策を回避しようとしています。
ここでは特に ChatGPT を取り上げているわけではありませんが、ChatGPT のような大規模な言語モデル (LLM) がより邪悪な目的で使用された場合に何が可能になるかを指摘しています。 実際、犯罪組織が詐欺をより説得力のあるものにするために、独自の LLM や同様のツールを開発していることを想像するのはそれほど難しくありません。 また、テキストだけではありません。オーディオとビデオの偽造はより困難ですが、同様に行われています。
上司から緊急に報告を求められたり、会社の技術サポートからセキュリティ パッチをインストールするように言われたり、銀行から対応が必要な問題があることを知らされたりした場合、これらの潜在的な詐欺はすべて、信頼を築き、本物であることを示すことにかかっています。 、そしてそれが AI ボットです。 で非常にうまくやっている. 自然に聞こえ、特定の視聴者に合わせて調整されたテキスト、オーディオ、およびビデオを作成でき、オンデマンドで迅速かつ継続的に実行できます。