大規模な言語モデルは依然としてコンテキストと格闘しており、人間のモデレータほどには投稿や画像のニュアンスを解釈できない可能性が高いことを意味します。 異なる文化にまたがる拡張性と特異性にも疑問が生じます。 「特定のタイプのニッチ向けに 1 つのモデルを導入していますか? 国ごとにやってるの? コミュニティごとにやっていますか?…すべてに当てはまる問題ではありません」とディレスタ氏は言います。
新しいテクノロジーのための新しいツール
生成型 AI が最終的にオンライン情報領域にとって有害となるか役立つかは、テクノロジー企業がコンテンツが AI によって生成されたものであるかどうかを判断するための、広く採用されている優れたツールを開発できるかどうかに大きく依存する可能性があります。
これはかなりの技術的な課題であり、ディレスタ氏によれば、合成メディアの検出がおそらく最優先事項になるだろうという。 これには次のようなメソッドが含まれます 電子透かしこれには、添付されたコンテンツが人工知能によって作成されたものであることを示す、一種の永続的なマークとして機能するコードが埋め込まれています。 AI によって生成または操作された投稿を検出するための自動ツールは、透かしとは異なり、AI によって生成されたコンテンツの作成者が積極的にそのようなラベルを付ける必要がないため、魅力的です。 とはいえ、これを試みる現在のツールは、機械で作成されたコンテンツを識別するのがあまり得意ではありません。
提案している企業もある 暗号署名 これは数学を使用して、コンテンツの生成方法などの情報を安全に記録しますが、これは透かしなどの自主的な開示技術に依存します。
欧州連合の AI 法の最新版は今週提案されたばかりで、生成 AI を使用する企業に対し、コンテンツが実際に機械生成された場合にユーザーに通知することを義務付けています。 AI によって生成されたコンテンツに関する透明性への需要が高まるにつれ、今後数か月間でこの種の新しいツールについてさらに多くのことを耳にすることになるでしょう。
他に何を読んでいるのか
- EUは、 公共の場での顔認証が禁止される寸前、予測ポリシングアルゴリズムと同様に。 この禁止が可決されれば、ここ数カ月米国で勢いを失っている顔認証に反対する運動にとって大きな成果となるだろう。
- 火曜日、OpenAIの最高経営責任者(CEO)であるサム・アルトマン氏はこう語った。 米国議会で証言する予定 前夜の超党派夕食会後のAI監視に関する公聴会の一環として。 私は米国の議員が人工知能にどれだけ精通しているか、そして会議から何か具体的な成果が出るかどうかを楽しみにしているが、私の期待はそれほど高いものではない。
- 先週末、中国警察は ChatGPTを使用した男を逮捕 フェイクニュースを広めるため。 中国は生成AIの使用に関する一連の厳格な法律の一環として、2月にChatGPTを禁止した。 これが初めての逮捕者となったようだ。
今週学んだこと
誤った情報は社会にとって大きな問題ですが、それを支持する人は想像よりも少ないようです。 オックスフォード・インターネット研究所の研究者らは、20万件以上のTelegram投稿を調査し、誤った情報が頻繁に出現するにもかかわらず、ほとんどのユーザーはそれを共有し続けないようであることを発見した。
彼らの中で 紙、彼らは、「一般に受け入れられている通念に反して、誤った情報の対象者は一般的なものではなく、小規模で活発なユーザーのコミュニティである」と結論付けています。 電報は比較的規制されていませんが、研究ではおそらく、悪い情報を抑制する有機的な需要主導の効果がある程度存在することを示唆しています。