この話はもともと、AI に関する週刊ニュースレターである The Algorithm に掲載されたものです。 このような記事を最初に受信トレイに入れるには、ここでサインアップ.
今週のビッグ ニュースは、Google のバイス プレジデント兼エンジニアリング フェローであり、現代の AI の中心にある最も重要な技術のいくつかを開発したディープ ラーニングのパイオニアであるジェフリー ヒントンが、10 年務めた会社を退職することです。
しかしその前に、AI における同意について話す必要があります。
先週、OpenAI はそれが「シークレット」モードの起動ユーザーの会話履歴を保存したり、AI 言語モデル ChatGPT を改善するために使用したりしません。 この新機能により、ユーザーはチャット履歴とトレーニングをオフにして、データをエクスポートできるようになります。 これは、テクノロジー企業によるデータの使用方法をより詳細に制御できるようにするための歓迎すべき動きです。
人々がオプトアウトできるようにするという OpenAI の決定は、データの使用方法と収集方法についてヨーロッパのデータ保護規制当局からの圧力が強まっているためです。OpenAI は、昨日 4 月 30 日まで、EU の厳格なデータ保護体制である GDPR を遵守するよう求めるイタリアの要求に応じなければなりませんでした。 イタリア復元されたアクセスOpenAIがユーザーのオプトアウトフォームと、ChatGPTで使用されている個人データに異議を唱える機能を導入した後、国のChatGPTに。 規制当局は、OpenAI が人々の個人データを同意なしに盗み出し、その使用方法を制御できていないと主張していました。
私の同僚であるウィル・ダグラス・ヘブンとの先週のインタビューで、OpenAI の最高技術責任者であるミラ・ムラティは、シークレット モードは、会社が数か月間「反復的に段階を踏んでいる」ものであり、ChatGPT ユーザーから要求されたものであると述べました。 OpenAIは言ったロイターその新しいプライバシー機能は、EU の GDPR 調査とは関係ありませんでした。
「ユーザーのデータがどのように使用されるかについては、ユーザーを運転席に座らせたいと考えています」と Murati 氏は言います。 OpenAI は、誤用や乱用を監視するためにユーザー データを 30 日間保存すると述べています。
しかし、OpenAI の言うこととは裏腹に、デジタル権利グループ Access Now のシニア ポリシー アナリストである Daniel Leufer 氏は、GDPR と EU の圧力が OpenAI に法律の遵守を強いる役割を果たしたと考えています。 その過程で、世界中のすべての人にとって製品がより良いものになりました。
「優れたデータ保護慣行により、製品が安全になります [and] より良い [and] ユーザーにデータに対する本当のエージェンシーを与えます。」彼は言ったTwitter上で。
多くの人が、GDPR を技術革新を阻害する穴として利用しています。 しかし Leufer が指摘するように、法律は、企業がそうしなければならない場合に、より良い方法で物事を行う方法を示しています。 また、ますます自動化が進む世界で人々がデジタルの存在をある程度制御できるようにする、現在私たちが持っている唯一のツールでもあります.
ユーザーにより多くの制御を与える AI の他の実験は、そのような機能に対する明確な需要があることを示しています。
昨年末以来、人々や企業は、画像生成 AI モデル Stable Diffusion のトレーニングに使用されているオープンソースの LAION データ セットに画像を含めることをオプトアウトできるようになりました。
12 月以来、約 5,000 人の人々と、Art Station や Shutterstock などのいくつかの大規模なオンライン アートおよびイメージ プラットフォームが、データ セットから 8,000 万を超えるイメージを削除するように要求してきました。オプトアウト機能。 これは、それらの画像が Stable Diffusion の次のバージョンで使用されないことを意味します。
ドライハースト氏は、自分の仕事が AI モデルのトレーニングに使用されたかどうかを知る権利があり、そもそもシステムの一部になりたいかどうかを言うことができるべきだと考えています。
「私たちの最終的な目標は、AI の同意層を構築することです。AI は存在しないからです」と彼は言います。
より深い学習
Geoffrey Hinton が、自分が開発に携わった技術を今恐れている理由を語ります
Geoffrey Hinton はディープ ラーニングのパイオニアであり、現代の人工知能の心臓部である最も重要な技術の開発に貢献しましたが、Google で 10 年間勤務した後、現在 AI に関して抱いている新たな懸念に専念するために辞任します。 MIT Technology Review の上級 AI 編集者である Will Douglas Heaven は、Hinton が Google を辞めるという衝撃的な発表のわずか 4 日前に、北ロンドンの自宅で Hinton に会いました。
GPT-4 のような新しい大規模言語モデルの機能に驚いたヒントンは、彼が導入したテクノロジに伴う深刻なリスクについて、一般の人々の意識を高めたいと考えています。
そして、ああ、彼には言いたいことがたくさんありました。 「これらのものが私たちよりもインテリジェントになるかどうかについて、私は突然意見を変えました。 彼らは今それに非常に近づいていると思いますし、将来的には私たちよりもはるかに賢くなるでしょう」と彼はウィルに語った. 「どうすればそれを乗り切ることができますか?」 ウィル・ダグラス・ヘブンの詳細については、こちらをご覧ください。
さらに深い学習
質問をするチャットボットは、意味のないことを見つけるのに役立ちます
ChatGPT、Bing、Bard などの AI チャットボットは、多くの場合、虚偽を事実として提示し、見つけにくい一貫性のないロジックを持っています。 この問題を回避する 1 つの方法は、AI が情報を提示する方法を変更することであることが、新しい研究で示唆されています。
仮想ソクラテス:MIT とコロンビア大学の研究者チームは、チャットボットに情報をステートメントとして提示するのではなく、ユーザーに質問させることで、AI のロジックが適切でない場合に人々が気付くのに役立つことを発見しました。 質問をするシステムはまた、人々が AI で下された決定をより担当していると感じさせ、研究者は、AI が生成する情報に過度に依存するリスクを減らすことができると述べています。 ここで私からもっと読んでください。
ビットとバイト
Palantir は軍隊が言語モデルを使用して戦争を戦うことを望んでいます
物議を醸しているテクノロジー企業は、既存のオープンソース AI 言語モデルを使用して、ユーザーがドローンを制御し、攻撃を計画できるようにする新しいプラットフォームを立ち上げました。 これはひどい考えです。 AI 言語モデルはしばしばでっち上げであり、途方もなく簡単にハッキングできます。 これらのテクノロジーを最もリスクの高いセクターの 1 つに展開することは、起こるのを待っている災害です。 (バイス)
Hugging Face は、ChatGPT のオープンソースの代替案を立ち上げました
ハグチャットChatGPT と同じように機能しますが、無料で使用でき、人々が独自の製品を構築することができます。 人気のある AI モデルのオープンソース バージョンが次々と登場しています。StableLM.
Microsoft の Bing チャットボットはどのようにして誕生し、次にどこへ向かうのか
Bing の誕生の舞台裏をご覧ください。 回答を生成するために、Bing が常に OpenAI の GPT-4 言語モデルを使用するわけではなく、実行コストが低い Microsoft 独自のモデルを使用するのは興味深いことでした。 (有線)
AI Drake が Google に不可能な法的罠を仕掛けた
私のソーシャル メディア フィードには、Drake などの人気アーティストのスタイルをコピーした AI 生成の曲があふれています。 しかし、この記事が指摘しているように、これは、AI が生成した音楽、インターネットからのデータのスクレイピング、および何がフェアユースを構成するかをめぐる厄介な著作権争いの始まりにすぎません。 (ザ・バージ)