シリコン バレーでは、高度なテクノロジーによってホワイト カラーやクリエイティブな役割、つまり弁護士、ジャーナリスト、アーティスト、ソフトウェア エンジニア — に 労働の仕事. このアイデアは十分な支持を得ており、 数十 2020 年以降、米国の都市で開始された所得保証プログラムの割合。
しかし、OpenAI の CEO であり、最も知名度の高い人物の 1 人である Sam Altman でさえ、 支持者 の UBI は、それが完全な解決策であるとは考えていません。 彼が言ったように 座って下さい 今年初め、「それは解決策のほんの一部だと思います。 素晴らしいと思います。 と思います [advanced artificial intelligence] 経済への参加がますます増えているため、富と資源を私たちが持っているよりもはるかに多く分配する必要があり、それは時間の経過とともに重要になります. しかし、それで問題が解決するとは思えません。 それが人々に意味を与えるとは思いませんし、人々が新しいものを創造したり、やろうとすることを完全にやめるという意味ではないと思います。 したがって、私はそれを可能にする技術だと考えていますが、社会のための計画ではありません。」
問われているのは、その場合の社会の計画がどのようなものになるかということであり、仮想現実の分野の創設者であるコンピューター科学者のジャロン・ラニエは今週の ニューヨーカー その「データの尊厳」は、そうでない場合でも1つの解決策になる可能性があります の 答え。
基本的な前提は次のとおりです。現在、ほとんどの場合、無料のサービスと引き換えにデータを無料で提供しています。 Lanier は、これをやめること、つまり私たちが頼りにしている「デジタルのもの」 — 一部はソーシャル ネットワークですが、OpenAI の GPT-4 のような AI モデルも増えています — が代わりに「人間とつながる」ことがこれまで以上に重要になると主張します。そもそも摂取するために彼らに多くを与える人。
そのアイデアは、人々が「大きなモデルを通じてフィルタリングされ、再結合されたとしても、作成したものに対して報酬を得る」ことです。
この概念はまったく新しいものではなく、Lanier は 2018 年の Harvard Business Review の記事でデータの尊厳の概念を初めて紹介しました。より良いデジタル社会の青写真」 当時、共著者で経済学者のグレン・ワイルと共に書いたように、[R]ハイテク業界の異端者は、人工知能(AI)と自動化による不完全雇用の波が来ることを示唆している」と「人々がますます無価値で経済的主体を欠いたものとして扱われる未来」を示唆している.
しかし、普遍的なベーシックインカムの提唱者の「レトリック」は「2つの結果しか残されていない」ものであり、それらはかなり極端である、とラニエとワイルは観察した。 「技術の進歩にもかかわらず大規模な貧困が発生するか、国民に普遍的なベーシックインカムを提供するために、社会福祉基金を通じて中央の国家管理下で多くの富を取得する必要があります。」
しかし、どちらも「力を過度に集中させ、データ作成者の価値を損なうか無視する」と 2 人は書いています。
私の心を解きほぐす
もちろん、世界に存在するすべてのものへの数え切れないほどの貢献に対して適切な量のクレジットを人々に割り当てることは、小さな課題ではありません (AI 監査のスタートアップがこの問題に取り組むことを約束していることが想像できるとしても)。 Lanier は、データの尊厳を研究する研究者でさえ、AI モデルが吸収したすべてのものを解きほぐす方法や、どの程度詳細な説明を試みるべきかについて意見が一致しないことを認めています。
しかし彼は、おそらく楽観的には、それは徐々に可能になると考えています。 「このシステムは、大規模なモデルにアンビエント コントリビューションを行った何十億人もの人々を必ずしも考慮していません。たとえば、モデルのシミュレートされた能力に文法を追加した人々などです。 [It] 特定の状況で出現する少数の特別な貢献者にのみ注意を向ける可能性があります。」 しかし、時間が経つにつれて、「組合、ギルド、専門家グループなどの中間権利団体が役割を果たし始めるにつれて、より多くの人々が含まれる可能性があります.」
もちろん、より差し迫った課題は、現在の AI ツールのブラック ボックスの性質です、と Lanier は言います。 彼らの中で何が起こっているのか、そしてその理由をもっとうまく伝える必要があります。」
OpenAI は、過去数年間に少なくともトレーニング データの一部を公開していましたが、その後、着物を完全に閉鎖しました。 実際、Greg Brockman は先月の TechCrunch で、現在までで最も強力な大規模言語モデルである GPT-4 について、そのトレーニング データは「認可され、作成され、公開されているさまざまなデータ ソースから得られたものであり、公開されている個人を含む可能性がある」と語っています。情報」と述べたが、彼はより具体的な情報を提供することを拒否した.
OpenAIとして 述べました GPT-4 のリリース時には、それよりも多くのことを明らかにすることで、衣装にはあまりにも多くの欠点があります. 「競合状況とGPT-4のような大規模モデルの安全性への影響の両方を考慮して、このレポートには、アーキテクチャ(モデルサイズを含む)、ハードウェア、トレーニングコンピューティング、データセット構築、トレーニング方法などに関する詳細は含まれていません.」
現在、すべての大規模な言語モデルに同じことが当てはまります。 たとえば、Google の Bard チャットボットは LaMDA 言語モデルに基づいており、Infiniset と呼ばれるインターネット コンテンツに基づくデータセットでトレーニングされています。 しかし 他はほとんど知られていない Google の研究チーム以外のことについて 書きました 1 年前、つまり、過去のある時期に、29 億 7000 万のドキュメントと 11 億 2000 万の対話と 133 億 9000 万の発話が組み込まれました。
規制当局は何をすべきか悩んでいます。 特にその技術が野火のように広まっている OpenAI は、ChatGPT の使用をブロックしたイタリア当局を含む、ますます多くの国の十字路に置かれています。 フランス、ドイツ、アイルランド、カナダのデータ規制当局も、データの収集と使用方法を調査しています。
しかし、以前は Google の AI 倫理の共同責任者であった AI 研究者のマーガレット ミッチェル氏は、アウトレットに次のように語っています。 技術レビュー、これらの企業が個人のデータを特定してモデルから削除することは、現時点ではほとんど不可能かもしれません。
アウトレットによると、次のように説明されています。 [according to Mitchell]. 代わりに、AI 業界では、Web を無差別にスクレイピングして AI モデルのデータ セットを構築し、重複や無関係なデータ ポイントを削除し、不要なものをフィルタリングし、タイプミスを修正する作業をアウトソーシングするのが一般的です。」
これらのテクノロジー企業が、自社のモデルの現在の内容について実際に限られた理解しか持っていない可能性があることは、ニューヨーカーの記事でアルトマンを「同僚と友人」と呼んでいるラニエの「データの尊厳」の提案に対する明らかな挑戦です。
それが不可能になるかどうかは、時間が経てばわかることです。
確かに、人々に自分の仕事に対する所有権を与えたいと思うことにはメリットがあり、この問題に対する不満は、これらの新しいツールで世界の多くが再形成されるにつれて確実に大きくなる可能性があります.
OpenAI やその他の企業がインターネット全体をスクレイピングしてそのアルゴリズムにフィードする権利を持っていたかどうかは、すでに 多数 と幅広い 著作権侵害訴訟 彼らに対して。
しかし、いわゆるデータの尊厳は、長期にわたって人間の正気を維持するのに大いに役立つ可能性もある、とラニエは魅力的なニューヨーカーの記事で示唆しています。
彼が見ているように、普遍的なベーシックインカムは「ブラックボックスの人工知能のアイデアを維持するために、すべての人を危険にさらすことになります。」 一方、「現在の AI モデルのブラック ボックスの性質」を終わらせることで、人々の貢献の説明が容易になり、貢献を続ける可能性がはるかに高くなります。
重要なのは、「新しい従属クラスではなく、新しいクリエイティブ クラスを確立する」ことにも役立つ可能性があることです。 そして、あなたはどちらの一員になりたいですか?