本日、サンフランシスコで開催されたブルームバーグカンファレンスに、2か月のワールドツアーを終えたばかりのOpenAIのサム・アルトマン氏や、Stability AIの創設者エマド・モスタク氏など、AI界の著名人が数名姿を現した。 それでも、最も説得力のある会話の 1 つは、午後遅くに行われた AI 倫理に関するパネルディスカッションで行われました。
安全なメッセージング アプリ Signal の社長、メレディス ウィテカー氏が登場します。 Credo AI 共同創設者兼 CEO のナヴリナ・シン氏。 分散型 AI 研究所の研究ディレクター、アレックス ハンナ氏の 3 人は、聴衆に向けて統一したメッセージを伝えました。それは、「AI の将来に関連する約束や脅威にあまり気を取られないでください」というものでした。 それは魔法ではないし、完全に自動化されているわけでもなく、ウィテカー氏によれば、この瞬間、ほとんどのアメリカ人が理解できるものを超えて侵入的である。
たとえば、ハンナ氏は、今日の大規模な言語モデルのトレーニングに貢献している世界中の多くの人々を指摘し、生成 AI に関する息を呑むような報道の一部でこれらの人々が軽視されているのは、一つにはその仕事が地味であることと、一つには理由があると示唆しました。それはAIに関する現在の物語には適合しません。
ハンナはこう言いました。 報告 。 。 .これをある程度機能させるために舞台裏でアノテーションを行っている労働者の軍隊がいるということ – Amazon Mechanical Turk で働く労働者、Amazon Mechanical Turk と働く人々 [the training data company Sama — in Venezuela, Kenya, the U.S., actually all over the world . . .They are actually doing the labeling, whereas Sam [Altman] そしてエマド [Mostaque] そして、これらのことは魔法だと言うつもりの他のすべての人々は、そうではありません。 人間がいるよ。 。 。 「これらのものは自律的であるように見える必要があり、表面はそうであるが、その下には非常に多くの人間の労働が存在する。」
ウィテカー氏(以前はGoogleに勤務し、ニューヨーク大学のAI Now Instituteを共同設立し、連邦取引委員会の顧問を務めた人物)が別に行ったコメントはさらに鋭いものだった(そして、それに対する聴衆の熱狂的な反応を踏まえると、インパクトも大きかった)。 彼女のメッセージは、ChatGPT や Bard のようなチャットボットに世界が魅了されているように見えるが、特に高度な AI ピラミッドの頂点に立つ人々に権力が集中するにつれて、それらを支えるテクノロジーは危険である、というものでした。
ウィテカー氏は次のように述べています。「おそらくこの聴衆の中には AI のユーザーもいると思いますが、人口の大多数は 主題 AIの。 。 .これは個人の選択の問題ではありません。 AI が私たちの生活に介入して、リソースや機会へのアクセスを形作る決定を下す方法のほとんどは、おそらく私たちが知らない方法で舞台裏で行われています。」
ウィテカー氏は、銀行に行って融資を求める人の例を挙げました。 その人は否定され、「そこにシステムがあることを知らない」可能性があります。 [the] おそらく、スクレイピングされたソーシャル メディアに基づいて、私が信用に足らないと判断した Microsoft API を利用して戻ってきたのでしょう。 決して知るつもりはない [because] 私にはそれを知る仕組みがありません。」 これを変える方法はあるが、そのために現在の権力階層を克服するのはほぼ不可能だと彼女は続けた。 「私は15年、20年ほどテーブルについています。 私は その間 テーブルで。 力のない状態でテーブルにつくことは何の意味もありません。」
確かに、OpenAI や Google の現社員や元社員など、AI 製品の発売に対する自社のアプローチに時々警戒心を抱いていると伝えられる、多くの無力な人々がウィテカー氏の意見に同意するかもしれない。
実際、ブルームバーグのモデレーターであるサラ・フライアー氏は、懸念を抱いている従業員が職を失うことを恐れずにどのように声を上げることができるのかパネルに質問したが、そのスタートアップ企業であるシン氏は次のように答えた。「その多くはリーダーと会社次第だと思います」正直に言うと、価値観。 。 。 。 私たちは過去 1 年間、責任ある AI チームが解雇される例を次々と見てきました。」
その一方で、何が起こっているのかについて日常の人々が理解していないことはたくさんあるとホイテカー氏は示唆し、AIを「監視技術」と呼んだ。 彼女は群衆に向かって詳しく説明し、AIは「これらの膨大なデータセットの形での監視を必要とし、ますます多くのデータと、ますます親密な収集の必要性が固定化および拡大します。」と指摘しました。 すべてを解決するには、これらの企業が蓄積するより多くのデータとより多くの知識が必要です。 しかし、これらのシステムは監視装置としても導入されています。 そして、AI システムからの出力が何らかの確率的な統計的推測を通じて生成されたものであるかどうか、またはそれが私の位置を三角測量している携帯電話の基地局からのデータであるかどうかは問題ではないことを認識することが非常に重要だと思います。 そのデータは私に関するデータになります。 正確である必要はありません。 それは私が誰であるか、私がどこにいるかを反映する必要はありません。 しかし、それは私の人生に対して重要な力を持っており、その力はこれらの企業の手に渡っています。」
実際、「AI の懸念とプライバシーの懸念のベン図は円である」と彼女は付け加えました。
ウィテカー氏は明らかに、ある程度まで自分自身の意図を持っている。 イベントで彼女自身が語ったように、人々はこの権力の集中にますます慣れなくなっているため、「Signal やその他の正当なプライバシー保護テクノロジーが存続する世界がある」のです。
しかしまた、もし十分な反発がなければ、近いうちに――AIの進歩が加速するにつれて、社会への影響も加速する――我々は「誇大宣伝に満ちたAIへの道」を進み続けることになるだろう、と彼女は語った。諜報活動を装って帰化され、我々は要点まで監視されている [of having] 私たちの個人的および集団的な生活に対する主体性は、非常にわずかです。」
この「懸念は実存的なものであり、よく与えられる AI の枠組みよりもはるかに大きいものです。」
私たちはこの議論が魅力的であると感じました。 全体を見たい場合は、ブルームバーグがそれを投稿しました ここ。
上: シグナル社長メレディス・ウィテカー