同社のLaMDA会話型人工知能が知覚力があると公に主張したGoogleエンジニアのBlakeLemoineは、解雇されたとのことです。 ビッグテクノロジーニュースレター、Lemoineに話しかけた。 6月、Googleは、Lemoineが懸念事項について政府のメンバーに連絡し、LaMDAを代表する弁護士を雇った後、機密保持契約に違反したとして有給の休職を取りました。
に電子メールで送信されたステートメント ザ・ヴァージ グーグルのスポークスマンによる金曜日に、ブライアン・ガブリエルは発砲を確認するために現れ、「ブレイクが元気になりますように」と言った。 同社はまた、「LaMDAは11の異なるレビューを経ており、責任ある開発に向けた作業を詳述した研究論文を今年初めに発表しました。」と述べています。 グーグルは、レモインの主張を「広範囲に」検討し、それらが「まったく根拠のない」ものであると判断したと主張している。
これはと一致します 多数 AIの専門家 そして倫理学者たちは、彼の主張は今日の技術を考えると多かれ少なかれ不可能であると言っています。 Lemoineは、LaMDAのチャットボットとの会話により、LaMDAが単なるプログラムではなく、独自の考えや感情を持っていると信じるようになったと主張しています。
彼は、Googleの研究者は、実験を実行する前にLaMDAの同意を求める必要があると主張し(Lemoine自身が、AIがヘイトスピーチを生成したかどうかをテストするように割り当てられました)、証拠として、それらの会話のチャンクをMediumアカウントに公開しました。
Computerphileが持っているYouTubeチャンネル きちんとアクセスできる9分間の説明者 LaMDAがどのように機能するか、そして実際に感覚を持たずにLemoineを納得させる応答をどのように生成できるかについて。
これはGoogleの声明の全文であり、会社が彼の主張を適切に調査しなかったというLemoineの告発にも対処しています。
私たちが共有するように AIの原則、私たちはAIの開発を非常に真剣に受け止め、責任あるイノベーションに引き続き取り組んでいます。 LaMDAは11の異なるレビューを経ており、 研究論文 今年の初めに、責任ある開発に入る作業について詳しく説明します。 ブレイクが行ったように、従業員が私たちの仕事について懸念を共有する場合、私たちはそれらを広範囲にレビューします。 LaMDAは完全に根拠のないものであるとのブレイクの主張を発見し、何ヶ月もの間彼と一緒にそれを明確にするために働きました。 これらの議論は、責任を持ってイノベーションを起こすのに役立つオープンカルチャーの一部でした。 したがって、このトピックへの長い関与にもかかわらず、ブレイクが製品情報を保護する必要性を含む明確な雇用およびデータセキュリティポリシーに永続的に違反することを選択したことは残念です。 私たちは言語モデルの注意深い開発を続けていきます、そして私たちはブレイクがうまくいくことを願っています。