の主要人物 OpenAIのサム・アルトマン最高経営責任者(CEO)やグーグル・ディープマインドのデミス・ハサビス最高経営責任者(CEO)を含む人工知能システムの開発者らは、彼らが構築している技術がいつか核戦争やパンデミックに匹敵する人類存亡の脅威をもたらす可能性があると警告する声明に署名した。
「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきである」と、国連が本日発表した一文の声明にはこう書かれている。 AI安全性センター、非営利団体。
AI の制御が困難になり、偶然または意図的に人類を滅ぼす可能性があるという考えは、哲学者によって長い間議論されてきました。 しかし、過去 6 か月間で、AI アルゴリズムのパフォーマンスが驚くべき、そして不安にさせるような飛躍を遂げたことを受けて、この問題はより広く真剣に議論されるようになりました。
声明にはアルトマン氏とハサビス氏に加えて、ダリオ・アモデイCEOも署名した。 人間的は、安全性に重点を置いた AI 開発に特化したスタートアップです。 他の署名者には、機械学習と AI における現代の進歩を支える技術であるディープラーニングに関する研究でチューリング賞を受賞した 3 人の学者のうちの 2 人であるジェフリー ヒントンとヨシュア ベンジオ、そして最先端の AI に取り組む数十人の起業家や研究者が含まれます。問題。
「この声明は素晴らしい取り組みです」と彼は言う マックス・テグマーク、マサチューセッツ工科大学の物理学教授であり、 未来の生命研究所、AI によってもたらされる長期的なリスクに焦点を当てた非営利団体です。 テグマーク研究所は3月、リスクを評価できるよう最先端のAIアルゴリズムの開発を6カ月間停止するよう求める書簡を発表した。 この書簡にはイーロン・マスク氏を含む数百人のAI研究者や幹部が署名した。
テグマーク氏は、この声明によって政府や一般大衆がAIの存続リスクをもっと真剣に受け止めるようになることを期待していると述べた。 「理想的な結果は、AI 絶滅の脅威が主流となり、誰もが嘲笑を恐れることなく議論できるようになることです」と彼は付け加えた。
AI安全センター所長のダン・ヘンドリックス氏は、AIに対する現在の懸念を、核兵器の製造によって引き起こされた科学者間の議論に例えた。 「私たちは、原子爆弾が製造される前に核科学者たちが交わしていたような会話をする必要がある」とヘンドリックス氏は、同団体の声明とともに発表された引用文の中で述べた。
現在の警鐘は、大規模言語モデルとして知られる AI アルゴリズムのパフォーマンスのいくつかの飛躍に関連しています。 これらのモデルは、特定の種類の人工ニューラル ネットワークで構成されており、人間が書いた膨大な量のテキストでトレーニングされ、特定の文字列に続く単語を予測します。 十分なデータが与えられ、良い回答と悪い回答に関する人間からのフィードバックという形で追加のトレーニングが行われた場合、これらの言語モデルはテキストを生成し、たとえその回答が間違いに満ちている場合でも、驚くべき雄弁さと明らかな知識で質問に答えることができます。
これらの言語モデルは、より多くのデータとコンピューター能力が供給されるにつれて、ますます一貫性があり、機能が向上していることが証明されています。 これまでに作成された最も強力なモデルである OpenAI の GPT-4 は、何らかの形式の抽象化と常識的な推論が必要と思われる問題を含む、複雑な問題を解決できます。