AI は急速に発展しており、AI がもたらす可能性のある危険性は十分に明らかであるため、OpenAI の指導部は、世界には原子力を管理するのと同様の、しかも迅速な国際規制機関が必要であると考えています。 しかし、速すぎません。
同社のブログへの投稿でOpenAIの創設者であるサム・アルトマン氏、社長のグレッグ・ブロックマン氏、主任研究員のイリヤ・サツケヴァー氏は、人工知能の技術革新のペースが非常に速いため、既存の当局がこの技術を適切に抑制することは期待できないと説明している。
ここにはある種の自責の念があるが、OpenAI の爆発的に人気のある ChatGPT 会話エージェントに最も顕著に表れているこの技術が、貴重な資産であると同時に独特の脅威であることは、公平な観察者であれば誰でも明らかです。
この投稿は通常、詳細やコミットメントについてはかなり軽く書かれていますが、それでも AI が自らを管理するつもりはないことを認めています。
安全性を維持し、これらのシステムと社会のスムーズな統合を支援できる方法でスーパーインテリジェンスの開発が確実に行われるようにするには、主要な開発努力の間である程度の調整が必要です。
最終的には次のようなものが必要になる可能性があります。 [International Atomic Energy Agency] スーパーインテリジェンスの取り組みに対して。 特定の能力 (またはコンピューティングなどのリソース) のしきい値を超える取り組みは、システムの検査、監査の要求、安全基準への準拠のテスト、展開の程度やセキュリティのレベルの制限などを行うことができる国際機関の規制を受ける必要があります。
の IAEA もちろん、他の同様の組織と同様に、パンチを求めることもできるが、原子力問題に関する国際協力を行う国連の公式機関である。 このモデルに基づいて構築された AI 統治機関は、介入して悪役のスイッチを入れることはできないかもしれませんが、少なくとも出発点である国際標準と協定を確立して追跡することはできます。
OpenAIの投稿では、AI研究専用の計算能力とエネルギー使用量の追跡は、報告および追跡できる、そしておそらく報告および追跡されるべきである比較的数少ない客観的尺度の1つであると指摘している。 AI をあれやこれやに使用すべき、またはすべきではないと言うのは難しいかもしれませんが、AI 専用のリソースは他の業界と同様に監視および監査されるべきであると言うのは有益かもしれません。
一流の AI 研究者で評論家のティムニット・ゲブルー氏も、ちょうど今日、ある記事で同様のことを述べました。 ガーディアン紙のインタビュー: 「何か違うことをするという外部からの圧力がない限り、企業はただ自主規制するだけではありません。 私たちには規制が必要であり、単なる利益動機よりも優れたものが必要です。」
OpenAIは、その名に恥じないことを期待していた多くの人々を驚かせながら、明らかに後者を受け入れているが、少なくとも市場リーダーとして、上院議員が再選演説のために整列する公聴会を超えて、ガバナンス面での実際の行動も求めている。疑問符で終わります。
この提案は「何かをすべきかもしれない」という意味ではありますが、少なくとも業界内での会話のきっかけにはなり、世界最大の単一 AI ブランドおよびプロバイダーがその何かを行うことを支持していることを示しています。 国民の監視が切実に必要だが、「そのような仕組みをどのように設計すればよいのか、まだ分からない」。
そして、同社のリーダーらはブレーキを踏むことを支持していると言っているが、「社会を改善する」という大きな可能性(利益は言うまでもなく)を手放したくないため、またその計画はまだない。なぜなら、悪意のある者が真っ向からアクセルを踏み込むリスクがあるからです。