持っている人なら誰でも ChatGPT で数分間遊んでみると、ホワイトカラーの仕事に関してこのようなテクノロジーが生み出す懸念と希望が理解できるでしょう。 チャットボットは、コーディングの問題から法的な難問、歴史的な質問まで、あらゆる種類のクエリに驚くほどの雄弁さで答えることができます。
これらのモデルが誤った情報を「幻覚」に陥らせる問題を企業が克服できると仮定すると、企業が顧客サポート担当者、法律事務員、または歴史の家庭教師に介入する可能性があることは想像に難くありません。 このような期待は、ChatGPT がいくつかの点で合格点を得ることができると主張する研究やメディアの報道によって煽られています。 法的、 医学、 と 仕事 試験。 みたいな会社と マイクロソフト、 スラック、 と セールスフォース ChatGPT や類似の AI ツールを製品に追加することで、オフィス ライフにすぐに影響を与える可能性があります。
今週オンラインに投稿されたいくつかの研究論文は、ChatGPT や同様のチャットボットが非常に破壊的である可能性があることを示唆していますが、必ずしも期待どおりであるとは限りません.
まず、 エドワード・フェルトン とプリンストン大学の同僚は ChatGPT の影響を受ける可能性が最も高い職業を特定する. 彼らは、 AI 職業被ばく、職業上のタスクをさまざまな AI プログラムの機能にマッピングし、強力な言語スキルを持つチャットボットに対して最も脆弱な仕事を確認します。
結果は、テレマーケティング担当者、歴史教師、社会学者などの一部の職業の人々にとって大きな変化が先にある可能性があることを示唆していますが、煉瓦工、ダンサー、織物労働者などのより物理的な職業の人々は、ChatGPT が現れることを心配する必要はないかもしれません。彼らの職場。
しかし、2 つ目の研究では、言語中心の仕事に就いている人々が、必ずしも代わりになる運命にあるとは限らないことが示唆されています。 MIT の大学院生である Shakked Noy と Whitney Zhang は、 ChatGPT をオフィス ワーカーの手に渡すとどうなるか. 彼らは、444 人の大学教育を受けた専門家に、プレス リリースや短いレポートの作成、電子メールの草稿作成、分析計画の作成など、一連の簡単なオフィス タスクを完了するように依頼しました。 それらの半分は ChatGPT を使用するようになりました。
この調査では、チャットボットにアクセスできる人は割り当てられたタスクを 17 分で完了できたのに対し、ボットを使用していない人の平均は 27 分であり、仕事の質が大幅に向上したことがわかりました。 ChatGPT を使用した参加者は、仕事に対する満足度も高いと報告しています。 この調査では、専門家に参加者の作業の質を判断するよう依頼することが含まれていましたが、ChatGPT の出力に忍び込む可能性のある「幻覚」エラーの種類を探すことが含まれているかどうかについては言及されていません。
これらの 2 つの研究は、物事がどのように展開するかを示唆していますが、ChatGPT が私たちをどこに導いているかを把握するための初期の (そしてまだ査読されていない) 試みに過ぎません. 新しいテクノロジーが仕事に与える影響を予測することは非常に難しいことで有名であり、ChatGPT に関連する経済研究が急速に行われています。
繊維労働者が ChatGPT の影響を受けない可能性があると特定されたのも皮肉なことです。なぜなら、AI が労働に与える影響を心配する人々は、ラダイトの烙印を押されることがあるからです。 英国の織物労働者が織機を壊した19世紀の運動 自動化に抗議する。
実際、ラッダイトはいくつかの説明によれば、 自動化自体の存在よりも、誰が自動化を制御するかについて心配している、自動化を使用して労働者に公正な支払いを回避した雇用主に怒りを向けています。
労働者が率先してChatGPTを使い始め、生産性を高めるのは良い考えかもしれません. 上司には言わないでね、いい? (冗談です。WIRED は生成 AI の使用に関する新しいポリシーを発表しました。これは、ストーリーの一部である場合を除き、AI によって生成されたテキストを公開しないというものです).
自分の作業を自動化する最初の試みは、失敗に終わりました。 ChatGPT に今週のニュースレターへのリンクをいくつか見つけてもらうように依頼したところ、2021 年の一連の記事が提案されました。これは、AI モデルが少し前に Web から取得したデータでトレーニングされたことを思い出すと納得できます 🙄. ニュースレターのライターは、まだ生産性が大幅に向上していない可能性があります。