これまでのところ、ニュース編集室は、最も話題の新しい AI ツールである ChatGPT を仕事に統合するために、2 つのまったく異なるアプローチを追求してきました。 テック ニュース サイト CNET は、秘密裏に ChatGPT を使用して記事全体を書き始めましたが、実験は炎上しました。 最終的に、盗作の告発の中で訂正を発行しなければなりませんでした。 一方、Buzzfeed は、より慎重で慎重なアプローチをとっています。 そのリーダーは使用したい クイズの答えを生成するChatGPT、トピックと質問を作成するジャーナリストによって導かれます。
これらの話は、多くの業界が現在直面している根本的な問題に要約できます: AI システムにどの程度の制御を与えるべきか? CNETはあまりにも多くのことを与えすぎて、恥ずかしい混乱に終わったのに対し、ChatGPTを生産性ツールとして使用するというBuzzfeedのより慎重な(そして透明な)アプローチは一般的に好評であり、株価の急上昇につながった.
しかし、ここにジャーナリズムの汚い秘密があります。 ジャーナリズム AI と呼ばれるプログラムを運営するロンドン スクール オブ エコノミクスの教授であるチャーリー ベケットは、驚くほど多くの情報が自動化される可能性があると述べています。 ジャーナリストは、通信社からのテキストを日常的に再利用し、競合他社から記事や情報源のアイデアを盗みます。 ニュースルームが、これらのプロセスをより効率的にするために新しいテクノロジーがどのように役立つかを探求することは、まったく理にかなっています。
「ジャーナリズムとは、オリジナリティとクリエイティビティが開花する花壇であるという考えは、全くのゴミです」とベケットは言います。 (痛い!)
必ずしも悪いことではない ジャーナリズムの退屈で反復的な部分の一部を AI にアウトソーシングできれば。 実際、ジャーナリストを解放して、より創造的で重要な仕事に取り組めるようになる可能性があります。
1つの良い 例 ChatGPT を使用してニュースワイヤーのテキストを Axios で使用される「スマート ブレビティ」形式に再パッケージ化する方法を見てきました。 チャットボットはそれを十分にこなしているようで、そのフォーマットを押し付ける責任を負っているジャーナリストなら誰でも、もっと楽しいことをする時間があることを喜んでいるだろうと想像できます.
これは、ニュース編集室が AI をうまく活用する方法の一例にすぎません。 AI は、ジャーナリストが長いテキストを要約したり、データ セットをくまなく調べたり、見出しのアイデアを思いついたりするのにも役立ちます。 このニュースレターを書く過程で、ワープロのオートコンプリートや音声インタビューの書き起こしなど、いくつかの AI ツールを自分で使用しました。
しかし、ニュース編集室での AI の使用には大きな懸念事項がいくつかあります。 主なものはプライバシーです。特に、情報源の身元を保護することが不可欠な機密性の高い記事についてはそうです。 これは、MIT Technology Review のジャーナリストが音声文字起こしサービスで遭遇した問題であり、悲しいことに、これを回避する唯一の方法は、機密性の高いインタビューを手動で文字起こしすることです。