
――生成AIの能力は、どこまで上がったと感じますか?
私は今まで何千という記事を書いてきましたが、実際に生成AIを使って書いた記事をそのまま発表したことはありません。それは、倫理的にはいかなるジャーナリストも仕事の成果としてAIを使った記事を発表すべきではないと思っているからです。
ただ、データを集める実験としてテストはやったことがあります。その際、プロンプトでは「こういうトピックで、Tim Bajarinのスタイルで書きなさい」と指示しました。そうすると、あたかも私が書いたような記事ができます。
――生成AIはTimさんの思考を反映して、自律的に動いて書いてくれるレベルまで進化しているイメージですか?
そこへ向かっているものの、まだ到達していないと思っています。今の段階では、AIは本質的に「考える」という意味での知性は持っていません。情報を集めてきて、私たちが与えるプロンプトやコンテキストに合わせて提示しているだけです。
AIが私の発言や考えを想像する手助けをするためには、私がネット上で書いたり発言したりしたことすべてを推論する必要があります。AIが私の言うことを「考えたり推論したり」するための情報を得るためには、私の個人的な書き方や考え方が必要なのです。私が言えるのは、「私が書いたり言ったりしたことの一部しか拾っていないようだ」ということです。
AIが本当に私のような思考や推論を加えるためのデータを持つためには、私の個人的な内容を深いレベルで推論する必要があります。私は長年の執筆活動で2,000本以上の記事を書き、何千回と記者にコメントをしてきました。だから技術的に言えば、AIは推論し検索するために私の情報をたくさん持っています。
ただほとんどの人はそうではありません。だから、彼らの公開データから推論することで、AIが実際に彼らのために考え、推論できる可能性は低いのです。
しかし、今後出てくる次世代のチップはもっとパワーが上がっていくので生成AIの能力も今以上に引き出されていく。いずれは、生成AIも「考える」ようになるのではないかと思っています。
――それは何年くらいで可能だと思いますか?
AIの能力が格段に上がるテクノロジーが一つあって、それが「Quantum computing=(量子コンピューティング)」です。これによりブレークスルーが起こって、思考が飛躍的に伸びると考えています。そのため、今後5年で私が考える手助けをしてくれるほどの能力をもつAIの実現も可能になるかもしれません。
ですが、これはAI自体が「考える」こととは明確に違います。これははっきりと区別しておく必要がありますね。
――AIが行う「考える」手助けとはどういうイメージでしょうか? 例えば、AIがアドバイスやオルタナティブな提案をしてくれることでしょうか?
要は、AIに対して「Tim Bajarinはこの問題についてどう捉えるだろうか? どんな道理や理由づけをするだろうか?」というプロンプトを出したとき、私の考えに近いことを答えてくれるというイメージです。
AIは直接的な問いを発しないと、思うように反応してくれません。そのため、AIを使うスキルである「プロンプトエンジニアリング」が大事になってきます。
これから2〜3年のうちに、企業や個人、あらゆる階層のユーザーが、プロンプトエンジニアリングの教育を受けないといけなくなる。そうしないと、AIがうまく使えなくなってくるのではないでしょうか。
