
――今井さんは、2024年1月に書籍『生成AIで世界はこう変わる』を上梓されました。その後、生成AIを取り巻く状況はめまぐるしく変化しています。生成AIの最新モデルが各社出そろってきた現在、どのような見方をされていますか?
正直に申し上げると、「ChatGPT-4」の時点で一般ユーザーがありがたいと感じるレベルではほぼ限界だと思っています。おそらく今の生成 AI の大規模学習で進化させる方向では、これ以上やってもあまり意味がなくて。少なくとも一般ユーザーにとっては「何がありがたいんだ?」というモデルになってしまうでしょう。
例えば、2024年9月にOpenAIから「博士号取得者並みの能力を持っている」と言われている「o1(オーワン)」がリリースされました。「o1」のマルチモーダル機能(※)は限定的で、とにかく推論能力が高くて考えることが得意というモデルです。
※テキストや音声、画像、動画など、2種類以上の異なるデータを収集・統合して処理するシステム
ですから、一般の人が日常的に出くわす問題に「o1」を利用するのはやりすぎだと個人的には思っています。また、大規模学習のためのデータが枯渇しはじめていて、各社「GPT-4o」が元々到達していたラインに頭をぶつけている状態。今(インタビュー当時、2024 年 11 月 20 日)はそんなに大差ない気がしています。
注(今井さんからの補足情報):
2025 年 1 月現在、状況が変わってきました。中国の AI 企業 DeepSeek が公開したモデルが OpenAI の「o1」を超えるラインに到達しているかもしれないと言われており、それはデータ以外の部分でのアプローチによって成し遂げられています(このアプローチは今井さんの専門の強化学習です)。取材時点では今井さん自身も予想しきれていなかったと言うように、AI 研究者ですら予想できない変化がわずかな間に起きてしまうという例ではないでしょうか。
一方、「Meta」が作っている「LLaMA(ラマ)」は進化中。オープンモデルが「GPT-4o」程度のレベルになったときに、LLaMAのようなオープンモデルを一気に普及させるようなアプリを作るレースが来るのではないかと期待しています。
――ハルシネーション(AIが事実に基づかない情報を生成すること)など、生成AIには現在さまざまな課題があります。より精度を高めるには何が必要ですか?
まずハルシネーションについて。今の言語モデルの仕組みのままだと、かなり質の高いデータを取り続けなければいけません。しかし、これで解決できるかどうかは疑問ですね。ある程度は精査されているとはいえ、Web上の公開データだけではインプットが足りない現状があります。
それ以外の方法となると、データモデルの作り方を変えることが必要です。どうやってWeb上にないデータ、その先にあるデータに踏み込んでいくか。結局のところ、それが大事になってくると思います。
