GPT-5が開発されない理由
Posted by local knowledge on April 21st, 2023
私たちの生活は、うまくいってる時ほど言葉が少なく、問題を抱えている時ほど言葉を多用しています(この成れの果てが国会討論ですね)。相手を論理的にねじ伏せようとするとき、あの手この手で説明して理解させようとするときなど、自分が持っているさほど豊富ではない語彙の限りを尽くし、言葉の雨を相手に降り注ぐことになりますが、多くの場合これは「間尺に合わない」結果しかもたらしてはくれません。例えば「退職しようとする優秀な社員を引き止めるべく説得する」というようなシーンでは多くの言葉を駆使することになるはずですが、仮にそれが功を奏してそのままその会社で仕事を続けることになったとしても、それが長続きすることはありません。早晩、必ず辞めます(笑)。
結局、説得は時間と言葉を無駄に使うだけなので、相手の意思を尊重するのがベストです(ただし別れ方の技術は存在します。例えば事務所の外を出て散歩すると、別れた後も何かあったらまた一緒に仕事しよう、という約束を簡単に取り付け円満に別れることができます。散歩は視線が合わないので口論になりにくいのです)。「反省」と「後悔」が脳の報酬系に良い影響を与えないことはよく知られていると思いますが、「説得」も同様なのですね。経営者は「来るもの拒まず、去るもの追わず」という孟子の言葉が普遍的な真理であることを実感しているはずです。企画書も、言葉(文字)の多いものは大抵使い物になりません。優れた企画書が文字数が少なく説明する時にたくさんの言葉を必要としない一方、企画そのものに力がない場合、多くの言い訳(excuse)が羅列されることになるので、結果的に文字数が増え、何が言いたいのかさっぱりわからない(伝わらない)ということになります。
物事がうまくいってる時はノンバーバルコミュニケーション(non-verbal communication)が躍動しています。ガッツポーズやVサイン、がっちりと握手、素敵な笑顔、あるいは体臭や香水の匂いなども好感触に寄与します。ここには大変有名な「メラビアンの法則」なる俗説がありまして、メラビアン(Albert Mehrabian)は1971年の著書『Silent messages』で、人が実空間でコミュニケーションしている時、言葉(の内容)そのものよりも、声のトーンやノンバーバルな視覚要素(e.g.身振り手振り)の方が、共感を獲得する上で圧倒的に大きなウエイト(全体の90%以上)を占めていることを紹介しています。私自身、これはコロナ禍突入以前の話ですが、電車の中で楽しそうに“会話”しているオバサン3人組が「なんであんなに盛り上がっているのだろう」と気になり、しばらく聞き耳を立ててみたことがあります。その結果判明したのは「誰も相手の話を聞いていない。自分の言いたいことだけを言っている。ただし身振り手振りや相槌を打つことなどで会話の調子は妙に合っている」ということでした。メッセージの内容を交換することではなく、調子を合わせる(コミュニケーション学ではアラインメント(alignment)という言葉を使うはずです)ことが目的になっているのです。そしてそのほうが“お互い理解が深まった”と感じる。凡庸なメッセージのやりとりに過ぎない掛け合い漫才も、調子や間(ま)の取り方次第でいくらでも面白くなる、という話と同じですね。
大規模言語モデル(LLM:Large Language Model)の最大の弱点はこのノンバーバルな価値を全く再現できない、ということです。“言語”モデルなんだからあたりまえだろ、と言われそうですが、このLLM の最終目的がもしも「相互理解や共感」であれば、むしろ危険、使うべきではない、ということになるでしょう。一方、さほど創造性を必要としないフォーマット重視の文書(請求書、取材依頼書、嘆願書、判例集、旅程表、ニュース原稿など)の作成やサポート業務などではとてつもない威力を発揮すると思います(ただしそのときは必要以上に“大規模”であることにさほど価値はないでしょうね)。
LLMのもう一つの大きな弱点は「仮説検証サイクル」が存在しないことです。単純な機械学習(machine learning)はこのサイクルがはっきりしていて、それを何度も繰り返すうちに精度が上がってくる(メーラーのスパムフィルターが使い込むほど優秀になるのはこれが理由です)わけですが、ニューラルネットワークというアルゴリズムの最大の弱点は、どこが「検証」に値するのかが判然としない、という点にあります。仮説の巨大化を繰り返すところにニューラルネットワークの面白さと弱みが同居しているわけですが、実際に巨大化しているのは内部に食わせる言語の数以上に、そのパラメータ数にあります。GPT-3.5は3550億、GPT-4に至っては1兆近く、と言われていて、GPTの進化はアルゴリズムの成長ではなく、単なるパラメータ数の肥大化ということになります。こうなってくると切磋琢磨が必要な開発現場は、GPUやクラウド、ネットワークなどのハードウエアにシフトしてくるわけで、これが、OpenAIのCEOによる「巨大AIモデルを用いる時代は終った(GPT-5は開発しない)」という発表 につながることになります。ただしこれはLLMの敗北を意味するわけではありません。過剰な期待がピークアウトして、最適な利用方法が発見され、落ち着くべきところに落ち着いた、というところでしょう。
アルゴリズム自体の進化、という意味では日本人は「量子コンピュータ」に着目しておくべきでしょう。何しろ現在量子コンピュータで利用可能なアルゴリズムは「組み合わせ最適化」くらいしかありません。ノイマン型コンピュータで駆動するアルゴリズムで作れるのが「プレハブの一戸建て」だとしたら、量子コンピュータは宮大工のような職人芸でコツコツと培ったアルゴリズムで「立派な神社仏閣」を作るというようなものになるのではないかと予想しています。
ローカルナレッジ 発行人:竹田茂
最新コラムはニュースレターでお送りしています。お申し込みは下記から
ニューズレター登録はこちら