AWARE オリジナル

2023年02月13日

検索の新しいパラダイム:ChatGPTの運用コストは?

ソン・リュンス    avatar

ソン・リュンス

検索の新しいパラダイム:ChatGPTの運用コストは? 썸네일 이미지

「新しいBingはGoogleを外に引きずり出し、踊らせることになるでしょう。そして、そうさせたのは私たちだということを世界に知ってもらいたいのです」

- – サティア・ナデラ、マイクロソフトCEO

Googleが最近発表したBardをはじめとするAI技術は、確かにGoogleが踊っているように見せるでしょう。Googleは世界で最も優れたAI研究チームを擁していることは間違いありませんが、これまではそのようなAI技術力を商業化・実用化するのに適した文化を持っていませんでした。これには、AIを活用したサービスを運営するためにかかるコストも問題となります。

LLM(Large Language Model、大規模言語モデル)というAIの一種は、ChatGPTの登場により1億人以上の人々に知られるようになりました。LLMは人々に非常に大きな価値をもたらしますが、バラ色の未来だけが待っているわけではありません。ここで最も大きな問題となるのはコストです。

LLMを学習させるためにかかるコストは幾何級数的に増加してきました。現代のAIは、複雑なMLP(Multi-layer Perception)モデルを毎年数十倍ずつ拡張する方法で発展してきたからです。

検索にChatGPT形式のチャット型クライアントを適用した新しいマイクロソフトのBingは非常に革新的に見えますが、革新はタダでは手に入りません。前述したように、LLMを学習させるには莫大なコストがかかります。しかし、LLMを使用するには、学習させるよりもはるかに大きなコストがかかるのです。

もしChatGPTのようなLLMを検索に活用する場合、Googleの検索売上の約20%がAIモデルの運用だけに使われると予測されています。

Post image

Googleの2022年の検索売上が1625億ドル、日本円で約22兆円を超えることを考慮すると、Googleが対話型検索エンジンを維持するためにかかるコストは1年に4兆円に迫るということです。

Post image

半導体専門リサーチ会社Semianalysisによると、現在Googleのクエリ(検索)あたりの売上推定値は0.0161ドルで、コストは0.0106ドルです。Operating Margin(営業利益率)が34%に達していることになります。IT企業らしく非常に高い水準です。

ところが、もしChatGPTのようなLLMを活用した対話型エージェントを検索エンジンに統合すれば、追加でかかるコストがクエリあたり0.0036ドル高くなります。

Semianalysisが分析したコストは、単にLLMを運用するためにかかるハードウェアコスト(Computing Cost)を加算したものなので、実際にはこれよりも高くなる可能性があります。最も重要な人件費が含まれていないためです。

保守的な推定値でも年間360億ドルに達する追加コストが発生し、Google検索ビジネスのOPM(営業利益率)は現在の34%から12%へと3分の1に激減することになります。

「これからは、検索の[粗利益率]は永遠に下がり続けるでしょう」 

マイクロソフトのCEOは、これからの検索ビジネスの[売上総利益率]は永遠に下がり続けるだろうと述べています。

面白いと思いませんか?新しいプロダクトを作り出し、検索市場で新たに競争しようとする企業のCEOが、先頭に立って検索市場のマージン率を破壊すると発言しているのが。

それにもかかわらず、マイクロソフトがこのように攻撃的に検索市場にアプローチするのには理由があります。Googleの莫大な検索売上(年約22兆円)をもう一度思い出してみましょう。

マイクロソフトは、検索市場の90%を占有するGoogleのマーケットシェアをわずか1%奪うだけでも、年間2200億円に達する追加売上を期待できます。マージン率が今より下がっても、収益創出の機会が多い市場だという論理です。

それでもなお、マイクロソフトのBingがChatGPTモデルの搭載によって検索市場で有意義なシェアを獲得できると期待するのは無理があります。その理由は原価競争力にあります。

マイクロソフトが使用するChatGPT形式のLLMは、運用コストがかなり高いのです。そのため、新しくなったBingはまだ限られた数のユーザーにのみ提供されています。

Googleの対応

「Bardは世界の幅広い知識と、大規模言語モデル(LLM)の能力、知能、そして創造性を融合させます。最新かつ質の高い回答を提供するため、ウェブ上の情報を活用します。私たちは当初、LaMDA(GoogleのLLMモデル)の軽量モデルバージョンでこれをリリースします。このはるかに小さなモデルは、必要な計算能力が大幅に少ないため、より多くのユーザーに提供することができ、より多くのフィードバックを得ることが可能になります。」

- – Google

Googleは、検索市場を支配する巨人らしく、収益性を考慮した小型のLLMモデルを一般ユーザーに展開しています。現時点では、ChatGPTのような対話型エージェントが検索市場の支配構造を変えるほどの影響力を持つという証拠はなく、収益モデルもサブスクリプション以外には存在しないためです。

Microsoftが直面している問題は、まさに拡張に伴うコストの増加です。BingはGoogleほど選好される検索エンジンではないため、広告主からの支持も劣ります。現在獲得できる広告収入がGoogleほど大きくないため、コストの増加は検索部門の収益性に対し、Google以上に直接的な打撃となります。つまり、市場シェア拡大のために、採算度外視のビジネスを強いられる状況にあるのです。

GoogleはAppleとの年間200億ドルに及ぶ契約により、iOSのSafariブラウザにおけるデフォルトの検索エンジンとして採用されています。また、世界で最も高いシェアを誇るChromeブラウザ(デフォルト検索エンジンはGoogle)を通じて、多くの人々にとって「デフォルト」の地位を確立しています。

これまでMicrosoftは、Bing検索サービスによってGoogleの検索シェアを奪うべくEdgeブラウザの普及に注力してきました。今回はChatGPTの技術を取り入れ、検索体験そのものを向上させることに集中していますが、多くの人々にとっては、まだ対話型検索エンジンが必要とされていない可能性もあります。


コメント0

ニュースレター

オリジナルコンテンツ、ニュースレター、特別イベントに関する最新情報をいち早くお届けします。

続きを読む