グーグルが敗北? ビッグテックが開いた「パンドラの箱」
BIG TECH IN TROUBLE
PHOTO ILLUSTRATION BY SLATE. PHOTOS BY GETTY IMAGES PLUSーSLATE
<「チャットGPT」以来、注目を集める大規模言語モデル(LLM)。そんな中、メタがLLMのソースコードを公開。オープンソース化がAIにもたらす民主化、進歩、そして大混乱とは?>
2022年11月に対話型AI(人工知能)の「チャットGPT」が発表されて以来、その基礎を成す大規模言語モデル(LLM)に大きな注目が集まっている。
LLMとは簡単に言うと、膨大なテキストデータを学習して質問に対する答えを生成するよう訓練されたAIアルゴリズムのこと。チャットGPTの場合、「GPT」というLLMが基礎になっている。
さっそくマイクロソフトやグーグルがGPTを利用した検索アプリを発表するなど、がぜんGPTに注目が集まっているが、実はフェイスブックの運営会社メタも今年2月、独自のLLMである「LLaMA」(ラマ)を発表している。
ここで注目すべきは、メタがそのソースコードも公開したことだ。
すぐにLLaMAのオープンソース・コミュニティー(プログラムの情報交換や改良を図る開発者や愛好者のグループ)が組織され、あれこれコードをいじり始めた。
その結果、LLaMAはコンパクトになり、ノートパソコンでも実行できるようになり、処理スピードも向上した。
チャットGPTなどと比べると、この件はあまり大きな話題になっていないが、テクノロジー業界に与える影響という点では、はるかに大きな意味を持つ。
この開発プロセスは、大手テクノロジー企業(いわゆるビッグテック)のパワーを奪い、より多くのイノベーションをもたらす一方で、規制当局には難しい課題を突き付けるだろう。
LLMの開発を支配してきたビッグテックは、この「飛び入り参加歓迎」的な開発プロセスが危険な結果につながると警告する。
これに対しオープンソース・コミュニティーの参加者は、強力なテクノロジーが一握りの企業に支配されているよりもいいと反論する。
オープンAIやグーグルが構築したLLMは、数百億バイトにもなる膨大なデータを読み込み、数万個の強力な専用プロセッサで処理し、数十億のパラメータを持つ。
そんなモデルを構築するには、グーグルやマイクロソフトやメタのレベルの資金力と処理能力が必要だ。