0
会員になると、いいね!でマイページに保存できます。
さまざまなタスクをこなす万能型ジェネレーティブAIツール「ChatGPT」を担うOpenAI開発者向けのイベント「OpenAI DevDay」が11月7日に開催され、GPTや開発者向けインタフェース(API)の大きなアップデートが発表されました。本記事では、特に経営戦略の観点から統一的に、今回のアップデートにどういう意味があるのかを説明したいと思います。またアップデート内容の主要部分をそれぞれ、経営戦略を支える手段という観点で述べて行きます。
OpenAI DevDayで発表された内容
OpenAI DevDayの主な内容をピックアップすると以下の6つです。
- GPT4「turbo」発表: トークン数12万8000, 入力コスト3分の1, 予測コスト2分の1
- GPTs: ChatGPTのプラグインが作りやすくなった
- GPT Store: ChatGPTのプラグインをアプリストアで公開できるようになる
- APIがマルチモーダル対応: 画像や音声のAIを組み込みやすくなった
- Assistants API登場: 開発者に掛かる工数が格段に削減されることに
- その他: 著作権侵害保証や音声合成の品質向上など
いずれも大注目の大きなアップデートが目白押しですが、これでも一部です(すべての情報はOpenAIの
公式ページに記載されています)。
DevDay(開発者向けのイベント)なので当然、いずれもChatGPTのAIを組み込んだアプリケーションを開発する開発者向けの機能強化となっています。
OpenAIの独走を印象づける「GPT4 turbo」
DevDayにおいて最初に発表されたのはやはりGPT4の強化バージョンでした。「GPT4 turbo」と呼称されたその新バージョンはまさにOpenAIにとってフラグシップ(旗艦)ともいえる製品です。文脈をカバーする能力も、コストパフォーマンスも大きく改良されました。
具体的には、GPT4が3.2万トークンだったのが4倍の12.8万トークンになりました。トークン数の上限が増えると当然ながら賢くなります。GPTが「考えるときの前提となる情報」が増えるからです。たとえばGPTに与えるプロンプトの中に、自社ビジネスに関する情報を入れておくことで、より自社の都合に特化した動作が可能になりますから、トークン数は対話AIの能力を決める最重要スペックです。
正確に言うと、発話(途中で切れている対話を続けて完成させるという意味で、Completion:コンプリーション機能と呼ばれる)の機能実行の1回において、その直前の対話テキストとそれに対する応答としてGPTが発話するテキストの合計トークン数の上限のことを指しています。筆者が執筆した
GPTの説明記事では、入力テキスト側のみをトークンと呼んでいましたが、GPTの商用プロダクトとしての仕様上は入力と出力両方の合計でカウントするようになっています。
その入力テキスト側のトークン数に対するコストがGPT4と比べて3分の1になり、出力テキスト(GPTの発話)側のトークン数に対するコストが2分の1となりました。さらに、実際にGPT4 turboを動作させると、動作スピードもGPT4と比べて格段に速くなりました。筆者個人の印象では、爆速といった感じです。
またさらに、(本記事で後述しますが)外部システムのAPIを呼ぶ際の柔軟性や、システム連携で非常によく使われるデータ形式であるJSONを扱う精度も大きく向上しました。
最近の情報にも詳しくなりました。2023年4月までの情報をキャッチアップできているとのことで、今後も随時最新の情報をキャッチアップしつづけるとのことです。
GPT4 turboの発表に合わせて、旧来モデルのGPT3.5 turboも料金ダウンが発表されました。
最近ではChatGPTの爆発的普及を受けて、フリーでオープンソースのLLM(大規模言語モデル: GPTもLLMの一種です)も次々と公開され、GPTの性能に近づけるどうか? という試みが非常に多方面で展開されています。しかし今回のGPT4 turboやそれに関連する機能強化・旧来モデルのコストダウンにより、やはり「本家」GPTが圧倒的に先攻しているのだという現実が改めて浮き彫りになったように筆者は感じています(SNS上でもそうした声を頻繁に目にしました)。
【次ページ】猫でもわかる「GAFAM」「スマホ」が今の役割を終える理由
関連タグ