大規模言語モデル(LLM)の躍進と同様に、パラメータ数が少なく、コンパクトで効率的、高い適応性を備える小規模言語モデル(SLM:Small Language Model)の開発も進んでいる。マイクロソフトの「Phi-3」、グーグルの「Gemma」「Gemini 1.5 Flash」などに加え、スタートアップも多数、SLM開発に乗り出している。日本企業もNTTの「tsuzumi」、NEC「cotomi」などが(SLMとはうたわないながらも)小型・特化型に取り組んでおり、開発競争は激化の様相だ。SLMとは何か、SLMはLLMと何が違うのか。小規模言語モデルの開発状況を探ってみたい。
もう1つが、大規模言語モデルに比べ規模が小さな言語モデル(Small Language Model=SLM)の開発だ。SLMとは、LLMよりもパラメータ数が少なく、よりコンパクトで効率的なAIモデルのことを指す。一般的にLLMが数百億から数千億のパラメータを有するのに対し、SLMは数億から数十億程度のパラメータで構成される。