ローカルで動作する軽量LLMのすすめ

生成AIの話題になると、ChatGPTやClaudeといったクラウドLLMの名前が真っ先に挙がります。一方でここ数年、Llama、Mistral、DeepSeekなど、ローカルで動かせる公開LLMが増えています。しかも、ローカルで動く軽量モデルも珍しくありません。
ローカルで動く軽量LLMという選択肢
ChatGPTやClaudeのようなクラウドLLMは性能もいいし、ブラウザからすぐ使えるなど便利です。ですが、データをクラウドに送信することや課金が気になる方もいらっしゃると思います。
この場合、完全には難しいかもしれませんが、次のように使い分けすることが考えられると思います。
- コード生成等の高度な生成や対話 → クラウドLLM
- 日常的な整理・下書き・要点抽出 → ローカルの軽量LLM
- AIアプリ開発時の検証 → ローカルの軽量LLM
ローカルで使える代表的な軽量LLM
ある程度知られている会社で開発されたLLMには、以下のようなものがあります。
- gpt-oss: OpenAI社開発
- DeepSeek: DeepSeek社開発
- Gemma: Google社開発
- Llama: Meta社開発
- Mistral: Mistral AI社開発
- Phi: Microsoft社開発
- Qwen: Alibaba Cloud社開発
上記モデルすべてがOllamaを通じてローカルで簡単に試すことができます。この中でgpt-oss以外は10b未満の軽量LLMがありますので、高性能なGPUがない環境でも無理なく試すことができると思います。
まとめ:いつも最強でなくていい
AIの話題がクラウドLLMに偏りがちです。しかし、最近公開LLMも増えてきましたので、状況によってはこちらの方も選択肢としてありだと思います。
