料金オープンウェイト(無料) / Mistral API経由は従量課金
対応Linux / macOS / Windows(Ollama, vLLM等で実行)
ライセンスApache 2.0
目次
概要
Mistral AIが公開したコーディング特化のオープンウェイトモデル。Devstral 2(123Bパラメータ)はSWE-bench Verifiedで72.2%を記録し、オープンモデルとしてトップクラスの性能を持つ。小型版のDevstral Small 2(24B)も68.0%を達成。
主な機能
- SWE-bench Verified 72.2% — 実際のGitHubイシューを自律的に解決するベンチマークでオープンモデル最高水準
- Devstral Small 2(24B) — ラップトップ上でも実行可能な軽量版。SWE-bench 68.0%
- Apache 2.0ライセンス — 商用利用・改変・再配布が自由。社内デプロイに制約なし
- Vibe CLI対応 — Mistralが同時公開したCLIツールと組み合わせてターミナルからコーディングエージェントとして利用可能
- FIM(Fill-in-the-Middle)対応 — コード補完タスクに最適化されたアーキテクチャ
導入手順
1. Ollama経由でローカル実行(Small 2)
ollama pull devstral-small:24b
ollama run devstral-small:24b
2. vLLM経由でサーバー実行(フルサイズ)
pip install vllm
vllm serve mistralai/Devstral-2 --tensor-parallel-size 2
3. Mistral API経由
curl https://api.mistral.ai/v1/chat/completions \
-H "Authorization: Bearer $MISTRAL_API_KEY" \
-d '{
"model": "devstral-2",
"messages": [{"role": "user", "content": "Fix this bug: ..."}]
}'
4. Vibe CLIと併用
npm install -g @mistralai/vibe-cli
vibe --model devstral-2 "このリポジトリのテストを修正して"
注意点
- フルサイズ(123B)の実行にはGPU 2枚以上(合計48GB VRAM〜)が必要
- Small 2(24B)は16GB VRAM環境で動作するが、量子化版の利用が現実的
- Koyeb買収によりMistral独自のクラウド実行環境(Mistral Compute)も整備中
免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。