料金オープンウェイト(無料) / Mistral API経由は従量課金
対応Linux / macOS / Windows(Ollama, vLLM等で実行)
ライセンスApache 2.0
目次

概要

Mistral AIが公開したコーディング特化のオープンウェイトモデル。Devstral 2(123Bパラメータ)はSWE-bench Verifiedで72.2%を記録し、オープンモデルとしてトップクラスの性能を持つ。小型版のDevstral Small 2(24B)も68.0%を達成。

主な機能

  • SWE-bench Verified 72.2% — 実際のGitHubイシューを自律的に解決するベンチマークでオープンモデル最高水準
  • Devstral Small 2(24B) — ラップトップ上でも実行可能な軽量版。SWE-bench 68.0%
  • Apache 2.0ライセンス — 商用利用・改変・再配布が自由。社内デプロイに制約なし
  • Vibe CLI対応 — Mistralが同時公開したCLIツールと組み合わせてターミナルからコーディングエージェントとして利用可能
  • FIM(Fill-in-the-Middle)対応 — コード補完タスクに最適化されたアーキテクチャ

導入手順

1. Ollama経由でローカル実行(Small 2)

ollama pull devstral-small:24b
ollama run devstral-small:24b

2. vLLM経由でサーバー実行(フルサイズ)

pip install vllm
vllm serve mistralai/Devstral-2 --tensor-parallel-size 2

3. Mistral API経由

curl https://api.mistral.ai/v1/chat/completions \
  -H "Authorization: Bearer $MISTRAL_API_KEY" \
  -d '{
    "model": "devstral-2",
    "messages": [{"role": "user", "content": "Fix this bug: ..."}]
  }'

4. Vibe CLIと併用

npm install -g @mistralai/vibe-cli
vibe --model devstral-2 "このリポジトリのテストを修正して"

注意点

  • フルサイズ(123B)の実行にはGPU 2枚以上(合計48GB VRAM〜)が必要
  • Small 2(24B)は16GB VRAM環境で動作するが、量子化版の利用が現実的
  • Koyeb買収によりMistral独自のクラウド実行環境(Mistral Compute)も整備中

免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。