目次
2026 年 3 月現在、Unslothは、オープンモデルをローカルで実行・訓練するための最も効率的なプラットフォームの一つだ。
Unsloth Studio(ベータ)は、Qwen、DeepSeek、gpt-oss、Gemma などのオープンモデルを Windows、Linux、macOS で実行・訓練できる Web UI だ。
本稿はこの Unsloth の概要、機能、そして使い方を解説する。
Unsloth の主な機能
Unsloth は推論と訓練の両方で以下の機能を提供する。
モデルの検索・ダウンロード・実行
- GGUF、LoRA アダプター、safetensorsなどの形式をサポート
- 500 以上のモデルを検索・ダウンロード・実行可能
モデルのエクスポート
- GGUF、16-bit safetensorsなどの形式にエクスポート可能
- 保存またはエクスポート機能
ツール呼び出し
- 自己修復ツール呼び出しをサポート
- Web 検索機能
コード実行
- LLM が Claude artifacts やサンドボックス環境でコードをテスト可能
推論パラメータの自動調整
- 推論パラメータを自動調整
- チャットテンプレートをカスタマイズ
モデルバグ修正
- gpt-oss、Qwen3、Llama 4、Mistral、Gemma 1-3、Phi-4などのモデルのバグを修正
- モデルの精度を向上
マルチモーダル対応
- 画像、音声、PDF、コード、DOCX などのファイルタイプをアップロードしてチャット可能
高速訓練
- 500 以上のモデルを2 倍速く訓練
- 70% 少ない VRAMで訓練
- 精度の低下なし
カスタムカーネル
- カスタム Triton と数学的カーネル
- PyTorch や Hugging Face とのコラボレーション
データレシピ
- PDF、CSV、DOCX などからデータセットを自動作成
- ビジュアルノードワークフローでデータを編集
強化学習(RL)
- 最も効率的な RL ライブラリ
- GRPO、FP8 などで80% 少ない VRAM
訓練モード
- フルファインチューニング、RL、事前訓練、4-bit、16-bit、FP8 訓練をサポート
観測可能性
- 訓練をライブで監視
- 損失と GPU 使用量を追跡
- グラフをカスタマイズ
マルチ GPU
- マルチ GPU 訓練をサポート
- 今後の大幅な改善予定
2 つの使い方
Unsloth は 2 つの方法で使用できる。
1. Unsloth Studio(Web UI)
Unsloth Studio(ベータ)は、Web UI ベースのインターフェースだ。
対応プラットフォーム:
- Windows: 対応
- Linux: 対応
- WSL: 対応
- macOS: チャットとデータレシピ目前対応(訓練機能は近日対応予定)
GPU サポート:
- NVIDIA: RTX 30/40/50、Blackwell、DGX Spark、Station などで訓練可能
- AMD: チャット + データは対応。訓練は Unsloth Core で可能(Studio サポートは近日)
- Intel: 近日対応予定
2. Unsloth Core(コードベース)
コードベースのバージョンだ。
対応プラットフォーム:
- Windows: PyTorch インストール済みなら使用可能
- Linux: 対応
- macOS: 対応
- AMD: 対応
- Intel: 対応
インストール方法
Unsloth Studio のインストール
Linux/macOS
curl -fsSL https://unsloth.ai/install.sh | sh
Windows
irm https://unsloth.ai/install.ps1 | iex
起動
unsloth studio -H 0.0.0.0 -p 8888
アップデート
unsloth studio update
Docker の使用
Docker イメージ unsloth/unsloth を使用できる。
docker run -d -e JUPYTER_PASSWORD="mypassword" \
-p 8888:8888 -p 8000:8000 -p 2222:22 \
-v $(pwd)/work:/workspace/work \
--gpus all \
unsloth/unsloth
Unsloth Core のインストール
Linux/macOS
curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv unsloth_env --python 3.13
source unsloth_env/bin/activate
uv pip install unsloth --torch-backend=auto
Windows
winget install -e --id Python.Python.3.13
winget install --id=astral-sh.uv -e
uv venv unsloth_env --python 3.13
.\unsloth_env\Scripts\activate
uv pip install unsloth --torch-backend=auto
Windows では、PyTorch がインストール済みであれば pip install unsloth も使用可能。
GPU 別のインストール
RTX 50x、B200、6000 GPU
uv pip install unsloth --torch-backend=auto
AMD GPU
AMD ガイドに従う。
Intel GPU
Intel ガイドに従う。
無料ノートブック
無料で訓練できるノートブックを提供している。
| モデル | パフォーマンス | メモリ使用量 |
|---|---|---|
| Qwen3.5 (4B) | 1.5 倍速 | 60% 少ない |
| gpt-oss (20B) | 2 倍速 | 70% 少ない |
| Qwen3.5 GSPO | 2 倍速 | 70% 少ない |
| gpt-oss (20B): GRPO | 2 倍速 | 80% 少ない |
| Qwen3: Advanced GRPO | 2 倍速 | 70% 少ない |
| Gemma 3 (4B) Vision | 1.7 倍速 | 60% 少ない |
| embeddinggemma (300M) | 2 倍速 | 20% 少ない |
| Mistral Ministral 3 (3B) | 1.5 倍速 | 60% 少ない |
| Llama 3.1 (8B) Alpaca | 2 倍速 | 70% 少ない |
| Llama 3.2 Conversational | 2 倍速 | 70% 少ない |
| Orpheus-TTS (3B) | 1.5 倍速 | 50% 少ない |
最近のアップデート
Qwen3.5 サポート
- 0.8B、2B、4B、9B、27B、35-A3B、112B-A10Bをサポート
- ガイド + ノートブック
MoE LLM の高速化
- DeepSeek、GLM、Qwen、gpt-oss の MoE LLM を12 倍速く訓練
- 35% 少ない VRAM
埋め込みモデル
- 埋め込みモデルのファインチューニングを1.8-3.3 倍速く
長いコンテキストの RL
- 新しいバッチングアルゴリズムにより、7 倍長いコンテキストの RL が可能
新しい Triton カーネル
- RoPE & MLP Triton カーネル & Padding Free + Packing
- 3 倍速い訓練 & 30% 少ない VRAM
500K コンテキスト
- 80GB GPU で20B モデルを 500K コンテキストで訓練可能
FP8 & Vision RL
- コンシューマー GPU でFP8 & VLM GRPOが可能
結論:効率的なローカル AI 実行・訓練
Unsloth は、オープンモデルのローカル実行・訓練を効率的に行うためのプラットフォームだ。
- 2 倍速い推論・訓練
- 70% 少ない VRAM
- Web UI とコードベースの 2 つの使い方
- 500 以上のモデルをサポート
ローカルで AI モデルを実行・訓練したい人に最適な選択肢だ。
参考:
引用元・参考リンク
免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。