Unsloth GitHub リポジトリ
Unsloth | GitHub
目次

2026 年 3 月現在、Unslothは、オープンモデルをローカルで実行・訓練するための最も効率的なプラットフォームの一つだ。

Unsloth Studio(ベータ)は、Qwen、DeepSeek、gpt-oss、Gemma などのオープンモデルを Windows、Linux、macOS で実行・訓練できる Web UI だ。

本稿はこの Unsloth の概要、機能、そして使い方を解説する。

Unsloth の主な機能

Unsloth は推論と訓練の両方で以下の機能を提供する。

モデルの検索・ダウンロード・実行

  • GGUF、LoRA アダプター、safetensorsなどの形式をサポート
  • 500 以上のモデルを検索・ダウンロード・実行可能

モデルのエクスポート

ツール呼び出し

  • 自己修復ツール呼び出しをサポート
  • Web 検索機能

コード実行

  • LLM が Claude artifacts やサンドボックス環境でコードをテスト可能

推論パラメータの自動調整

  • 推論パラメータを自動調整
  • チャットテンプレートをカスタマイズ

モデルバグ修正

  • gpt-oss、Qwen3、Llama 4、Mistral、Gemma 1-3、Phi-4などのモデルのバグを修正
  • モデルの精度を向上

マルチモーダル対応

  • 画像、音声、PDF、コード、DOCX などのファイルタイプをアップロードしてチャット可能

高速訓練

  • 500 以上のモデルを2 倍速く訓練
  • 70% 少ない VRAMで訓練
  • 精度の低下なし

カスタムカーネル

  • カスタム Triton と数学的カーネル
  • PyTorch や Hugging Face とのコラボレーション

データレシピ

  • PDF、CSV、DOCX などからデータセットを自動作成
  • ビジュアルノードワークフローでデータを編集

強化学習(RL)

  • 最も効率的な RL ライブラリ
  • GRPO、FP8 などで80% 少ない VRAM

訓練モード

  • フルファインチューニング、RL、事前訓練、4-bit、16-bit、FP8 訓練をサポート

観測可能性

  • 訓練をライブで監視
  • 損失と GPU 使用量を追跡
  • グラフをカスタマイズ

マルチ GPU

  • マルチ GPU 訓練をサポート
  • 今後の大幅な改善予定

2 つの使い方

Unsloth は 2 つの方法で使用できる。

1. Unsloth Studio(Web UI)

Unsloth Studio(ベータ)は、Web UI ベースのインターフェースだ。

対応プラットフォーム:

  • Windows: 対応
  • Linux: 対応
  • WSL: 対応
  • macOS: チャットとデータレシピ目前対応(訓練機能は近日対応予定)

GPU サポート:

  • NVIDIA: RTX 30/40/50、Blackwell、DGX Spark、Station などで訓練可能
  • AMD: チャット + データは対応。訓練は Unsloth Core で可能(Studio サポートは近日)
  • Intel: 近日対応予定

2. Unsloth Core(コードベース)

コードベースのバージョンだ。

対応プラットフォーム:

  • Windows: PyTorch インストール済みなら使用可能
  • Linux: 対応
  • macOS: 対応
  • AMD: 対応
  • Intel: 対応

インストール方法

Unsloth Studio のインストール

Linux/macOS

curl -fsSL https://unsloth.ai/install.sh | sh

Windows

irm https://unsloth.ai/install.ps1 | iex

起動

unsloth studio -H 0.0.0.0 -p 8888

アップデート

unsloth studio update

Docker の使用

Docker イメージ unsloth/unsloth を使用できる。

docker run -d -e JUPYTER_PASSWORD="mypassword" \
 -p 8888:8888 -p 8000:8000 -p 2222:22 \
 -v $(pwd)/work:/workspace/work \
 --gpus all \
 unsloth/unsloth

Unsloth Core のインストール

Linux/macOS

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv unsloth_env --python 3.13
source unsloth_env/bin/activate
uv pip install unsloth --torch-backend=auto

Windows

winget install -e --id Python.Python.3.13
winget install --id=astral-sh.uv -e
uv venv unsloth_env --python 3.13
.\unsloth_env\Scripts\activate
uv pip install unsloth --torch-backend=auto

Windows では、PyTorch がインストール済みであれば pip install unsloth も使用可能。

GPU 別のインストール

RTX 50x、B200、6000 GPU

uv pip install unsloth --torch-backend=auto

AMD GPU

AMD ガイドに従う。

Intel GPU

Intel ガイドに従う。

無料ノートブック

無料で訓練できるノートブックを提供している。

モデル パフォーマンス メモリ使用量
Qwen3.5 (4B) 1.5 倍速 60% 少ない
gpt-oss (20B) 2 倍速 70% 少ない
Qwen3.5 GSPO 2 倍速 70% 少ない
gpt-oss (20B): GRPO 2 倍速 80% 少ない
Qwen3: Advanced GRPO 2 倍速 70% 少ない
Gemma 3 (4B) Vision 1.7 倍速 60% 少ない
embeddinggemma (300M) 2 倍速 20% 少ない
Mistral Ministral 3 (3B) 1.5 倍速 60% 少ない
Llama 3.1 (8B) Alpaca 2 倍速 70% 少ない
Llama 3.2 Conversational 2 倍速 70% 少ない
Orpheus-TTS (3B) 1.5 倍速 50% 少ない

最近のアップデート

Qwen3.5 サポート

MoE LLM の高速化

  • DeepSeek、GLM、Qwen、gpt-oss の MoE LLM を12 倍速く訓練
  • 35% 少ない VRAM

埋め込みモデル

  • 埋め込みモデルのファインチューニングを1.8-3.3 倍速く

長いコンテキストの RL

  • 新しいバッチングアルゴリズムにより、7 倍長いコンテキストの RL が可能

新しい Triton カーネル

  • RoPE & MLP Triton カーネル & Padding Free + Packing
  • 3 倍速い訓練 & 30% 少ない VRAM

500K コンテキスト

  • 80GB GPU で20B モデルを 500K コンテキストで訓練可能

FP8 & Vision RL

  • コンシューマー GPU でFP8 & VLM GRPOが可能

結論:効率的なローカル AI 実行・訓練

Unsloth は、オープンモデルのローカル実行・訓練を効率的に行うためのプラットフォームだ。

  • 2 倍速い推論・訓練
  • 70% 少ない VRAM
  • Web UI とコードベースの 2 つの使い方
  • 500 以上のモデルをサポート

ローカルで AI モデルを実行・訓練したい人に最適な選択肢だ。


参考:

引用元・参考リンク

免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。