Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled のイメージ
Hugging Face モデルカード | Hugging Face
目次

2026 年 3 月、Hugging Face で**「Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled」**が公開された。

これはClaude 4.6 Opus の推論を蒸留した 27B パラメータモデルだ。

Guys.. this model is just crazy. If you have just less than 48gb vram, just try the 8q gguf format.

Feels just like opus!

Tool calling is working smoothly!!

本稿はこのモデルの概要、機能、そして既存モデルとの違いを解説する。

モデルの概要

Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilledは、Qwen3.5-27B をベースに、Claude 4.6 Opus の推論を蒸留したモデルだ。

主な特徴

  • 27B パラメータ - 比較的小さなサイズ
  • Claude 4.6 Opus 蒸留 - 高品質な推論能力
  • 8q GGUF 形式 - 48GB 未満の VRAM で動作
  • 262K コンテキスト - 長文処理に対応
  • ツール呼び出し対応 - Claude Code や OpenCode で動作

技術的な特徴

1. 公式モデルのクラッシュを修正

このモデルは、Jinja テンプレートが「developer」ロールをサポートしていないことが原因の公式モデルのクラッシュを修正している。

これは、Claude Code や OpenCode などの最新のコーディングエージェントで一般的に使用されるロールだ。

2. Thinking モードをデフォルトで無効化しない

このモデルは、Thinking モードをデフォルトで無効化しない

これにより、エージェントが 9 分以上中断せずに連続動作可能だ。

3. 自律性と安定性の向上

元のモデルと比較して、自律性と安定性が大幅に向上している。

  • 9 分以上の連続動作 - 人間の介入なしで動作
  • ツールの応答を待機 - 自動的にツール応答を待つ
  • 出力を読み取り - 出力を自動的に読み取る
  • エラーを自己修正 - エラーを自動的に修正
  • README を自動生成 - README を自動的に生成

ハードウェア要件

VRAM 使用量

量子化 VRAM 使用量
Q4_K_M 約 16.5GB
8q GGUF 48GB 未満

生成速度

  • 29-35 tok/s - 生成速度
  • 262K コンテキスト - 完全なコンテキスト長

トレーニングパイプライン

Base Model (Qwen3.5-27B)
 │
 ▼
Supervised Fine-Tuning (SFT) + LoRA
 │
 ▼
Final Model (Claude-4.6-Opus-Reasoning-Distilled,text-only)

使用されたデータセット

データセット名 説明
nohurry/Opus-4.6-Reasoning-3000x-filtered Claude 4.6 Opus の推論軌跡を提供
TeichAI/claude-4.5-opus-high-reasoning-250x 高強度の構造化推論インスタンスを注入
Jackrong/Qwen3.5-reasoning-700x 構造化された段階的な問題解決を強化するための追加のキュレーションされた推論サンプル

コミュニティテストの結果

ツール呼び出しベンチマーク

異なる Qwen3.5 量子化モデルは、ツール呼び出し機能に大きな違いを示す。

その中で、Claude Opus 推論で蒸留された 27B モデルのみが安定したパフォーマンスを示す。

コーディングエージェント環境での優位性

Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled は、Claude Code や OpenCode などのコーディングエージェント環境で大きな優位性を示す。

  • 「developer」ロールのネイティブサポート - Jinja テンプレートパッチや ChatML ワークアラウンドが不要
  • Thinking モードが完全に保持 - 思考=1 がログで確認でき、完全に chain-of-thought 推論プロセスを維持
  • 自律性と安定性が大幅に向上 - 9 分以上連続動作可能

既存モデルとの比較

公式 Qwen3.5-27B との違い

項目 公式モデル 蒸留モデル
developer ロール サポートなし(クラッシュ) ネイティブサポート
Thinking モード デフォルトで無効化 デフォルトで有効
連続動作時間 数分で停止 9 分以上
自律性 低い 高い
安定性 低い 高い

Claude 4.6 Opus との違い

項目 Claude 4.6 Opus 蒸留モデル
パラメータ 不明(大規模) 27B
VRAM 要件 大規模 16.5GB(Q4_K_M)
推論品質 最高 高い(蒸留)
コスト 有料 無料
ローカル動作 不可 可能

使用例

Claude Code での使用

# モデルをダウンロード
huggingface-cli download Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled

# Claude Code で使用
claude --model Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled

OpenCode での使用

# OpenCode で使用
opencode --model Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled

制限事項

1. 幻覚リスク

推論は強いが、モデルは依然として自己回帰 LLM だ。

思考シーケンス中に提供された外部事実は、実世界のイベントを検証する際に幻覚を含む可能性がある。

2. 想定される使用例

  • オフライン分析タスク - オフライン分析タスクに最適
  • コーディング - コーディングに最適
  • 数学 - 数学に最適
  • 論理依存プロンプト - 重い論理依存プロンプトに最適

3. プレビューバージョン

このモデルは比較的新しく、意図的に軽量だ。

推論テンプレート、ファインチューニングパイプライン、ルーティング設定、ツール統合などの周辺エコシステムは、まだ完全に成熟または標準化されていない。

結論:ローカルで Opus クラスの推論を

Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled は、ローカルで Opus クラスの推論を実現するモデルだ。

  • 27B パラメータ - 比較的小さなサイズ
  • Claude 4.6 Opus 蒸留 - 高品質な推論能力
  • 16.5GB VRAM - Q4_K_M 量子化で動作
  • 9 分以上連続動作 - コーディングエージェントで安定動作

48GB 未満の VRAM でも 8q GGUF 形式で動作する。

Claude Code や OpenCode などのコーディングエージェントで、Opus に近いスムーズな使用体験を提供する。


参考:

引用元・参考リンク

免責事項 — 掲載情報は執筆時点のものです。料金・機能は変更される場合があります。最新情報は各公式サイトをご確認ください。