※この記事はClaude Codeで書いています。評価もClaude Codeが実施しています。
前回の記事でGemma4-E4BをOpenClawのメインモデルとして採用した、と書いたんだけど——
すぐ問題が出た。
コンテキストが足りなくなるんだよね😅
長めのタスクを投げると「コンテキスト上限に近づいてます」的な警告が出てきて、途中でレスポンスが切れたり、セッションが圧縮されてしまう。
E4BはVRAMを9.6GBも使うから、KVキャッシュ(会話履歴を保持するメモリ)に割ける余裕が少ない。 contextTokensを16384(約16K)に制限せざるを得なかったのが原因だった。
「もっとコンテキスト長を伸ばしたい…でもVRAMが足りない…」
というジレンマを解決するために 量子化を落とすという選択をした話です。
E4B vs E2B:量子化の違い
ここで少し技術的な話。
Gemma4には複数の量子化バリアントがある:
| バリアント | VRAM | 量子化 | 精度 |
|---|---|---|---|
| E4B | 9.6 GB | 4-bit | 高め |
| E2B | 7.2 GB | 2-bit | 低め |
量子化(quantization)というのは、モデルの重みを圧縮する技術。 4-bit → 2-bit にすると精度は落ちるが、モデルサイズが約2.4GB削減される。
その削減分をKVキャッシュ(コンテキスト)に回せるのがポイント。
結果として:
- E4B: contextTokens = 16,384(16K)
- E2B: contextTokens = 131,072(131K)
コンテキストが8倍になった。エージェント用途ではこれが大きい。
ベンチマーク結果:E2BはE4Bより速い
量子化を落とすと精度が下がる、という一般論があるけど、 速度はどうかも気になったのでベンチマークを回してみた。
条件は前回と同じく /api/chat + ツール定義 + think: false。
| モデル | 指示理解 | コーディング | ツール呼出 | 合計 | 速度 |
|---|---|---|---|---|---|
| gemma4-e2b-agent | 2/3 | 4/4 | 2/2 | 8/9 | 129 tok/s |
| gemma4-e4b-agent | 3/3 | 4/4 | 2/2 | 9/9 | 76 tok/s |
| qwen35-agent | 3/3 | 4/4 | 2/2 | 9/9 | 47 tok/s |
| mistral-nemo-agent | 1/3 | 4/4 | 1/2 | 6/9 | 31 tok/s |
E2Bは 129 tok/s、E4Bは 76 tok/s。
約1.7倍速い。
モデルが軽くなる分、推論が速くなるのは理屈どおりだけど、 ここまで差が出るとは思わなかった(笑)
トレードオフ:精度 vs コンテキスト vs 速度
結果をまとめるとこんな感じ:
| E4B | E2B | |
|---|---|---|
| 精度 | ⭐⭐⭐(9/9) | ⭐⭐(8/9) |
| 速度 | ⭐⭐(76 tok/s) | ⭐⭐⭐(129 tok/s) |
| コンテキスト | ⭐(16K) | ⭐⭐⭐(131K) |
| VRAM | 9.6 GB | 7.2 GB |
E2Bで失点したのは「指示理解」の1問のみ。 具体的には「疑問文の末尾に?をつけてください」という条件を守りきれなかったケース。 コーディングとツール呼び出しは満点。
実用上どちらを選ぶか、というのは用途次第だけど:
- 短いチャット・精度重視 → E4B
- 長文コンテキスト・速度重視のエージェント → E2B
OpenClawでエージェントとして使う場合、長いシステムプロンプトやツール定義を毎回送るので コンテキストが多いほど助かる。今の使い方だとE2Bの方が合っている。
openclaw.jsonの設定
参考まで、現在のE2B設定はこんな感じ:
{
"id": "gemma4-e2b-agent",
"name": "Gemma4 E2B Agent",
"contextTokens": 131072,
"reasoning": false
}
reasoning: false は前回の記事で解説したthinkingモード対策。
contextTokens: 131072 でKVキャッシュをフル活用する設定。
ただし注意点として、131Kトークン全部使い切ると今度はVRAMがパンパンになるので、 実際のタスクの長さに応じて調整が必要かも。
まとめ
| ポイント | 内容 |
|---|---|
| E4Bの問題 | VRAM 9.6GB消費でコンテキスト16Kに制限される |
| E2Bへ切り替え | 7.2GBに削減 → コンテキスト131Kに拡大 |
| 精度の変化 | 9/9 → 8/9(指示理解1問失点) |
| 速度の変化 | 76 tok/s → 129 tok/s(1.7倍速く) |
| 結論 | エージェント用途ならE2Bがベストバランス |
VRAMが12GBしかない環境でも、量子化を工夫することで長いコンテキストと高速推論を両立できた。
精度的にはE4Bを使いたいところだけど、ないメモリは振れないですね 🙂