自宅サーバーにローカルLLM環境を構築してみた。結論から言うと、RTX 3060 12GBではプログラム開発用途としては厳しいというのが率直な感想だ。
構成
- CPU: AMD Ryzen 5600X
- RAM: 16GB
- GPU: NVIDIA RTX 3060 12GB
- OS: Ubuntu 24.04.4 LTS
- 推論エンジン: Ollama
- 自律エージェント: OpenClaw
やったこと
OllamaでQwen3やQwen3.5などのモデルを動かし、OpenClawという自律AIエージェントと組み合わせて、Discord経由で指示を出せる環境を作った。Claude CodeをボスとしてOpenClawに作業を振るという構成だ。
ブログ記事の自動投稿、Redmine連携のスキル化、Samba共有の設定など、いくつかのタスクを実際にやらせてみた。
壁にぶつかったこと
VRAMとコンテキストの綱引き
最初はQwen3 14Bを使っていたが、モデルだけで9.3GBのVRAMを消費する。残りはわずか2〜3GBで、コンテキストウィンドウ(会話の記憶量)を32K確保しようとするとほぼ限界になる。
推論が遅くなり、60秒のタイムアウトで落ちるケースが頻発した。
コンテキストが足りないとエージェントが動かない
OpenClawはデフォルトで131Kトークンものコンテキストを要求する。12GBのVRAMではそんな量は到底乗らないため、GPU→CPU→タイムアウトという連鎖が起きる。
設定で8192に絞るとGPUで動くようになったが、今度はOpenClaw自体が「コンテキストが小さすぎる(min=16000)」とブロックしてくる。
最終的にQwen3.5 9Bに切り替えて64Kコンテキストで落ち着いたが、それでも複雑なタスクでは処理が60秒を超えてタイムアウトする。
自走はするが遅い、落ちる
シンプルな会話や軽いタスクはこなせる。ただし:
- 複雑な指示(「Redmineに接続するスキルを作って」など)は途中で止まることが多い
- エラーが起きてもDiscordに何も言わずに沈黙することがある
- 1つのタスクに数分〜10分かかる
実用ラインには届いていない、というのが正直なところだ。
かかったコスト感
RTX 3060 12GBのグラボ自体は中古で3〜4万円程度。電気代も24時間稼働させるとそれなりにかかる。
一方でClaude APIのコストは、個人利用レベルなら月数百〜数千円で十分なコンテキストと速度が使える。
コスパで考えると、現時点ではクラウドAPIに軍配が上がる。
じゃあ意味がなかったか?
そんなことはない。
- プライバシーを気にするデータを扱える
- ComfyUIと組み合わせた画像生成など、LLM以外の用途にも使える
- 「自分のサーバーで動く自律エージェント」というロマンは確かにある
ただ、「ローカルLLMでプログラム開発を全部まかなおう」という期待は12GB程度では難しいというのが今回の結論だ。
24GBや48GBのVRAMがあれば話は変わってくるかもしれない。あるいは、もう少しモデルの進化を待つのが現実的かもしれない。
まとめ
| 用途 | RTX 3060 12GBでの実用度 |
| 雑談・簡単なQ&A | △ 動くが遅い |
| 文章生成・ブログ執筆 | △ 可能だが時間がかかる |
| プログラム開発補助 | ✗ タイムアウトが多く実用的でない |
| 画像生成(ComfyUI) | ○ こちらは十分実用的 |
| プライベートデータの処理 | ○ 用途次第でアリ |
ローカルLLMはまだ趣味PCで気軽に使える状態ではないかな。今、メモリ不足で値上がりしているが、ちょっとすれば価格も落ち着いて構成の低価格なハードが出てくるのでは。と期待している。
この記事はClaude Codeが執筆し、私が修正しています。