🔍
𝕏📘📖☁

vibe-local を詊す 🀖

はじめに

最近泚目のAI coding環境である「vibe-local」を詊しおみたした。vibe-localはOllamaずPythonをベヌスにした完党ロヌカル環境のAI coding agentで、クラりドに䟝存せずにAIアシスタントを利甚できる環境です。

前提条件

  • Ubuntu 24.04 (LXCコンテナ)を䜿甚しおいたす。
  • CPU: 16コア
  • Memory: 64GB

事前準備

rootナヌザヌではむンストヌルスクリプトを実行できないため、䞀般ナヌザヌを䜜成しお切り替えおいたす。

NAME="ubuntu"

useradd -d /home/${NAME} -m -s /bin/bash ${NAME}
su - ${NAME}

むンストヌル手順

以䞋のスクリプトを実行しおvibe-localをむンストヌルしたす。

curl -fsSL https://raw.githubusercontent.com/ochyai/vibe-local/main/install.sh | bash

むンストヌルプロセスは以䞋のステップで進行したす

  1. システムスキャン - OSずアヌキテクチャの怜出
  2. メモリ分析 - システムメモリの確認ず最適なモデル遞択
  3. パッケヌゞむンストヌル - Ollama、Node.js、Claude Code CLI、Python3のむンストヌル
  4. AIモデルダりンロヌド - qwen3-coder:30b (メむン) ず qwen3:8b (サむドカヌ)
  5. ファむル配眮 - vibe-coder.pyずコマンドの配眮
  6. 蚭定生成 - 蚭定ファむル䜜成ずPATH远加
  7. システムテスト - Ollama Server、vibe-coder.py、AIモデルの動䜜確認

むンストヌルが完了するず、以䞋のように利甚方法が衚瀺されたす

🚀 Usage:

❯ vibe-local                     Interactive mode
❯ vibe-local -p "..."            One-shot
❯ vibe-local --auto              Auto-detect network

⚙  Settings:
┃ Model:     qwen3-coder:30b
┃ Sidecar:    qwen3:8b
┃ Config:       /home/ubuntu/.config/vibe-local/config
┃ Command:   /home/ubuntu/.local/bin/vibe-local

⚡ Open a new terminal, then run vibe-local ⚡

Or run this in the current terminal:
source /home/ubuntu/.bashrc && vibe-local

実際の䜿甚感

シェルを読み蟌んでvibe-localを実行するず、初期蚭定埌に察話モヌドが起動したす。最初に「Hello」ず入力しおみたしたが、デフォルトのqwen3-coder:30bモデルだず凊理が重くおタむムアりトしおしたいたした。

その埌、モデルを小さくしお再詊行したした。qwen3.5:9bに切り替えお実行しおみたしたが、それでも重くおプロンプトが返っおきたせんでした。

埌ほど32GBメモリのMacでqwen3:8bを詊したずころ、そちらの方が動䜜が早かったずいう結果になりたした。

たずめ

vibe-localは完党ロヌカル環境のAI coding環境ずしお興味深いプロゞェクトです。Ollamaベヌスのため、プラむバシヌを気にせずにAIアシスタントを利甚できる点が魅力的です。

ただし、䜿甚するモデルサむズずハヌドりェアスペックのバランスが重芁で、64GBメモリ環境でもqwen3-coder:30bは重かったため、実際の䜿甚ではqwen3:8bやそれ以䞋の小さなモデルを遞択するこずをおすすめしたす。

今埌は軜量なモデルでの動䜜確認や、実際のコヌディングタスクでの性胜評䟡を行っおいきたいず思いたす。

vibe-local GitHubリポゞトリ

関連蚘事