𝕏📘📖☁️

Grok CLI と OpenRouter で無料 LLM コーディングを試してみた結果

普段は軽いコーディング作業に無料枠の Gemini CLI を利用していますが、新しい選択肢として Grok CLI を知ったので実際に試してみました 🤖 今回は OpenRouter 経由で Grok を使った対話型コーディングの体験をレポートします。

評価基準

以下の観点で Gemini CLI と比較評価しました:

  • 返答の質: 指示に準じた回答をしてくれるか、実際に作成されたコードがエラーなく動くか
  • 返答速度: レスポンスの速さ

Grok CLI のセットアップ

インストール

npm で Global Install します:

npm install -g @vibe-kit/grok-cli

設定

環境変数で OpenRouter 経由の Grok を設定:

export GROK_API_KEY="XXXXXX"
export GROK_BASE_URL="https://openrouter.ai/api/v1"
export GROK_MODEL="x-ai/grok-4.1-fast"

以前は x-ai/grok-4.1-fast:free という無料版がありましたが、記事執筆時には無くなっていたため、有料版の x-ai/grok-4.1-fast を使用しました($1 まで無料で使えます)。

実際のテスト

Flask を使った CRUD タスク管理 Web アプリの作成を依頼してみました。

プロンプト設定

.grok/GROK.md に詳細な要求仕様を記載:

# タスク:Python/Flask製 CRUDタスク管理Webアプリの作成

以下の手順と要求仕様に基づき、タスク管理Webアプリケーションのコードを作成してください。

## ステップ 1: パッケージのインストール
**uv add** コマンドを使用して、このアプリケーションに必要なパッケージ(**Flask****Flask-SQLAlchemy**)をインストールしてください。

## ステップ 2: Webアプリケーションの実装
(詳細な要求仕様を記載)

結果

Grok CLI を起動して指示を出すと:

grok
> .grok/GROK.md 通りにアプリを作成して

良かった点:

  • 指示の理解は良好 🎉
  • 生成されたコードの品質は悪くない
  • 必要なファイル構成を適切に提示

問題点:

  • CLI でのコマンド実行指示をうまく受け取ってくれない 😅
  • ls コマンド実行の確認後、処理が進まなくなる
  • 実際のファイル作成まで進めることができなかった

他の LLM も試してみた

Ollama で複数のモデルも試してみました:

qwen3

  • 返答速度: 遅い ⏳
  • 精度: 高い ✅

qwen2.5-coder

  • 返答速度: 爆速 ⚡
  • 精度: JSON レスポンスが返ってきたりと、少し噛み合わない印象 🤔

deepseek-r1

  • 対応状況: サポートされていない ❌

利用コスト

OpenRouter での実際の利用クレジット:

OpenRouter クレジット使用量

総合評価と感想

返答の質

  • コードの内容自体は悪くない
  • 指示の理解度も十分

返答速度・使い勝手

  • CLI でのコマンド実行が不安定
  • 途中で処理が止まることが多い
  • 全体的に Gemini CLI の方がストレスなく使える

結論

LLM の性能自体は悪くありませんが、CLI ツールとしての使い勝手は Gemini CLI の方が優秀でした 💡

無料枠では高精度の細かい作業は難しく、大まかな作業については引き続き Gemini CLI を使用することにしました。

ただし、Grok の性能自体は興味深いので、CLI ツールの改善や無料枠の復活があれば再度検討したいと思います 🚀

参考リンク

関連記事