LiteLLM MCP Server
LiteLLM MCPサーバーでClaude連携・複数LLMプロバイダーの統一管理を自動化
npx litellm-mcp-server概要
LiteLLM MCP Serverの設定方法と使い方。
LiteLLMはOpenAI・Anthropic・Azure・Gemini等100以上のLLMプロバイダーを統一APIで扱えるOSSのLLMプロキシ・ゲートウェイ。
Claude経由でモデルの切り替え・コスト追跡・レート制限管理・ログ確認などをプロキシ経由で操作できる。
設定方法はLiteLLMプロキシサーバーを起動してAPIキーをconfig.jsonに記述するだけでシンプルに完結する。
料金・APIキー情報
料金
完全無料(OSS)APIキー
🔑 必要🔑 APIキーの取得方法
- 1
LiteLLMプロキシサーバーをローカルで起動する(pip install litellm && litellm --model gpt-4)
- 2
ブラウザで http://localhost:4000/ui にアクセス
- 3
「Virtual Keys」タブを選択
- 4
「Create New Key」でキーを生成してコピーする
こんな使い方ができます
OpenAI・Gemini・Azure等のLLMをClaude経由で統一的に呼び出せる
LLM呼び出しのコスト・トークン使用量をリアルタイムで追跡できる
モデルごとのレート制限・バジェット管理をAI経由で設定できる
複数のAIモデルをA/Bテストして性能比較できる
セットアップ手順
- 1
pip install litellm でLiteLLMをインストールする
- 2
litellm --model gpt-4 でプロキシサーバーを起動する
- 3
claude mcp add litellm -e LITELLM_API_KEY=your-key -e LITELLM_BASE_URL=http://localhost:4000 -- npx -y litellm-mcp-server
設定ファイル
コピー前に確認
LiteLLMプロキシのローカル起動またはリモートデプロイが必要
claude mcp add litellm -e LITELLM_API_KEY=your-api-key -e LITELLM_BASE_URL=http://localhost:4000 -- npx -y litellm-mcp-server