ContextHub
AI・検索・ナレッジ完全無料(OSS)🔑 APIキー必要npx

LiteLLM MCP Server

LiteLLM MCPサーバーでClaude連携・複数LLMプロバイダーの統一管理を自動化

最終更新:2026年3月26日46,409GitHub
クイックインストール
npx litellm-mcp-server

概要

LiteLLM MCP Serverの設定方法と使い方

LiteLLMはOpenAI・Anthropic・Azure・Gemini等100以上のLLMプロバイダーを統一APIで扱えるOSSのLLMプロキシ・ゲートウェイ

Claude経由でモデルの切り替え・コスト追跡・レート制限管理・ログ確認などをプロキシ経由で操作できる

設定方法はLiteLLMプロキシサーバーを起動してAPIキーをconfig.jsonに記述するだけでシンプルに完結する

料金・APIキー情報

料金

完全無料(OSS)

APIキー

🔑 必要

🔑 APIキーの取得方法

  1. 1

    LiteLLMプロキシサーバーをローカルで起動する(pip install litellm && litellm --model gpt-4)

  2. 2

    ブラウザで http://localhost:4000/ui にアクセス

  3. 3

    「Virtual Keys」タブを選択

  4. 4

    「Create New Key」でキーを生成してコピーする

APIキー発行ページへ →

こんな使い方ができます

OpenAI・Gemini・Azure等のLLMをClaude経由で統一的に呼び出せる

LLM呼び出しのコスト・トークン使用量をリアルタイムで追跡できる

モデルごとのレート制限・バジェット管理をAI経由で設定できる

複数のAIモデルをA/Bテストして性能比較できる

セットアップ手順

  1. 1

    pip install litellm でLiteLLMをインストールする

  2. 2

    litellm --model gpt-4 でプロキシサーバーを起動する

  3. 3

    claude mcp add litellm -e LITELLM_API_KEY=your-key -e LITELLM_BASE_URL=http://localhost:4000 -- npx -y litellm-mcp-server

設定ファイル

⚠️

コピー前に確認

LiteLLMプロキシのローカル起動またはリモートデプロイが必要

Terminal
claude mcp add litellm -e LITELLM_API_KEY=your-api-key -e LITELLM_BASE_URL=http://localhost:4000 -- npx -y litellm-mcp-server
#LLM#AIゲートウェイ#マルチモデル#プロキシ#OSS

外部リンク

関連するMCPサーバー(AI・検索・ナレッジ