Ollama MCP Server
Ollama MCPサーバーでClaude連携・ローカルLLM実行を自動化
npx ollama-mcp-server概要
Ollama MCP Serverの設定方法と使い方。
ローカルLLM実行ツール「Ollama」をClaudeから操作できるMCPサーバー。
Llama・Mistral・Gemmaなどのモデル呼び出し・モデル一覧取得・テキスト生成が可能。
ClaudeとOllamaのMCPサーバー連携により、プライバシーを保ちながらのローカルAI処理やマルチモデル比較を自動化できる。
APIキー不要でローカル環境のみで完結するため、機密データの処理にも安心して使用できる。
設定方法はOllamaをインストールして起動するだけでシンプルに完結する。
料金・APIキー情報
料金
完全無料APIキー
🔓 不要✅このMCPはAPIキー不要です。別途セットアップが必要な場合があります(上記参照)。
こんな使い方ができます
ClaudeからOllamaの各種ローカルLLMモデルにテキスト生成を指示できる
インストール済みのLLMモデル一覧をClaudeに確認・管理させられる
Claudeとローカルモデルを組み合わせてプライバシー重視の処理を自動化できる
複数のローカルモデルをClaudeから切り替えて比較検証できる
セットアップ手順
- 1
https://ollama.com からOllamaをダウンロードしてインストールし、ターミナルで「ollama serve」を実行して起動する
- 2
使用したいモデルをプル(例:「ollama pull llama3」)してローカルに追加する
- 3
claude mcp add ollama -e OLLAMA_HOST=http://localhost:11434 -- npx -y ollama-mcp-server
設定ファイル
コピー前に確認
Ollamaのインストール・起動が必須。APIキー不要。Node.js 18以上推奨。
claude mcp add ollama -e OLLAMA_HOST=http://localhost:11434 -- npx -y ollama-mcp-server