ContextHub
AI・検索・ナレッジ完全無料🔓 APIキー不要npx

Ollama MCP Server

Ollama MCPサーバーでClaude連携・ローカルLLM実行を自動化

最終更新:2026年3月25日171,131GitHub
クイックインストール
npx ollama-mcp-server

概要

Ollama MCP Serverの設定方法と使い方

ローカルLLM実行ツール「Ollama」をClaudeから操作できるMCPサーバー

Llama・Mistral・Gemmaなどのモデル呼び出し・モデル一覧取得・テキスト生成が可能

ClaudeとOllamaのMCPサーバー連携により、プライバシーを保ちながらのローカルAI処理やマルチモデル比較を自動化できる

APIキー不要でローカル環境のみで完結するため、機密データの処理にも安心して使用できる

設定方法はOllamaをインストールして起動するだけでシンプルに完結する

料金・APIキー情報

料金

完全無料

APIキー

🔓 不要

このMCPはAPIキー不要です。別途セットアップが必要な場合があります(上記参照)。

こんな使い方ができます

ClaudeからOllamaの各種ローカルLLMモデルにテキスト生成を指示できる

インストール済みのLLMモデル一覧をClaudeに確認・管理させられる

Claudeとローカルモデルを組み合わせてプライバシー重視の処理を自動化できる

複数のローカルモデルをClaudeから切り替えて比較検証できる

セットアップ手順

  1. 1

    https://ollama.com からOllamaをダウンロードしてインストールし、ターミナルで「ollama serve」を実行して起動する

  2. 2

    使用したいモデルをプル(例:「ollama pull llama3」)してローカルに追加する

  3. 3

    claude mcp add ollama -e OLLAMA_HOST=http://localhost:11434 -- npx -y ollama-mcp-server

設定ファイル

⚠️

コピー前に確認

Ollamaのインストール・起動が必須。APIキー不要。Node.js 18以上推奨。

Terminal
claude mcp add ollama -e OLLAMA_HOST=http://localhost:11434 -- npx -y ollama-mcp-server
#Ollama#LLM#ローカルAI#Llama#Mistral

外部リンク

関連するMCPサーバー(AI・検索・ナレッジ