ContextHub
AI・検索・ナレッジ完全無料🔓 APIキー不要その他

LM Studio MCP Server

LM Studio MCPサーバーでClaude連携・ローカルAIモデルの実行・切り替えを自動化

最終更新:2026年3月27日155GitHub
クイックインストール
npx lmstudio-mcp

概要

LM Studio MCP Serverの設定方法と使い方

ローカルLLM実行環境「LM Studio」をClaudeから操作できるMCPサーバー

ローカルモデルの一覧取得・テキスト生成・モデル切り替えなどが可能

ClaudeとLM StudioのMCPサーバー連携により、プライベートデータを扱うAI処理やローカルLLMとの比較検証の自動化が実現する

設定方法はLM Studioを起動してサーバーを開始し、config JSONに追加するだけでシンプルに完結する

料金・APIキー情報

料金

完全無料

APIキー

🔓 不要

このMCPはAPIキー不要です。別途セットアップが必要な場合があります(上記参照)。

こんな使い方ができます

ClaudeからLM Studio上のローカルLLMにプロンプトを送信してプライベートなAI処理ができる

ローカルで動くオープンソースモデルとClaudeの回答を比較・評価する実験ができる

機密データをクラウドに送らずClaudeの指示でLM Studioに処理させてセキュアなAIワークフローを構築できる

セットアップ手順

  1. 1

    LM Studio(lmstudio.ai)をダウンロードしてインストールする

  2. 2

    LM StudioでローカルLLMモデルをダウンロードしてサーバーを起動する(デフォルトポート: 1234)

  3. 3

    リポジトリをクローンしてビルドする:git clone https://github.com/infinitimeless/LMStudio-MCP && cd LMStudio-MCP && npm install

  4. 4

    claude mcp add lmstudio -e LM_STUDIO_URL=http://localhost:1234 -- node /path/to/LMStudio-MCP/index.js

設定ファイル

⚠️

コピー前に確認

LM Studio(無料)のインストールと、1つ以上のローカルLLMモデルのダウンロードが必要。Node.js環境が必要。LM Studioのローカルサーバーが起動していること。

Terminal
claude mcp add lmstudio -e LM_STUDIO_URL=http://localhost:1234 -- npx -y lmstudio-mcp
#LM Studio#ローカルLLM#プライバシー#AIモデル#オフライン

外部リンク

関連するMCPサーバー(AI・検索・ナレッジ