ContextHub
AI・検索・ナレッジ無料🔓 APIキー不要✓ 公式npx

LM Studio MCP Server

LM Studio MCPサーバーでClaude連携・ローカルLLMの実行と管理を自動化

最終更新:2026年4月16日
クイックインストール
npx @lmstudio/mcp-server

概要

LM Studio MCP Serverの設定方法と使い方

ローカルLLM実行プラットフォーム「LM Studio」をClaudeから操作できるMCPサーバー

ローカルモデルの起動・推論実行・モデル切り替え・会話履歴管理が可能

ClaudeとLM StudioのMCPサーバー連携により、プライバシーが重要なタスクをオフラインLLMに委ねる処理フローや複数モデルの比較評価を自動化できる

APIコスト不要のローカル推論をClaudeのワークフローに組み込める

設定方法はLM Studio起動後にエンドポイントURLを設定するだけでシンプルに完結する

料金・APIキー情報

料金

無料

APIキー

🔓 不要

このMCPはAPIキー不要です。別途セットアップが必要な場合があります(上記参照)。

こんな使い方ができます

ClaudeがLM Studioのローカルモデルに推論を委ねてAPIコストをゼロにできる

プライバシーが重要な文書処理をオフラインのローカルLLMでClaudeが実行できる

複数のローカルモデル(Llama・Mistral・Gemma等)をClaudeが比較評価できる

インターネット接続なしでClaudeがローカルLLM経由でテキスト生成できる

セットアップ手順

  1. 1

    LM Studio(lmstudio.ai)からアプリをダウンロードしてモデルを設定後、「Start Server」でサーバーを起動する

  2. 2

    ターミナルで以下のコマンドを実行してClaude Codeに追加する:claude mcp add lmstudio -e LMSTUDIO_BASE_URL=http://localhost:1234/v1 -- npx -y @lmstudio/mcp-server

設定ファイル

⚠️

コピー前に確認

LM Studioアプリ(macOS・Windows・Linux対応、無料)。推論には十分なRAM(最低8GB、推奨16GB以上)が必要

Terminal
claude mcp add lmstudio -e LMSTUDIO_BASE_URL=http://localhost:1234/v1 -- npx -y @lmstudio/mcp-server
💡

注意事項

LM Studioのローカルサーバーが起動していない場合は接続エラーになる。使用前にLM Studioを起動してサーバーをONにすること

#ローカルLLM#オフラインAI#Llama#プライバシー#AI推論

外部リンク

関連するMCPサーバー(AI・検索・ナレッジ