BentoML MCP Server
BentoML MCPサーバーでClaude連携・MLモデルサービングを自動化
最終更新:2026年3月30日8,628GitHub
クイックインストール
uvx bentoml-mcp概要
BentoML MCP Serverの設定方法と使い方。
MLモデルのサービングとデプロイプラットフォーム「BentoML」をClaudeから操作できるMCPサーバー。
モデル管理・サービス起動・推論実行が可能。
ClaudeとBentoMLのMCPサーバー連携により、モデルのデプロイ・テスト・スケーリングを自動化できる。
設定方法はuvxコマンドでシンプルに起動できる。
料金・APIキー情報
料金
無料プランありAPIキー
🔓 不要✅このMCPはAPIキー不要です。別途セットアップが必要な場合があります(上記参照)。
こんな使い方ができます
BentoMLのモデルをClaudeに指示して推論APIへのデプロイを自動実行できる
サービングしているモデルのパフォーマンスデータをClaudeに要約・分析させられる
BentoMLとBentoCloudを組み合わせてモデルの本番デプロイをClaudeから制御できる
セットアップ手順
- 1
pip install bentomlでBentoMLをインストールする
- 2
claude mcp add bentoml -- uvx bentoml-mcp
設定ファイル
⚠️
コピー前に確認
Python 3.9以上。uvまたはpipが必要
Terminal
claude mcp add bentoml -e BENTOCLOUD_API_TOKEN=your-api-token-here -- uvx bentoml-mcp#MLモデルサービング#推論API#デプロイ#MLOps