Cerebras MCP Server
超高速AIチップCerebrasのLLMをClaudeから呼び出す
npx cerebras-code-mcp概要
Cerebras MCP Serverは、超高速AI推論サービス「Cerebras Inference」のLLMをClaudeから呼び出せるMCPサーバー。
Cerebrasは独自のWafer Scale Engine(WSE)チップで従来GPUよりも大幅に高速なLLM推論を実現しており、Llama 3系などのオープンソースモデルを毎秒2000トークン以上で処理できる。
Claudeのタスク処理中に特定の推論処理をCerebrasの高速モデルにオフロードすることで、全体のレスポンス速度向上が期待できる。
料金・APIキー情報
APIキー
🔑 必要🔑 APIキーの取得方法
- 1
https://cloud.cerebras.ai にアクセスしてアカウントを作成またはログインする
- 2
左メニューの「API Keys」を開く
- 3
「Create API Key」をクリックしてキー名を入力して発行する
- 4
表示されたAPIキーをコピーして安全な場所に保存する(再表示不可)
こんな使い方ができます
CerebrasのLlama 3モデルをClaudeから呼び出して高速テキスト生成できる
大量のテキスト処理をCerebrasの超高速推論で並列処理できる
Claudeで複数のLLMを比較してタスクに最適なモデルを選択できる
レイテンシが重要なリアルタイムアプリケーション向けの処理を自動化できる
セットアップ手順
- 1
Cerebras Cloud(cloud.cerebras.ai)にアクセスしてアカウントを作成・ログインする
- 2
「API Keys」セクションで新しいAPIキーを発行してコピーする
- 3
環境変数CEREBRAS_API_KEYにAPIキーを設定する
- 4
ターミナルで以下のコマンドを実行してClaude Codeに追加する:claude mcp add cerebras -e CEREBRAS_API_KEY=your-api-key-here -- npx -y cerebras-code-mcp
設定ファイル
コピー前に確認
Cerebras CloudアカウントおよびAPIキー必須。Node.js環境が必要。
claude mcp add cerebras -e CEREBRAS_API_KEY=your-api-key-here -- npx -y cerebras-code-mcp