ContextHub
AI・機械学習無料プランあり🔑 APIキー必要npx

Cerebras MCP Server

超高速AIチップCerebrasのLLMをClaudeから呼び出す

最終更新:2026年3月26日
クイックインストール
npx cerebras-code-mcp

概要

Cerebras MCP Serverは、超高速AI推論サービス「Cerebras Inference」のLLMをClaudeから呼び出せるMCPサーバー

Cerebrasは独自のWafer Scale Engine(WSE)チップで従来GPUよりも大幅に高速なLLM推論を実現しており、Llama 3系などのオープンソースモデルを毎秒2000トークン以上で処理できる

Claudeのタスク処理中に特定の推論処理をCerebrasの高速モデルにオフロードすることで、全体のレスポンス速度向上が期待できる

料金・APIキー情報

料金

無料プランあり

無料利用枠あり(月ごとのトークン制限あり)

従量課金制($0.10〜/100万トークン程度、モデルにより異なる)

料金詳細を見る →

APIキー

🔑 必要

🔑 APIキーの取得方法

  1. 1

    https://cloud.cerebras.ai にアクセスしてアカウントを作成またはログインする

  2. 2

    左メニューの「API Keys」を開く

  3. 3

    「Create API Key」をクリックしてキー名を入力して発行する

  4. 4

    表示されたAPIキーをコピーして安全な場所に保存する(再表示不可)

APIキー発行ページへ →

こんな使い方ができます

CerebrasのLlama 3モデルをClaudeから呼び出して高速テキスト生成できる

大量のテキスト処理をCerebrasの超高速推論で並列処理できる

Claudeで複数のLLMを比較してタスクに最適なモデルを選択できる

レイテンシが重要なリアルタイムアプリケーション向けの処理を自動化できる

セットアップ手順

  1. 1

    Cerebras Cloud(cloud.cerebras.ai)にアクセスしてアカウントを作成・ログインする

  2. 2

    「API Keys」セクションで新しいAPIキーを発行してコピーする

  3. 3

    環境変数CEREBRAS_API_KEYにAPIキーを設定する

  4. 4

    ターミナルで以下のコマンドを実行してClaude Codeに追加する:claude mcp add cerebras -e CEREBRAS_API_KEY=your-api-key-here -- npx -y cerebras-code-mcp

設定ファイル

⚠️

コピー前に確認

Cerebras CloudアカウントおよびAPIキー必須。Node.js環境が必要。

Terminal
claude mcp add cerebras -e CEREBRAS_API_KEY=your-api-key-here -- npx -y cerebras-code-mcp
#LLM#高速推論#AI推論

外部リンク

関連するMCPサーバー(AI・機械学習