MoltBot APIプロキシ設定:Claude Opusなど複数の大規模言語モデルを導入する3ステップ完全チュートリアル

MoltBotで Claude Opus 4.5 やその他の大規模言語モデルを使いたいけれど、APIプロキシの設定方法がわからないとお困りではありませんか?この記事では、MoltBotのマルチプロバイダー(Multi-Provider)設定について、ステップバイステップで解説します。複数のモデルサービスを同時に連携させ、スマートな切り替えや障害時のバックアップを実現しましょう。

核となるメリット: この記事を読み終える頃には、MoltBotの models.providers の設定方法をマスターし、メインモデル、バックアップモデル、モデルエイリアスの設定ができるようになります。これにより、安定して信頼性の高いAIアシスタントを構築できます。

moltbot-api-proxy-configuration-guide-ja 图示


MoltBot API プロキシ設定:コア概念の解説

MoltBot は、OpenAI Compatible API を通じて、ほぼすべての主要な大規模言語モデルサービスへの接続をサポートしています。設定を成功させるためには、以下のコア概念を理解することが重要です。

MoltBot 設定ファイル体系

設定ファイル パス 用途
moltbot.json ~/.moltbot/ グローバル設定のエントリポイント
models.json ~/.moltbot/agents/<agentId>/ エージェント単位のモデル設定
auth-profiles.json ~/.moltbot/agents/<agentId>/ 認証情報の保存

MoltBot Provider 設定の主要フィールド

各 Provider 設定には、以下の重要なフィールドが含まれます。

フィールド 説明 必須
baseUrl string API エンドポイントのアドレス はい
apiKey string API キー(環境変数に対応) はい
api string API プロトコルの種類 はい
models array 利用可能なモデルのリスト はい

API プロトコル種別の説明

MoltBot は、主に2つの OpenAI 互換プロトコルをサポートしています。

プロトコル種別 説明 推奨される利用シーン
openai-completions 標準的な Chat Completions API ほとんどのプロキシサービス
openai-responses Responses API(ツール呼び出しを含む) ローカルモデル、高度なユースケース

🎯 設定のアドバイス: ほとんどの API プロキシサービス(APIYI など)は openai-completions プロトコルを使用します。LM Studio や Ollama などのローカル環境を使用している場合は、openai-responses を使用する必要があります。


MoltBot マルチプロバイダー設定:完全な例

以下は、APIYI と Qwen Portal の 2 つのサービスに同時に接続する、実際に利用可能なマルチプロバイダー設定の例です。

moltbot-api-proxy-configuration-guide-ja 图示

構成ファイルの完全な例

{
  "models": {
    "providers": {
      "qwen-portal": {
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "${QWEN_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "coder-model", "name": "Qwen Coder", "contextWindow": 128000 },
          { "id": "vision-model", "name": "Qwen Vision", "contextWindow": 128000 }
        ]
      },
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "claude-opus-4-5-20251101", "name": "Claude Opus 4.5", "contextWindow": 200000 },
          { "id": "claude-sonnet-4-20250514", "name": "Claude Sonnet 4", "contextWindow": 200000 },
          { "id": "gpt-4o", "name": "GPT-4o", "contextWindow": 128000 }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101",
        "fallbacks": ["qwen-portal/vision-model"]
      },
      "models": {
        "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
        "apiyi/claude-sonnet-4-20250514": { "alias": "sonnet" },
        "qwen-portal/coder-model": { "alias": "qwen" }
      }
    }
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "botToken": "${TELEGRAM_BOT_TOKEN}"
    }
  }
}

設定構造の詳細解説

1. models.providers セクション

これは API プロキシサービスを定義するコア部分です。

"providers": {
  "apiyi": {
    "baseUrl": "https://api.apiyi.com/v1",
    "apiKey": "${APIYI_API_KEY}",
    "api": "openai-completions",
    "models": [...]
  }
}
  • プロバイダー ID (apiyi): カスタムサービス識別子。後の参照に使用されます。
  • baseUrl: API エンドポイント。/v1 で終わる必要があります。
  • apiKey: 直接入力、または ${ENV_VAR} 環境変数の使用をサポートしています。
  • models: このプロバイダーがサポートするモデルのリストです。

2. agents.defaults.model セクション

デフォルトで使用するモデルとフォールバック(障害耐性)戦略を定義します。

"model": {
  "primary": "apiyi/claude-opus-4-5-20251101",
  "fallbacks": ["qwen-portal/vision-model"]
}
  • primary: メインモデル。形式は provider-id/model-id です。
  • fallbacks: 予備モデルの配列。メインモデルが失敗した時に自動的に切り替わります。

3. agents.defaults.models セクション

モデルのエイリアス(別名)を定義し、素早い切り替えを可能にします。

"models": {
  "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
  "qwen-portal/coder-model": { "alias": "qwen" }
}

エイリアスを設定すると、会話の中で /model opus を使って素早くモデルを切り替えることができます。


MoltBot API プロキシ設定:ステップバイステップチュートリアル

ステップ 1:API キーの取得

設定を始める前に、API キーを準備する必要があります。

サービスプロバイダー 取得方法 対応モデル
APIYI apiyi.com にアクセスして登録・取得 Claude 全シリーズ、GPT 全シリーズ、Gemini など
Qwen Portal portal.qwen.ai にアクセス Qwen シリーズモデル
OpenAI platform.openai.com にアクセス GPT シリーズ
Anthropic console.anthropic.com にアクセス Claude シリーズ

🚀 クイックスタート: メインプロバイダーとして APIYI (apiyi.com) の使用をお勧めします。1 つの API キーで Claude、GPT、Gemini などの主要なモデルを呼び出すことができ、複数のプラットフォームに個別に登録する必要がありません。

ステップ 2:環境変数の設定

セキュリティのため、API キーは環境変数に保存することをお勧めします。

# Linux/macOS - ~/.bashrc または ~/.zshrc に追加
export APIYI_API_KEY="sk-your-apiyi-key"
export QWEN_API_KEY="your-qwen-key"
export TELEGRAM_BOT_TOKEN="your-telegram-token"

# 設定を反映させる
source ~/.bashrc
# Windows PowerShell
$env:APIYI_API_KEY = "sk-your-apiyi-key"
$env:QWEN_API_KEY = "your-qwen-key"
$env:TELEGRAM_BOT_TOKEN = "your-telegram-token"

ステップ 3:設定ファイルの編集

MoltBot の設定ファイルを開くか作成します。

# 設定ファイルを開く
nano ~/.moltbot/moltbot.json

# または VS Code で開く
code ~/.moltbot/moltbot.json

以下の設定をファイルに貼り付けてください。

{
  "models": {
    "providers": {
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-opus-4-5-20251101",
            "name": "Claude Opus 4.5",
            "contextWindow": 200000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101"
      }
    }
  }
}

ステップ 4:設定の確認

MoltBot を再起動し、設定が反映されているか確認します。

# MoltBot を再起動
moltbot restart

# 現在のモデル設定を確認
moltbot models list

# モデルの呼び出しテスト
moltbot chat "こんにちは。あなたがどのモデルか教えてください"
マルチプロバイダー設定の完全な例を表示
{
  "models": {
    "mode": "merge",
    "providers": {
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-opus-4-5-20251101",
            "name": "Claude Opus 4.5",
            "contextWindow": 200000,
            "maxTokens": 32000
          },
          {
            "id": "claude-sonnet-4-20250514",
            "name": "Claude Sonnet 4",
            "contextWindow": 200000,
            "maxTokens": 64000
          },
          {
            "id": "gpt-4o",
            "name": "GPT-4o",
            "contextWindow": 128000,
            "maxTokens": 16384
          },
          {
            "id": "gemini-2.5-pro",
            "name": "Gemini 2.5 Pro",
            "contextWindow": 1000000,
            "maxTokens": 65536
          }
        ]
      },
      "qwen-portal": {
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "${QWEN_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "coder-model",
            "name": "Qwen Coder",
            "contextWindow": 128000
          },
          {
            "id": "vision-model",
            "name": "Qwen Vision",
            "contextWindow": 128000
          }
        ]
      },
      "local-ollama": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-responses",
        "models": [
          {
            "id": "llama3.3:70b",
            "name": "Llama 3.3 70B",
            "contextWindow": 128000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101",
        "fallbacks": [
          "apiyi/claude-sonnet-4-20250514",
          "qwen-portal/vision-model",
          "local-ollama/llama3.3:70b"
        ]
      },
      "models": {
        "apiyi/claude-opus-4-5-20251101": {
          "alias": "opus",
          "params": { "temperature": 0.7 }
        },
        "apiyi/claude-sonnet-4-20250514": {
          "alias": "sonnet",
          "params": { "temperature": 0.5 }
        },
        "apiyi/gpt-4o": {
          "alias": "gpt"
        },
        "qwen-portal/coder-model": {
          "alias": "qwen"
        },
        "local-ollama/llama3.3:70b": {
          "alias": "llama"
        }
      },
      "imageModel": "apiyi/gpt-4o"
    }
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "botToken": "${TELEGRAM_BOT_TOKEN}"
    },
    "discord": {
      "enabled": false,
      "token": "${DISCORD_BOT_TOKEN}"
    }
  }
}

💡 設定のヒント: "mode": "merge" を使用すると、MoltBot 内蔵のモデル設定を保持したまま、独自のカスタムプロバイダーを追加できます。これにより、カスタムサービスが利用できない場合でもデフォルト設定にフォールバックできます。


MoltBot モデル設定:高度なパラメータ詳細

モデル項目の全フィールド

moltbot-api-proxy-configuration-guide-ja 图示

パラメータ 必須 説明 設定例
id string はい モデル ID。呼び出し時に使用します。 claude-opus-4-5-20251101
name string はい 表示名 Claude Opus 4.5
contextWindow number いいえ コンテキストウィンドウサイズ 200000
maxTokens number いいえ 最大出力トークン数 32000
reasoning boolean いいえ 推論モードをサポートするかどうか true
input array いいえ サポートされている入力タイプ ["text", "image"]
cost object いいえ 料金情報 {"input": 15, "output": 75}

モデルパラメータ設定 (params)

agents.defaults.models では、各モデルのデフォルトパラメータを設定できます。

"models": {
  "apiyi/claude-opus-4-5-20251101": {
    "alias": "opus",
    "params": {
      "temperature": 0.7,
      "maxTokens": 16000
    }
  }
}
パラメータ 範囲 説明
temperature 0-2 出力のランダム性を制御します。値が低いほど確定的になります。
maxTokens 1-モデル上限 1 回の呼び出しでの最大出力長

⚠️ 注意: temperature は高度なパラメータです。モデルのデフォルト設定を理解しており、調整が必要な場合を除き、設定しないことをお勧めします。


MoltBot Fallback 障害対策(フェイルオーバー)設定

Fallback(フォールバック)機能は、AI アシスタントが常に利用可能な状態を維持するための MoltBot の重要な機能です。

Fallback の仕組み

ユーザーのリクエスト
    ↓
メインモデル (primary)
    ↓ (失敗)
バックアップモデル 1 (fallbacks[0])
    ↓ (失敗)
バックアップモデル 2 (fallbacks[1])
    ↓ (失敗)
...試行を継続

推奨される Fallback 設定戦略

戦略 設定例 適用シーン
同シリーズ内での降格 Opus → Sonnet → Haiku 一貫した応答スタイルを維持したい場合
クロスプラットフォーム・バックアップ Claude → GPT → Gemini 最大限の可用性を確保したい場合
コスト最適化 Opus → ローカルモデル 費用を抑えたい場合
ハイブリッド戦略 クラウド → ローカル → クラウド(予備) 総合的なバランスを考慮する場合

推奨設定例:

"model": {
  "primary": "apiyi/claude-opus-4-5-20251101",
  "fallbacks": [
    "apiyi/claude-sonnet-4-20250514",
    "apiyi/gpt-4o",
    "qwen-portal/vision-model"
  ]
}

💰 コスト最適化: APIYI (apiyi.com) を通じて Fallback を設定することで、複数のモデル間を自動で切り替えながら、統一された課金方式を利用できるため、コスト管理が容易になります。


MoltBot モデル切り替え:実践テクニック

エイリアスを使用した素早い切り替え

エイリアスを設定しておくと、会話の中でいつでもモデルを切り替えることができます。

あなた: /model opus
MoltBot: Claude Opus 4.5 に切り替えました

あなた: /model sonnet
MoltBot: Claude Sonnet 4 に切り替えました

あなた: /model qwen
MoltBot: Qwen Coder に切り替えました

特定のタスクにモデルを指定する

あなた: /model gpt この画像を分析してください
MoltBot: [GPT-4o を使用して画像を分析中...]

あなた: /model opus 深掘りした技術記事を書いてください
MoltBot: [Claude Opus を使用して執筆中...]

現在のモデルの状態を確認する

# コマンドラインで確認
moltbot models list

# 会話の中で確認
あなた: /model
MoltBot: 現在のモデル: apiyi/claude-opus-4-5-20251101 (alias: opus)

MoltBot API プロキシ設定: よくある質問

Q1: 設定後に「API Key invalid」と表示された場合はどうすればいいですか?

これは通常、APIキーの設定に関する問題です。以下の点を確認してください。

  1. 環境変数が正しく設定されているか確認する: echo $APIYI_API_KEY
  2. APIキーの形式が正しいか確認する(通常は sk- で始まります)
  3. APIキーに十分な残高と権限があるか確認する
  4. 設定ファイルに直接記述している場合、余計なスペースや改行が含まれていないか確認する

APIYI(apiyi.com)で取得した APIキーの形式は sk-xxx です。コピーする際は、漏れがないよう注意してください。

Q2: ローカルモデルとクラウドモデルを同時に使用するには?

"mode": "merge" 設定を使用することで、ローカルとクラウドのモデルを併用できます。

{
  "models": {
    "mode": "merge",
    "providers": {
      "local-ollama": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-responses",
        "models": [...]
      },
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [...]
      }
    }
  }
}

これにより、ローカルモデルが利用できない場合に、自動的にクラウドサービスへフォールバック(代替)させることが可能です。

Q3: 環境変数 ${VAR} が反映されない場合は?

MoltBot の環境変数置換ルールは以下の通りです。

  • 大文字の英字とアンダースコアのみにマッチします: [A-Z_][A-Z0-9_]*
  • 変数名はすべて大文字である必要があります(例: ${APIYI_API_KEY}
  • 小文字の変数名(${apiKey} など)は置換されません
  • 設定されていない環境変数があると、設定の読み込み時にエラーが発生します

推奨される標準的な命名: APIYI_API_KEYQWEN_API_KEYTELEGRAM_BOT_TOKEN

Q4: タスクごとに異なるモデルを使い分けるには?

imageModel とエイリアス(別名)設定を使用することで実現できます。

"agents": {
  "defaults": {
    "model": {
      "primary": "apiyi/claude-opus-4-5-20251101"
    },
    "imageModel": "apiyi/gpt-4o",
    "models": {
      "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
      "apiyi/gpt-4o": { "alias": "vision" }
    }
  }
}
  • テキストタスクは自動的に primary モデル(Claude Opus)を使用します
  • 画像タスクは自動的に imageModel(GPT-4o)を使用します
  • /model vision のように手動で切り替えることも可能です
Q5: OpenAI互換のどのサービスをサポートしていますか?

MoltBot は、OpenAI API 仕様に準拠したすべてのサービスをサポートしています。

サービスタイプ 推奨度
API プロキシ APIYI (apiyi.com) 推奨 (複数モデルを統合管理可能)
公式 API OpenAI, Anthropic, Google 公式ならではの安定性
ローカルデプロイ Ollama, LM Studio, vLLM プライバシー優先
その他のプロキシ Groq, Together AI 必要に応じて選択

APIYI(apiyi.com)の利点は、1つのキーで複数の大規模言語モデルを呼び出せるため、個別に登録する手間が省けることです。


MoltBot API プロキシ設定: まとめと推奨事項

この記事を通じて、MoltBot で API プロキシを設定する完全な方法をマスターしました。

  1. 設定構造の理解: models.providers でサービスを定義し、agents.defaults で使用戦略を定義します。
  2. 複数プロバイダーの設定: 複数の API サービスを同時に導入し、可用性を高めます。
  3. フォールバックの設定: メインモデルが失敗した際に、予備モデルへ自動で切り替えます。
  4. エイリアスの活用: /model alias コマンドでモデルを素早く切り替えます。

ベストプラクティス

推奨事項 説明
環境変数を使用する 設定ファイルに API キーをプレーンテキストで保存しないでください
フォールバックを設定する 最低でも1〜2個の予備モデルを設定しておきましょう
mode: merge を設定する デフォルト設定を維持し、互換性を高めます
API 入口を統一する APIYI を使用して複数モデルの管理を簡素化します

主要な API プロキシサービスとして APIYI(apiyi.com)の利用をお勧めします。このプラットフォームは Claude、GPT、Gemini などの主要モデルへの統一的なアクセスを提供しており、設定が簡単で柔軟な課金体系に対応しているため、MoltBot のマルチモデル切り替えシーンに最適です。


参考資料

  1. MoltBot 公式ドキュメント – Models: モデル設定の詳細

    • リンク: docs.molt.bot/concepts/models
    • 説明: 公式モデル設定ガイド
  2. MoltBot 公式ドキュメント – Configuration: 完全な設定リファレンス

    • リンク: docs.molt.bot/gateway/configuration
    • 説明: すべての設定項目の詳細解説
  3. MoltBot 公式ドキュメント – Model Providers: プロバイダーの設定

    • リンク: docs.molt.bot/concepts/model-providers
    • 説明: カスタムプロバイダーの設定方法
  4. MoltBot GitHub: ソースコードと Issue での議論

    • リンク: github.com/moltbot/moltbot
    • 説明: 最新バージョンとフィードバック

本文執筆: APIYI Team | さらなる AI 技術の共有については、APIYI apiyi.com をご覧ください。

更新日: 2026年1月

コメントする