MoltBot API-Proxy-Konfiguration: Vollständige Anleitung in 3 Schritten zur Anbindung von Claude Opus und weiteren Modellen

Möchten Sie MoltBot mit Claude Opus 4.5 oder anderen Großen Sprachmodellen verbinden, wissen aber nicht, wie Sie den API-Proxy konfigurieren sollen? In diesem Artikel zeige ich Ihnen Schritt für Schritt, wie Sie die MoltBot Multi-Provider-Konfiguration einrichten, damit Ihr AI-Assistent gleichzeitig auf mehrere Modelldienste zugreifen kann – für intelligentes Umschalten und Ausfallsicherheit.

Kernnutzen: Nach der Lektüre dieses Artikels werden Sie die models.providers-Konfiguration von MoltBot beherrschen. Sie lernen, Primärmodelle, Fallback-Modelle und Modell-Aliase einzurichten, um einen stabilen und zuverlässigen AI-Assistenten aufzubauen.

moltbot-api-proxy-configuration-guide-de 图示


MoltBot API-Proxy-Konfiguration: Analyse der Kernkonzepte

MoltBot unterstützt die Anbindung an fast alle gängigen Großen Sprachmodelle über eine OpenAI-kompatible API. Das Verständnis der folgenden Kernkonzepte ist entscheidend für eine erfolgreiche Konfiguration.

MoltBot Konfigurationssystem

Konfigurationsdatei Pfad Verwendungszweck
moltbot.json ~/.moltbot/ Globaler Konfigurationseinstieg
models.json ~/.moltbot/agents/<agentId>/ Modellkonfiguration auf Agent-Ebene
auth-profiles.json ~/.moltbot/agents/<agentId>/ Speicherung von Authentifizierungsinformationen

MoltBot Provider-Konfiguration: Kernfelder

Jede Provider-Konfiguration enthält die folgenden wichtigen Felder:

Feld Typ Beschreibung Erforderlich
baseUrl string API-Endpunkt-Adresse Ja
apiKey string API-Key (unterstützt Umgebungsvariablen) Ja
api string API-Protokolltyp Ja
models array Liste der verfügbaren Modelle Ja

Erläuterung der API-Protokolltypen

MoltBot unterstützt zwei gängige OpenAI-kompatible Protokolle:

Protokolltyp Beschreibung Anwendungsszenario
openai-completions Standard Chat Completions API Die meisten Proxy-Dienste
openai-responses Responses API (inkl. Tool-Aufrufe) Lokale Modelle, fortgeschrittene Szenarien

🎯 Konfigurationsempfehlung: Die meisten API-Proxy-Dienste (wie APIYI apiyi.com) verwenden das openai-completions-Protokoll. Wenn Sie ein lokal bereitgestelltes LM Studio oder Ollama verwenden, müssen Sie openai-responses nutzen.


Hier ist ein praxisnahes Beispiel für eine Multi-Provider-Konfiguration, die gleichzeitig die Dienste von APIYI und dem Qwen Portal einbindet:

moltbot-api-proxy-configuration-guide-de 图示

Beispiel einer vollständigen Konfigurationsdatei

{
  "models": {
    "providers": {
      "qwen-portal": {
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "${QWEN_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "coder-model", "name": "Qwen Coder", "contextWindow": 128000 },
          { "id": "vision-model", "name": "Qwen Vision", "contextWindow": 128000 }
        ]
      },
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "claude-opus-4-5-20251101", "name": "Claude Opus 4.5", "contextWindow": 200000 },
          { "id": "claude-sonnet-4-20250514", "name": "Claude Sonnet 4", "contextWindow": 200000 },
          { "id": "gpt-4o", "name": "GPT-4o", "contextWindow": 128000 }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101",
        "fallbacks": ["qwen-portal/vision-model"]
      },
      "models": {
        "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
        "apiyi/claude-sonnet-4-20250514": { "alias": "sonnet" },
        "qwen-portal/coder-model": { "alias": "qwen" }
      }
    }
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "botToken": "${TELEGRAM_BOT_TOKEN}"
    }
  }
}

Details zur Konfigurationsstruktur

1. Der Bereich models.providers

Dies ist das Kernstück zur Definition der API-Proxy-Dienste:

"providers": {
  "apiyi": {
    "baseUrl": "https://api.apiyi.com/v1",
    "apiKey": "${APIYI_API_KEY}",
    "api": "openai-completions",
    "models": [...]
  }
}
  • Provider ID (apiyi): Ein benutzerdefinierter Bezeichner für den Dienst, der später zur Referenzierung verwendet wird.
  • baseUrl: Der API-Endpunkt; dieser muss zwingend auf /v1 enden.
  • apiKey: Unterstützt die direkte Eingabe oder die Verwendung von ${ENV_VAR} Umgebungsvariablen.
  • models: Die Liste der von diesem Provider unterstützten Modelle.

2. Der Bereich agents.defaults.model

Hier werden das Standardmodell und die Failover-Strategie (Ausfallsicherung) definiert:

"model": {
  "primary": "apiyi/claude-opus-4-5-20251101",
  "fallbacks": ["qwen-portal/vision-model"]
}
  • primary: Das Hauptmodell im Format provider-id/model-id.
  • fallbacks: Ein Array von Ersatzmodellen, auf die automatisch umgeschaltet wird, falls das Hauptmodell fehlschlägt.

3. Der Bereich agents.defaults.models

Definiert Modell-Aliase für einen schnellen Wechsel:

"models": {
  "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
  "qwen-portal/coder-model": { "alias": "qwen" }
}

Nachdem Aliase konfiguriert wurden, können Sie im Chat den Befehl /model opus nutzen, um das Modell blitzschnell zu wechseln.


MoltBot API-Proxy-Konfiguration: Schritt-für-Schritt-Anleitung

Schritt 1: API-Key erhalten

Bevor Sie mit der Konfiguration beginnen, müssen Sie Ihre API-Keys bereithalten:

Anbieter Bezugsweg Unterstützte Modelle
APIYI Registrierung unter apiyi.com Claude-Serie, GPT-Serie, Gemini usw.
Qwen Portal Besuch von portal.qwen.ai Qwen-Modellserie
OpenAI Besuch von platform.openai.com GPT-Serie
Anthropic Besuch von console.anthropic.com Claude-Serie

🚀 Schnellstart: Es wird empfohlen, APIYI (apiyi.com) als Haupt-Provider zu verwenden. Mit einem einzigen API-Key können Sie gängige Modelle wie Claude, GPT und Gemini aufrufen, ohne sich auf mehreren Plattformen einzeln registrieren zu müssen.

Schritt 2: Umgebungsvariablen festlegen

Aus Sicherheitsgründen wird empfohlen, API-Keys in Umgebungsvariablen zu speichern:

# Linux/macOS - Zu ~/.bashrc oder ~/.zshrc hinzufügen
export APIYI_API_KEY="sk-your-apiyi-key"
export QWEN_API_KEY="your-qwen-key"
export TELEGRAM_BOT_TOKEN="your-telegram-token"

# Konfiguration anwenden
source ~/.bashrc
# Windows PowerShell
$env:APIYI_API_KEY = "sk-your-apiyi-key"
$env:QWEN_API_KEY = "your-qwen-key"
$env:TELEGRAM_BOT_TOKEN = "your-telegram-token"

Schritt 3: Konfigurationsdatei bearbeiten

Öffnen oder erstellen Sie die MoltBot-Konfigurationsdatei:

# Konfigurationsdatei öffnen
nano ~/.moltbot/moltbot.json

# Oder mit VS Code öffnen
code ~/.moltbot/moltbot.json

Kopieren Sie die folgende Konfiguration in die Datei:

{
  "models": {
    "providers": {
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-opus-4-5-20251101",
            "name": "Claude Opus 4.5",
            "contextWindow": 200000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101"
      }
    }
  }
}

Schritt 4: Konfiguration überprüfen

Starten Sie MoltBot neu und überprüfen Sie, ob die Konfiguration übernommen wurde:

# MoltBot neu starten
moltbot restart

# Aktuelle Modellkonfiguration prüfen
moltbot models list

# Modellaufruf testen
moltbot chat "Hallo, bitte sag mir, welches Modell du bist."
Vollständiges Beispiel für eine Konfiguration mit mehreren Providern anzeigen
{
  "models": {
    "mode": "merge",
    "providers": {
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-opus-4-5-20251101",
            "name": "Claude Opus 4.5",
            "contextWindow": 200000,
            "maxTokens": 32000
          },
          {
            "id": "claude-sonnet-4-20250514",
            "name": "Claude Sonnet 4",
            "contextWindow": 200000,
            "maxTokens": 64000
          },
          {
            "id": "gpt-4o",
            "name": "GPT-4o",
            "contextWindow": 128000,
            "maxTokens": 16384
          },
          {
            "id": "gemini-2.5-pro",
            "name": "Gemini 2.5 Pro",
            "contextWindow": 1000000,
            "maxTokens": 65536
          }
        ]
      },
      "qwen-portal": {
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "${QWEN_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "coder-model",
            "name": "Qwen Coder",
            "contextWindow": 128000
          },
          {
            "id": "vision-model",
            "name": "Qwen Vision",
            "contextWindow": 128000
          }
        ]
      },
      "local-ollama": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-responses",
        "models": [
          {
            "id": "llama3.3:70b",
            "name": "Llama 3.3 70B",
            "contextWindow": 128000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "apiyi/claude-opus-4-5-20251101",
        "fallbacks": [
          "apiyi/claude-sonnet-4-20250514",
          "qwen-portal/vision-model",
          "local-ollama/llama3.3:70b"
        ]
      },
      "models": {
        "apiyi/claude-opus-4-5-20251101": {
          "alias": "opus",
          "params": { "temperature": 0.7 }
        },
        "apiyi/claude-sonnet-4-20250514": {
          "alias": "sonnet",
          "params": { "temperature": 0.5 }
        },
        "apiyi/gpt-4o": {
          "alias": "gpt"
        },
        "qwen-portal/coder-model": {
          "alias": "qwen"
        },
        "local-ollama/llama3.3:70b": {
          "alias": "llama"
        }
      },
      "imageModel": "apiyi/gpt-4o"
    }
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "botToken": "${TELEGRAM_BOT_TOKEN}"
    },
    "discord": {
      "enabled": false,
      "token": "${DISCORD_BOT_TOKEN}"
    }
  }
}

💡 Konfigurations-Tipp: Mit "mode": "merge" können Sie die integrierten Modellkonfigurationen von MoltBot beibehalten und gleichzeitig Ihre eigenen Provider hinzufügen. So kann das System auf Standardkonfigurationen zurückgreifen, falls Ihre benutzerdefinierten Dienste nicht verfügbar sind.


MoltBot-Modellkonfiguration: Fortgeschrittene Parameter im Detail

Vollständige Felder für Modelleinträge

moltbot-api-proxy-configuration-guide-de 图示

Parameter Typ Erforderlich Beschreibung Beispiel
id string Ja Modell-ID, die beim Aufruf verwendet wird claude-opus-4-5-20251101
name string Ja Anzeigename des Modells Claude Opus 4.5
contextWindow number Nein Größe des Kontextfensters 200000
maxTokens number Nein Maximale Anzahl an Ausgabe-Token 32000
reasoning boolean Nein Gibt an, ob der Denkmodus unterstützt wird true
input array Nein Unterstützte Eingabetypen ["text", "image"]
cost object Nein Kosteninformationen {"input": 15, "output": 75}

Modellparameter-Konfiguration (params)

In agents.defaults.models können Sie für jedes Modell Standardparameter festlegen:

"models": {
  "apiyi/claude-opus-4-5-20251101": {
    "alias": "opus",
    "params": {
      "temperature": 0.7,
      "maxTokens": 16000
    }
  }
}
Parameter Bereich Beschreibung
temperature 0-2 Steuert die Zufälligkeit der Ausgabe; niedrigere Werte sind deterministischer.
maxTokens 1 bis Modell-Limit Maximale Ausgabelänge pro Antwort.

⚠️ Hinweis: temperature ist ein fortgeschrittener Parameter. Sofern Sie die Standardeinstellungen des Modells nicht genau kennen und eine Anpassung wirklich notwendig ist, wird empfohlen, diesen Wert nicht manuell zu setzen.


MoltBot Fallback-Konfiguration für Ausfallsicherheit

Der Fallback-Mechanismus ist eine wichtige Funktion von MoltBot, die sicherstellt, dass der KI-Assistent jederzeit verfügbar bleibt.

So funktioniert Fallback

Benutzeranfrage
    ↓
Primärmodell (primary)
    ↓ (Fehlgeschlagen)
Backup-Modell 1 (fallbacks[0])
    ↓ (Fehlgeschlagen)
Backup-Modell 2 (fallbacks[1])
    ↓ (Fehlgeschlagen)
...weitere Versuche

Empfohlene Fallback-Strategien

Strategie Konfigurationsbeispiel Anwendungsszenario
Serieninternes Downgrade Opus → Sonnet → Haiku Konsistenz im Stil beibehalten
Plattformübergreifendes Backup Claude → GPT → Gemini Maximale Verfügbarkeit
Kostenoptimierung Opus → Lokales Modell Kostenkontrolle
Hybrid-Strategie Cloud → Lokal → Cloud-Backup Umfassende Abwägung

Empfohlene Konfiguration:

"model": {
  "primary": "apiyi/claude-opus-4-5-20251101",
  "fallbacks": [
    "apiyi/claude-sonnet-4-20250514",
    "apiyi/gpt-4o",
    "qwen-portal/vision-model"
  ]
}

💰 Kostenoptimierung: Durch die Konfiguration von Fallbacks über APIYI apiyi.com können Sie automatisch zwischen mehreren Modellen wechseln und gleichzeitig von einer einheitlichen Abrechnung profitieren, was die Kostenkontrolle erleichtert.


MoltBot Modellwechsel: Praxistipps

Schneller Wechsel durch Aliase

Sobald Aliase konfiguriert sind, können Sie das Modell jederzeit während eines Gesprächs wechseln:

Du: /model opus
MoltBot: Umgeschaltet auf Claude Opus 4.5

Du: /model sonnet
MoltBot: Umgeschaltet auf Claude Sonnet 4

Du: /model qwen
MoltBot: Umgeschaltet auf Qwen Coder

Modelle für spezifische Aufgaben zuweisen

Du: /model gpt hilf mir, dieses Bild zu analysieren
MoltBot: [Analysiere Bild mit GPT-4o...]

Du: /model opus schreibe einen tiefgehenden technischen Artikel
MoltBot: [Schreibe mit Claude Opus...]

Aktuellen Modellstatus anzeigen

# In der Kommandozeile anzeigen
moltbot models list

# Im Chat anzeigen
Du: /model
MoltBot: Aktuelles Modell: apiyi/claude-opus-4-5-20251101 (Alias: opus)

MoltBot API-Proxy-Konfiguration: Häufig gestellte Fragen (FAQ)

Q1: Was tun, wenn nach der Konfiguration „API Key invalid“ angezeigt wird?

Dies deutet in der Regel auf ein Problem bei der API-Key-Konfiguration hin. Prüfen Sie bitte folgende Punkte:

  1. Stellen Sie sicher, dass die Umgebungsvariable korrekt gesetzt ist: echo $APIYI_API_KEY
  2. Überprüfen Sie, ob das Format des API-Keys korrekt ist (beginnt normalerweise mit sk-)
  3. Vergewissern Sie sich, dass der API-Key über ausreichendes Guthaben und die nötigen Berechtigungen verfügt
  4. Falls Sie den Key direkt in die Konfigurationsdatei geschrieben haben, prüfen Sie ihn auf überflüssige Leerzeichen oder Zeilenumbrüche

Der über APIYI (apiyi.com) bezogene API-Key hat das Format sk-xxx. Bitte stellen Sie sicher, dass Sie ihn vollständig kopiert haben.

Q2: Wie verwende ich lokale und Cloud-Modelle gleichzeitig?

Mit der Konfiguration "mode": "merge" können Sie sowohl lokale als auch Cloud-Modelle parallel nutzen:

{
  "models": {
    "mode": "merge",
    "providers": {
      "local-ollama": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-responses",
        "models": [...]
      },
      "apiyi": {
        "baseUrl": "https://api.apiyi.com/v1",
        "apiKey": "${APIYI_API_KEY}",
        "api": "openai-completions",
        "models": [...]
      }
    }
  }
}

Auf diese Weise kann automatisch ein Fallback auf den Cloud-Dienst erfolgen, falls das lokale Modell nicht verfügbar ist.

Q3: Was tun, wenn die Umgebungsvariable ${VAR} nicht funktioniert?

Für die Ersetzung von Umgebungsvariablen in MoltBot gelten folgende Regeln:

  • Es werden nur Großbuchstaben und Unterstriche erkannt: [A-Z_][A-Z0-9_]*
  • Variablennamen müssen komplett großgeschrieben werden, z. B. ${APIYI_API_KEY}
  • Kleingeschriebene Variablennamen wie ${apiKey} werden nicht ersetzt
  • Nicht gesetzte Umgebungsvariablen führen zu Fehlern beim Laden der Konfiguration

Wir empfehlen die Verwendung von Standard-Benennungen: APIYI_API_KEY, QWEN_API_KEY, TELEGRAM_BOT_TOKEN

Q4: Wie verwende ich unterschiedliche Modelle für verschiedene Aufgaben?

Dies lässt sich über imageModel und Aliase realisieren:

"agents": {
  "defaults": {
    "model": {
      "primary": "apiyi/claude-opus-4-5-20251101"
    },
    "imageModel": "apiyi/gpt-4o",
    "models": {
      "apiyi/claude-opus-4-5-20251101": { "alias": "opus" },
      "apiyi/gpt-4o": { "alias": "vision" }
    }
  }
}
  • Textaufgaben nutzen automatisch das Primary-Modell (Claude Opus)
  • Bildaufgaben nutzen automatisch das imageModel (GPT-4o)
  • Sie können auch manuell mit /model vision wechseln
Q5: Welche OpenAI-kompatiblen Dienste werden unterstützt?

MoltBot unterstützt alle Dienste, die dem OpenAI API-Standard entsprechen:

Diensttyp Beispiel Empfehlung
API-Proxy APIYI (apiyi.com) Empfohlen (Zentraler Zugriff auf viele Modelle)
Offizielle API OpenAI, Anthropic, Google Offiziell & Stabil
Lokale Bereitstellung Ollama, LM Studio, vLLM Fokus auf Datenschutz
Andere Proxys Groq, Together AI Nach Bedarf

Der Vorteil von APIYI (apiyi.com) ist, dass ein einziger Key ausreicht, um Modelle verschiedener Anbieter aufzurufen, ohne sich überall separat registrieren zu müssen.


MoltBot API-Proxy-Konfiguration: Zusammenfassung und Empfehlungen

In diesem Artikel haben Sie die vollständige Methode zur Konfiguration von API-Proxys in MoltBot kennengelernt:

  1. Konfigurationsstruktur verstehen: models.providers definiert die Dienste, agents.defaults definiert die Nutzungsstrategie.
  2. Mehrere Provider einrichten: Binden Sie mehrere API-Dienste gleichzeitig ein, um die Verfügbarkeit zu erhöhen.
  3. Fallback konfigurieren: Automatischer Wechsel auf ein Ersatzmodell, falls das Hauptmodell ausfällt.
  4. Aliase verwenden: Schneller Modellwechsel über den Befehl /model alias.

Best-Practice-Empfehlungen

Empfehlung Erläuterung
Umgebungsvariablen nutzen Speichern Sie API-Keys niemals im Klartext in der Konfigurationsdatei.
Fallback konfigurieren Richten Sie mindestens 1-2 Ersatzmodelle ein.
mode: merge einstellen Behalten Sie die Standardkonfiguration bei, um die Kompatibilität zu erhöhen.
Zentraler API-Zugang Nutzen Sie APIYI, um die Verwaltung mehrerer Modelle zu vereinfachen.

Wir empfehlen APIYI (apiyi.com) als primären API-Proxy-Dienst. Die Plattform bietet einen einheitlichen Zugang zu gängigen Modellen wie Claude, GPT und Gemini. Die Konfiguration ist einfach, die Abrechnung flexibel und sie eignet sich hervorragend für die Multi-Modell-Szenarien von MoltBot.


Referenzen

  1. MoltBot Offizielle Dokumentation – Models: Detaillierte Modellkonfiguration

    • Link: docs.molt.bot/concepts/models
    • Beschreibung: Offizieller Leitfaden zur Modellkonfiguration
  2. MoltBot Offizielle Dokumentation – Configuration: Vollständige Konfigurationsreferenz

    • Link: docs.molt.bot/gateway/configuration
    • Beschreibung: Detaillierte Erläuterung aller Konfigurationsoptionen
  3. MoltBot Offizielle Dokumentation – Model Providers: Provider-Konfiguration

    • Link: docs.molt.bot/concepts/model-providers
    • Beschreibung: Methoden zur Konfiguration benutzerdefinierter Provider
  4. MoltBot GitHub: Quellcode und Issue-Diskussionen

    • Link: github.com/moltbot/moltbot
    • Beschreibung: Neueste Versionen und Feedback zu Problemen

Autor dieses Artikels: APIYI Team | Für weiteren Austausch über KI-Technologie besuchen Sie gerne APIYI apiyi.com

Aktualisierungsdatum: Januar 2026

Schreibe einen Kommentar