Zum Hauptinhalt springen

LiteLLM mit OpenAI Codex verwenden

Diese Anleitung führt Sie durch die Verbindung von OpenAI Codex mit LiteLLM. Die Verwendung von LiteLLM mit Codex ermöglicht Teams,

  • Zugriff auf 100+ LLMs ĂĽber die Codex-Oberfläche
  • Leistungsstarke Modelle wie Gemini ĂĽber eine vertraute Oberfläche nutzen
  • Ausgaben und Nutzung mit den integrierten Analysen von LiteLLM verfolgen
  • Modellzugriff mit virtuellen SchlĂĽsseln steuern

Schnellstart​

Info

Erfordert LiteLLM v1.66.3.dev5 und höher

Stellen Sie sicher, dass Sie LiteLLM mit dem LiteLLM Getting Started Guide eingerichtet haben.

1. OpenAI Codex installieren​

Installieren Sie das OpenAI Codex CLI-Tool global mit npm

npm i -g @openai/codex

2. LiteLLM Proxy starten​

docker run \
-v $(pwd)/litellm_config.yaml:/app/config.yaml \
-p 4000:4000 \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml

LiteLLM sollte nun unter https://:4000 laufen

3. LiteLLM für Modell-Routing konfigurieren​

Stellen Sie sicher, dass Ihr LiteLLM Proxy korrekt konfiguriert ist, um zu Ihren gewĂĽnschten Modellen zu leiten. Erstellen Sie eine Datei litellm_config.yaml mit folgendem Inhalt

model_list:
- model_name: o3-mini
litellm_params:
model: openai/o3-mini
api_key: os.environ/OPENAI_API_KEY
- model_name: claude-3-7-sonnet-latest
litellm_params:
model: anthropic/claude-3-7-sonnet-latest
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gemini-2.0-flash
litellm_params:
model: gemini/gemini-2.0-flash
api_key: os.environ/GEMINI_API_KEY

litellm_settings:
drop_params: true

Diese Konfiguration ermöglicht das Routing zu spezifischen OpenAI-, Anthropic- und Gemini-Modellen mit expliziten Namen.

4. Codex für die Verwendung von LiteLLM Proxy konfigurieren​

Legen Sie die erforderlichen Umgebungsvariablen fest, um Codex auf Ihren LiteLLM Proxy zu verweisen

# Point to your LiteLLM Proxy server
export OPENAI_BASE_URL=http://0.0.0.0:4000

# Use your LiteLLM API key (if you've set up authentication)
export OPENAI_API_KEY="sk-1234"

5. Codex mit Gemini ausführen​

Mit allem konfiguriert können Sie nun Codex mit Gemini ausführen

codex --model gemini-2.0-flash --full-auto

Das Flag --full-auto ermöglicht es Codex, Code automatisch ohne zusätzliche Aufforderungen zu generieren.

6. Erweiterte Optionen​

Verwendung anderer Modelle​

Sie können jedes Modell verwenden, das in Ihrem LiteLLM Proxy konfiguriert ist

# Use Claude models
codex --model claude-3-7-sonnet-latest

# Use Google AI Studio Gemini models
codex --model gemini/gemini-2.0-flash

Fehlerbehebung​

  • Wenn Verbindungsprobleme auftreten, stellen Sie sicher, dass Ihr LiteLLM Proxy läuft und unter der angegebenen URL erreichbar ist
  • ĂśberprĂĽfen Sie, ob Ihr LiteLLM API-SchlĂĽssel gĂĽltig ist, wenn Sie die Authentifizierung verwenden
  • Stellen Sie sicher, dass Ihre Modell-Routing-Konfiguration korrekt ist
  • Bei modellspezifischen Fehlern stellen Sie sicher, dass das Modell in Ihrer LiteLLM-Einrichtung ordnungsgemäß konfiguriert ist

Zusätzliche Ressourcen​