LiteLLM mit OpenAI Codex verwenden
Diese Anleitung führt Sie durch die Verbindung von OpenAI Codex mit LiteLLM. Die Verwendung von LiteLLM mit Codex ermöglicht Teams,
- Zugriff auf 100+ LLMs über die Codex-Oberfläche
- Leistungsstarke Modelle wie Gemini über eine vertraute Oberfläche nutzen
- Ausgaben und Nutzung mit den integrierten Analysen von LiteLLM verfolgen
- Modellzugriff mit virtuellen SchlĂĽsseln steuern

Schnellstart​
Erfordert LiteLLM v1.66.3.dev5 und höher
Stellen Sie sicher, dass Sie LiteLLM mit dem LiteLLM Getting Started Guide eingerichtet haben.
1. OpenAI Codex installieren​
Installieren Sie das OpenAI Codex CLI-Tool global mit npm
- npm
- yarn
npm i -g @openai/codex
yarn global add @openai/codex
2. LiteLLM Proxy starten​
- Docker
- LiteLLM CLI
docker run \
-v $(pwd)/litellm_config.yaml:/app/config.yaml \
-p 4000:4000 \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml
litellm --config /path/to/config.yaml
LiteLLM sollte nun unter https://:4000 laufen
3. LiteLLM für Modell-Routing konfigurieren​
Stellen Sie sicher, dass Ihr LiteLLM Proxy korrekt konfiguriert ist, um zu Ihren gewĂĽnschten Modellen zu leiten. Erstellen Sie eine Datei litellm_config.yaml mit folgendem Inhalt
model_list:
- model_name: o3-mini
litellm_params:
model: openai/o3-mini
api_key: os.environ/OPENAI_API_KEY
- model_name: claude-3-7-sonnet-latest
litellm_params:
model: anthropic/claude-3-7-sonnet-latest
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gemini-2.0-flash
litellm_params:
model: gemini/gemini-2.0-flash
api_key: os.environ/GEMINI_API_KEY
litellm_settings:
drop_params: true
Diese Konfiguration ermöglicht das Routing zu spezifischen OpenAI-, Anthropic- und Gemini-Modellen mit expliziten Namen.
4. Codex für die Verwendung von LiteLLM Proxy konfigurieren​
Legen Sie die erforderlichen Umgebungsvariablen fest, um Codex auf Ihren LiteLLM Proxy zu verweisen
# Point to your LiteLLM Proxy server
export OPENAI_BASE_URL=http://0.0.0.0:4000
# Use your LiteLLM API key (if you've set up authentication)
export OPENAI_API_KEY="sk-1234"
5. Codex mit Gemini ausführen​
Mit allem konfiguriert können Sie nun Codex mit Gemini ausführen
codex --model gemini-2.0-flash --full-auto

Das Flag --full-auto ermöglicht es Codex, Code automatisch ohne zusätzliche Aufforderungen zu generieren.
6. Erweiterte Optionen​
Verwendung anderer Modelle​
Sie können jedes Modell verwenden, das in Ihrem LiteLLM Proxy konfiguriert ist
# Use Claude models
codex --model claude-3-7-sonnet-latest
# Use Google AI Studio Gemini models
codex --model gemini/gemini-2.0-flash
Fehlerbehebung​
- Wenn Verbindungsprobleme auftreten, stellen Sie sicher, dass Ihr LiteLLM Proxy läuft und unter der angegebenen URL erreichbar ist
- ĂśberprĂĽfen Sie, ob Ihr LiteLLM API-SchlĂĽssel gĂĽltig ist, wenn Sie die Authentifizierung verwenden
- Stellen Sie sicher, dass Ihre Modell-Routing-Konfiguration korrekt ist
- Bei modellspezifischen Fehlern stellen Sie sicher, dass das Modell in Ihrer LiteLLM-Einrichtung ordnungsgemäß konfiguriert ist