Debugging
Es werden 2 Debugging-Stufen unterstützt.
- debug (zeigt Info-Logs an)
- detailed debug (zeigt Debug-Logs an)
Der Proxy unterstützt auch JSON-Logs. Siehe hier
debug​
über die CLI
$ litellm --debug
über Umgebungsvariablen
os.environ["LITELLM_LOG"] = "INFO"
detailed debug​
über die CLI
$ litellm --detailed_debug
über Umgebungsvariablen
os.environ["LITELLM_LOG"] = "DEBUG"
Debug-Logs​
Führen Sie den Proxy mit --detailed_debug aus, um detaillierte Debug-Logs anzuzeigen.
litellm --config /path/to/config.yaml --detailed_debug
Bei Anfragen sollten Sie die von LiteLLM an das LLM gesendete POST-Anfrage in der Terminalausgabe sehen.
POST Request Sent from LiteLLM:
curl -X POST \
https://api.openai.com/v1/chat/completions \
-H 'content-type: application/json' -H 'Authorization: Bearer sk-qnWGUIW9****************************************' \
-d '{"model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "this is a test request, write a short poem"}]}'
JSON LOGS​
Setzen Sie JSON_LOGS="True" in Ihren Umgebungsvariablen.
export JSON_LOGS="True"
ODER
Setzen Sie json_logs: true in Ihrer YAML-Datei.
litellm_settings:
json_logs: true
Proxy starten
$ litellm
Der Proxy gibt nun alle Logs im JSON-Format aus.
Log-Ausgabe steuern​
FastAPIs Standard-Logs (INFO) deaktivieren
- 'JSON Logs' aktivieren
litellm_settings:
json_logs: true
- Setzen Sie
LITELLM_LOGauf 'ERROR'
Logs nur bei einem Fehler erhalten.
LITELLM_LOG="ERROR"
- Proxy starten
$ litellm
Erwartete Ausgabe
# no info statements
Häufige Fehler​
- "Keine verfügbaren Deployments..."
No deployments available for selected model, Try again in 60 seconds. Passed model=claude-3-5-sonnet. pre-call-checks=False, allowed_model_region=n/a.
Dies kann daran liegen, dass alle Ihre Modelle Rate-Limit-Fehler aufweisen und der Cooldown aktiviert wird.
Wie kann man das steuern?
- Cooldowntzeit anpassen
router_settings:
cooldown_time: 0 # 👈 KEY CHANGE
- Cooldowns deaktivieren[NICHT EMPFOHLEN]
router_settings:
disable_cooldowns: True
Dies wird nicht empfohlen, da Anfragen dann an Deployments weitergeleitet werden, die ihr tpm/rpm-Limit überschreiten.