guardrails, logging, virtuelles SchlĂĽsselmanagement, neue Modelle
Erhalten Sie hier einen 7-tägigen kostenlosen Test für LiteLLM Enterprise hier.
kein Aufruf erforderlich
Neue Funktionen​
✨ Guardrail-Traces protokollieren​
Verfolgen Sie die Fehlerrate von Guardrails und ob ein Guardrail fehlerhaft ist und Anfragen ablehnt. Start hier
Erfolgreiche Guardrail-Nachverfolgung
Fehlgeschlagene Guardrail-Nachverfolgung
/guardrails/list​
/guardrails/list ermöglicht es Clients, verfügbare Guardrails + unterstützte Guardrail-Parameter anzuzeigen.
curl -X GET 'http://0.0.0.0:4000/guardrails/list'
Erwartete Antwort
{
"guardrails": [
{
"guardrail_name": "aporia-post-guard",
"guardrail_info": {
"params": [
{
"name": "toxicity_score",
"type": "float",
"description": "Score between 0-1 indicating content toxicity level"
},
{
"name": "pii_detection",
"type": "boolean"
}
]
}
}
]
}
✨ Guardrails mit Mock LLM​
Senden Sie eine mock_response, um Guardrails zu testen, ohne einen LLM-Aufruf zu tätigen. Weitere Informationen zu mock_response finden Sie hier.
curl -i https://:4000/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-npnwjPQciVRok5yNZgKmFQ" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [
{"role": "user", "content": "hi my email is ishaan@berri.ai"}
],
"mock_response": "This is a mock response",
"guardrails": ["aporia-pre-guard", "aporia-post-guard"]
}'
Schlüssel Benutzern zuweisen​
Sie können jetzt Schlüssel über die Proxy-Benutzeroberfläche Benutzern zuweisen.
Neue Modelle​
openrouter/openai/o1vertex_ai/mistral-large@2411
Korrekturen​
- Preise fĂĽr
vertex_ai/mistral-Modelle korrigiert: https://github.com/BerriAI/litellm/pull/7345 - Fehlendes Feld model_group in Protokollen fĂĽr aspeech-Aufruftypen https://github.com/BerriAI/litellm/pull/7392