Erhalten Sie hier einen 7-tägigen kostenlosen Test für LiteLLM Enterprise hier.
kein Aufruf erforderlich
Neue Modelle / Aktualisierte Modelle
- Neuer OpenAI
/image/variationsEndpunkt BETA-Unterstützung Docs - Topaz API-Unterstützung auf dem OpenAI
/image/variationsBETA-Endpunkt Docs - Deepseek - r1-Unterstützung mit reasoning_content (Deepseek API, Vertex AI, Bedrock)
- Azure - Azure O1-Preise hinzufügen Hier ansehen
- Anthropic -
-latest-Tag im Modell für die Kostenberechnung handhaben - Gemini-2.0-flash-thinking - Modellpreise hinzufügen (es sind 0,0) Hier ansehen
- Bedrock - Preise für das Modell stability sd3 hinzufügen Hier ansehen (s/o Marty Sullivan)
- Bedrock -
us.amazon.nova-lite-v1:0zur Modellkosten-Map hinzufügen Hier ansehen - TogetherAI - neue Together_AI Llama3.3-Modelle hinzufügen Hier ansehen
LLM-Übersetzung
- LM Studio -> asynchronen Embedding-Aufruf korrigieren
- Gpt 4o Modelle - Übersetzung von
response_formatkorrigieren - Bedrock Nova - unterstützte Dokumenttypen auf .md, .csv usw. erweitern Hier starten
- Bedrock - Dokumente zur IAM-rollenbasierter Zugriffskontrolle für Bedrock - Hier starten
- Bedrock - IAM-Rollenanmeldeinformationen bei Verwendung cachen
- Google AI Studio (
gemini/) - unterstützt 'frequency_penalty' und 'presence_penalty' von Gemini - Azure O1 - Modellnamensprüfung korrigieren
- WatsonX - ZenAPIKey-Unterstützung für WatsonX Docs
- Ollama Chat - Unterstützung für JSON-Schema-Antwortformat Hier starten
- Bedrock - gibt den korrekten Bedrock-Statuscode und die Fehlermeldung zurück, wenn ein Fehler während des Streamings auftritt
- Anthropic - unterstützte verschachtelte JSON-Schemata in Anthropic-Aufrufen
- OpenAI - Vorschauunterstützung für den
metadata-Parameter- SDK - aktivieren über
litellm.enable_preview_features = True - PROXY - aktivieren über
litellm_settings::enable_preview_features: true
- SDK - aktivieren über
- Replicate - Completion-Antwort bei Status=processing erneut versuchen
Verbesserungen bei der Ausgabenverfolgung
- Bedrock - QA-Assertions, dass alle Bedrock-Regionenmodelle die gleichen
supported_wie das Basismodell haben - Bedrock - Kostenverfolgung für Bedrock Converse mit angegebenem Regionsnamen korrigieren
- Zuverlässigkeitskorrektur von Spend Logs - wenn
userim Anfragekörper als Integer statt als String übergeben wird - Stellt sicher, dass die Kostenverfolgung für 'base_model' über alle Endpunkte hinweg funktioniert
- Korrekturen für die Kostenverfolgung bei Bilderzeugung
- Anthropic - Kostenverfolgung für Endbenutzer von Anthropic korrigieren
- JWT / OIDC Auth - Verfolgung der Endbenutzer-ID aus der JWT-Authentifizierung hinzufügen
Management Endpunkte / UI
- Ermöglicht es Teammitgliedern, nach dem Hinzufügen Administrator zu werden (UI + Endpunkte)
- Neue Schaltfläche "Bearbeiten/Löschen" zum Aktualisieren der Teammitgliedschaft in der UI
- Wenn Team-Admin - zeigt alle Team-Schlüssel an
- Model Hub - Kosten von Modellen pro 1 Mio. Token verdeutlichen
- Einladungslinks - Ungültige URL korrigieren
- Neu - SpendLogs Table Viewer - Ermöglicht Proxy-Admins das Anzeigen von Spend-Protokollen in der UI
- Neue Spend-Protokolle - Ermöglicht Proxy-Admins, das Protokollieren von Anfragen/Antworten in der Spend-Protokoll-Tabelle zu aktivieren - ermöglicht einfachere Missbrauchserkennung
- Herkunftsland in Spend-Protokollen anzeigen
- Paginierung + Filterung nach Schlüsselname/Teamname hinzufügen
/key/delete- Ermöglicht Team-Admins das Löschen von Team-Schlüsseln- Interner Benutzer "Ansicht" - Spendkalkulation korrigieren, wenn ein Team ausgewählt ist
- Modellanalysen sind jetzt kostenlos
- Nutzungsseite - zeigt Tage mit Spenden = 0 an und rundet Spenden in Diagrammen auf 2 signifikante Stellen
- Öffentliche Teams - Ermöglicht Administratoren, Teams für neue Benutzer zum "Beitreten" in der UI anzuzeigen - Hier starten
- Guardrails
- Guardrails für einen virtuellen Schlüssel festlegen/bearbeiten
- Guardrails für ein Team festlegen
- Guardrails auf der Erstellungs- und Bearbeitungsseite für Teams festlegen
- Unterstützt temporäre Budgeterhöhungen bei
/key/update- neue Feldertemp_budget_increaseundtemp_budget_expiry- Hier starten - Unterstützt das Schreiben neuer Schlüssel-Aliase in AWS Secret Manager - bei Schlüsselrotation Hier starten
Helm
securityContextundpull policy-Werte zum Migrationsjob hinzufügen (s/o https://github.com/Hexoplon)- Umgebungsvariablen in
values.yamlfestlegen - neuer Helm Lint-Test
Logging / Guardrail Integrationen
- Verwendeten Prompt protokollieren, wenn Prompt-Management verwendet wird. Hier starten
- Unterstützung für S3-Protokollierung mit Team-Alias-Präfixen - Hier starten
- Prometheus Hier starten
- Korrigiert, dass die Metrik
litellm_llm_api_time_to_first_tokenfür Bedrock-Modelle nicht befüllt wird - Restliches Team-Budget-Metrik regelmäßig ausgeben (auch wenn kein Aufruf erfolgt) - ermöglicht stabilere Metriken auf Grafana/etc.
- Schlüssel- und Teamebene-Budget-Metriken hinzufügen
litellm_overhead_latency_metricausgebenlitellm_team_budget_reset_at_metricundlitellm_api_key_budget_remaining_hours_metricausgeben
- Korrigiert, dass die Metrik
- Datadog - Unterstützt das Protokollieren von Spend-Tags in Datadog. Hier starten
- Langfuse - Protokollierung von Request-Tags korrigieren, aus Standard-Logging-Payload lesen
- GCS - Payload bei der Protokollierung nicht abschneiden
- Neue GCS Pub/Sub Logging-Unterstützung Hier starten
- AIM Guardrails-Unterstützung hinzufügen Hier starten
Sicherheit
- Neue Enterprise SLA für die Behebung von Sicherheitslücken. Hier ansehen
- Hashicorp - Unterstützt die Verwendung von Vault-Namespaces für TLS-Authentifizierung. Hier starten
- Azure - DefaultAzureCredential-Unterstützung
Health Checks
- Bereinigt Modellnamen nur für Preise aus der Wildcard-Routenliste - verhindert fehlerhafte Health Checks
- Ermöglicht die Angabe eines Health-Check-Modells für Wildcard-Routen - https://docs.litellm.de/docs/proxy/health#wildcard-routes
- Neuer Parameter
health_check_timeoutmit einem Standard-Oberlimit von 1 Minute, um zu verhindern, dass ein fehlerhaftes Modell den Health Check blockiert und Pod-Neustarts verursacht. Hier starten - Datadog - fügt Datadog Service Health Check hinzu + stellt den neuen Endpunkt
/health/servicesbereit. Hier starten
Leistungs- / Zuverlässigkeitsverbesserungen
- 3x Erhöhung der RPS - Wechsel zu orjson für das Lesen des Anfragekörpers
- LLM-Routing-Beschleunigung - Verwendung von gecachtem Modellgruppeninformationsabruf
- SDK-Beschleunigung - Verwendung von gecachtem Modellinformationshelfer - reduziert CPU-Arbeit für den Abruf von Modellinformationen
- Proxy-Beschleunigung - liest den Anfragekörper nur 1 Mal pro Anfrage
- Skripte zur Erkennung von Endlosschleifen zum Codebase hinzugefügt
- Bedrock - reine asynchrone Bildtransformationsanfragen
- Wartezeiten - Einzelnes Deployment-Modellgruppe, wenn 100% der Aufrufe bei hohem Datenverkehr fehlschlagen - verhindert, dass ein O1-Ausfall andere Aufrufe beeinträchtigt
- Antwort-Header - geben Sie zurück
x-litellm-timeoutx-litellm-attempted-retriesx-litellm-overhead-duration-msx-litellm-response-duration-ms
- Stellt sicher, dass keine doppelten Rückrufe zum Proxy hinzugefügt werden
- Requirements.txt - certifi-Version erhöhen
Allgemeine Proxy-Verbesserungen
- JWT / OIDC Auth - neuer Parameter
enforce_rbac, ermöglicht Proxy-Admin, alle nicht zugeordneten, aber authentifizierten JWT-Tokens vom Aufruf des Proxys abzuhalten. Hier starten - Korrigiert die Generierung von benutzerdefinierten OpenAPI-Schemas für angepasste Swagger-Docs
- Anfrage-Header - unterstützt das Lesen des Parameters
x-litellm-timeoutaus den Anfrage-Headern. Ermöglicht die Steuerung der Modell-Timeout-Zeit bei Verwendung von Vercel's AI SDK + LiteLLM Proxy. Hier starten - JWT / OIDC Auth - neue
role-basierte Berechtigungen für die Modellauthentifizierung. Hier ansehen
Vollständiger Git-Diff
Dies ist der Diff zwischen v1.57.8-stable und v1.59.8-stable.
Verwenden Sie dies, um die Änderungen im Codebase zu sehen.