Diese Version bereitstellen​
- Docker
- Pip
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.67.4-stable
pip install litellm==1.67.4.post1
Wichtige Highlights​
- Verbessertes Benutzermanagement: Diese Veröffentlichung ermöglicht die Suche und Filterung von Benutzern, Schlüsseln, Teams und Modellen.
- Responses API Load Balancing: Routet Anfragen über Provider-Regionen und sorgt für Sitzungskontinuität.
- UI-Sitzungsprotokolle: Gruppiert mehrere Anfragen an LiteLLM zu einer Sitzung.
Verbessertes Benutzermanagement​
Diese Veröffentlichung erleichtert die Verwaltung von Benutzern und Schlüsseln auf LiteLLM. Sie können jetzt Benutzer, Schlüssel, Teams und Modelle durchsuchen und filtern und Benutzereinstellungen einfacher steuern.
Neue Funktionen umfassen
- Suche nach Benutzern nach E-Mail, ID, Rolle oder Team.
- Alle Modelle, Teams und SchlĂĽssel eines Benutzers an einem Ort anzeigen.
- Benutzerrollen und Modellzugriff direkt vom Tab "Benutzer" ändern.
Diese Änderungen helfen Ihnen, weniger Zeit für die Einrichtung und Verwaltung von Benutzern auf LiteLLM aufzuwenden.
Responses API Load Balancing​
Diese Veröffentlichung führt Load Balancing für die Responses API ein, wodurch Sie Anfragen über Provider-Regionen leiten und die Sitzungskontinuität gewährleisten können. Es funktioniert wie folgt:
- Wenn eine
previous_response_idangegeben ist, leitet LiteLLM die Anfrage an die ursprüngliche Bereitstellung weiter, die die vorherige Antwort generiert hat - wodurch die Sitzungskontinuität gewährleistet wird. - Wenn keine
previous_response_idangegeben ist, verteilt LiteLLM die Anfragen auf Ihre verfĂĽgbaren Bereitstellungen.
UI-Sitzungsprotokolle​
Diese Veröffentlichung ermöglicht es Ihnen, Anfragen an den LiteLLM-Proxy zu einer Sitzung zu gruppieren. Wenn Sie eine 'litellm_session_id' in Ihrer Anfrage angeben, gruppiert LiteLLM automatisch alle Protokolle in derselben Sitzung. Dies ermöglicht es Ihnen, die Nutzung und den Anfrageinhalt pro Sitzung einfach zu verfolgen.
Neue Modelle / Aktualisierte Modelle​
- OpenAI
- Kostenverfolgung fĂĽr 'gpt-image-1' hinzugefĂĽgt Erste Schritte
- Fehlerbehebung: Kostenverfolgung für gpt-image-1 hinzugefügt, wenn die Qualität nicht angegeben ist PR
- Azure
- Zeitstempel-Granularitäten an Whisper in Azure übergeben, korrigiert Erste Schritte
- Preise fĂĽr azure/gpt-image-1 hinzugefĂĽgt Erste Schritte, PR
- Kostenverfolgung fĂĽr 'azure/computer-use-preview', 'azure/gpt-4o-audio-preview-2024-12-17', 'azure/gpt-4o-mini-audio-preview-2024-12-17' hinzugefĂĽgt PR
- Bedrock
- UnterstĂĽtzung fĂĽr alle kompatiblen Bedrock-Parameter hinzugefĂĽgt, wenn model="arn:.." (Bedrock-Anwendungsinferenzprofil-Modelle) Erste Schritte, PR
- Falsche System-Prompt-Transformation korrigiert PR
- VertexAI / Google AI Studio
- Setzen von 'budget_tokens=0' fĂĽr 'gemini-2.5-flash' zulassen Erste Schritte, PR
- Sicherstellen, dass die zurĂĽckgegebene 'usage' die Denk-Token-Nutzung einschlieĂźt PR
- Kostenverfolgung fĂĽr 'gemini-2.5-pro-preview-03-25' hinzugefĂĽgt PR
- Cohere
- UnterstĂĽtzung fĂĽr cohere command-a-03-2025 hinzugefĂĽgt Erste Schritte, PR
- SageMaker
- UnterstĂĽtzung fĂĽr den Parameter 'max_completion_tokens' hinzugefĂĽgt Erste Schritte, PR
- Antworten API
- UnterstĂĽtzung fĂĽr GET- und DELETE-Operationen hinzugefĂĽgt -
/v1/responses/{response_id}Erste Schritte - SitzungsmanagementunterstĂĽtzung fĂĽr Nicht-OpenAI-Modelle hinzugefĂĽgt PR
- Routing-Affinität hinzugefügt, um Modellkonsistenz innerhalb von Sitzungen aufrechtzuerhalten Erste Schritte, PR
- UnterstĂĽtzung fĂĽr GET- und DELETE-Operationen hinzugefĂĽgt -
Verbesserungen bei der Ausgabenverfolgung​
- Fehlerbehebung: Fehler bei der Spend-Nachverfolgung behoben, sodass Standard-LiteLLM-Parameter nicht im Speicher geändert werden PR
- Einstellungstermine: Einstellungstermine fĂĽr Azure-, VertexAI-Modelle hinzugefĂĽgt PR
Management Endpunkte / UI​
Benutzer​
Filterung und Suche:
- Benutzer nach user_id, Rolle, Team, sso_id filtern
- Benutzer nach E-Mail suchen
Benutzerinformationsbereich: Ein neuer Benutzerinformationsbereich wurde hinzugefĂĽgt PR
- Teams, SchlĂĽssel, Modelle anzeigen, die mit dem Benutzer verbunden sind
- Benutzerrolle, Modellberechtigungen bearbeiten
Teams​
Schlüssel​
- SchlĂĽsselverwaltung:
UI-Protokollseite​
- Sitzungsprotokolle: UI-Sitzungsprotokolle hinzugefĂĽgt Erste Schritte
UI-Authentifizierung & Sicherheit​
- Authentifizierung erforderlich: FĂĽr alle Dashboard-Seiten ist jetzt eine Authentifizierung erforderlich PR
- SSO-Korrekturen: UngĂĽltigen Token-Fehler bei der SSO-Benutzeranmeldung behoben PR
- [BETA] VerschlĂĽsselte Token: UI auf verschlĂĽsselte Token-Nutzung umgestellt PR
- Token-Ablauf: Token-Aktualisierung durch erneutes Weiterleiten zur Anmeldeseite unterstĂĽtzt (behebt ein Problem, bei dem ein abgelaufener Token eine leere Seite zeigte) PR
Allgemeine UI-Korrekturen​
- UI-Flackern behoben: UI-Flackerprobleme im Dashboard behoben PR
- Verbesserte Terminologie: Bessere Lade- und Keine-Daten-Zustände auf den Seiten für Schlüssel und Tools PR
- Azure-Modellunterstützung: Bearbeiten von Azure-öffentlichen Modellnamen und Ändern von Modellnamen nach der Erstellung korrigiert PR
- Team-Modellauswahl: Fehlerbehebung fĂĽr die Team-Modellauswahl PR
Logging / Guardrail Integrationen​
- Datadog:
- Datadog LLM-Observability-Protokollierung korrigiert Erste Schritte, PR
- Prometheus / Grafana:
- Auswahl der Datenquelle auf der LiteLLM Grafana-Vorlage aktiviert Erste Schritte, PR
- AgentOps:
- AgentOps-Integration hinzugefĂĽgt Erste Schritte, PR
- Arize:
- Fehlende Attribute fĂĽr Arize & Phoenix Integration hinzugefĂĽgt Erste Schritte, PR
Allgemeine Proxy-Verbesserungen​
- Caching: Caching korrigiert, um 'thinking' oder 'reasoning_effort' bei der Berechnung des Cache-SchlĂĽssels zu berĂĽcksichtigen PR
- Modellgruppen: Handhabung von Fällen korrigiert, in denen der Benutzer 'model_group' innerhalb von 'model_info' setzt PR
- Passthrough-Endpunkte: Sichergestellt, dass 'PassthroughStandardLoggingPayload' mit Methode, URL, Anfrage-/Antwortkörper protokolliert wird PR
- SQL-Injection beheben: Mögliche SQL-Injection-Schwachstelle in 'spend_management_endpoints.py' behoben PR
Helm​
- serviceAccountName im Migrationsjob korrigiert PR
Vollständige Changelog​
Die vollständige Liste der Änderungen finden Sie in den GitHub Release Notes.
