Dies sind die Änderungen seit v1.63.2-stable.
Diese Version konzentriert sich hauptsächlich auf
- [Beta]Responses API-UnterstĂĽtzung
- Snowflake Cortex UnterstĂĽtzung, Amazon Nova Bildgenerierung
- UI - Anmeldedatenverwaltung, Wiederverwendung von Anmeldedaten beim HinzufĂĽgen neuer Modelle
- UI - Testen der Verbindung zum LLM-Anbieter vor dem HinzufĂĽgen eines Modells
Bekannte Probleme​
- 🚨 Bekanntes Problem bei Azure OpenAI - Wir empfehlen kein Upgrade, wenn Sie Azure OpenAI verwenden. Diese Version ist bei unserem Azure OpenAI Lasttest fehlgeschlagen.
Docker Run LiteLLM Proxy​
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.63.11-stable
Demo-Instanz​
Hier ist eine Demo-Instanz, um Änderungen zu testen
- Instanz: https://demo.litellm.ai/
- Anmeldedaten
- Benutzername: admin
- Passwort: sk-1234
Neue Modelle / Aktualisierte Modelle​
- BildgenerierungsunterstĂĽtzung fĂĽr Amazon Nova Canvas. Erste Schritte
- Preise fĂĽr neue Jamba-Modelle hinzugefĂĽgt. PR
- Preise fĂĽr Amazon EU-Modelle hinzugefĂĽgt. PR
- Preise fĂĽr Bedrock Deepseek R1-Modelle hinzugefĂĽgt. PR
- Gemini-Preise aktualisiert: Gemma 3, Flash 2 Thinking-Update, LearnLM. PR
- Cohere Embedding 3-Modelle als Multimodal markiert. PR
- Azure Data Zone Preisgestaltung hinzufĂĽgen PR
- LiteLLM verfolgt Kosten fĂĽr Modelle in
azure/euundazure/us
- LiteLLM verfolgt Kosten fĂĽr Modelle in
LLM-Übersetzung​
- Neue Endpunkte
- [Beta]POST
/responsesAPI. Erste Schritte
- Neue LLM-Anbieter
- Snowflake Cortex Erste Schritte
- Neue LLM-Funktionen
- UnterstĂĽtzt
reasoning_contentvon OpenRouter beim Streaming Erste Schritte
- Fehlerbehebungen
- OpenAI: Gibt
code,paramundtypebei fehlerhaften Anfragen zurĂĽck Weitere Informationen zu litellm-Ausnahmen - Bedrock: Korrigiert das Parsen von Converse-Chunks, um bei Tool-Nutzung nur ein leeres Dict zurĂĽckzugeben PR
- Bedrock: UnterstĂĽtzt
extra_headersPR - Azure: Korrigiert Funktionsaufruf-Bug & aktualisiert Standard-API-Version auf
2025-02-01-previewPR - Azure: Korrigiert URL fĂĽr KI-Dienste PR
- Vertex AI: Behandelt HTTP-Statuscode 201 in der Antwort PR
- Perplexity: Korrigiert falsche Streaming-Antwort PR
- Triton: Korrigiert Bug bei Streaming-AbschlĂĽssen PR
- Deepgram: UnterstĂĽtzt Bytes.IO beim Verarbeiten von Audiodateien fĂĽr Transkriptionen PR
- Ollama: Korrigiert "system"-Rolle, die inakzeptabel geworden ist PR
- Alle Anbieter (Streaming): Korrigiert, dass der String
data:aus dem gesamten Inhalt gestreamter Antworten entfernt wurde PR
Verbesserungen bei der Ausgabenverfolgung​
- UnterstĂĽtzt Bedrock Converse Cache Token Tracking Erste Schritte
- Kostenverfolgung fĂĽr Responses API Erste Schritte
- Korrigiert Kostenverfolgung fĂĽr Azure Whisper Erste Schritte
UI​
Anmeldeinformationen in der UI wiederverwenden​
Sie können jetzt LLM-Anbieteranmeldeinformationen in der LiteLLM UI integrieren. Sobald diese Anmeldeinformationen hinzugefügt wurden, können Sie sie beim Hinzufügen neuer Modelle wiederverwenden Erste Schritte
Verbindungen testen, bevor Modelle hinzugefügt werden​
Bevor Sie ein Modell hinzufügen, können Sie die Verbindung zum LLM-Anbieter testen, um zu überprüfen, ob Sie Ihre API-Basis + API-Schlüssel korrekt eingerichtet haben.

Allgemeine UI-Verbesserungen​
- Modelle hinzufĂĽgen-Seite
- Ermöglicht das Hinzufügen von Cerebras-, Sambanova-, Perplexity-, Fireworks-, Openrouter-, TogetherAI-Modellen, Text-Completion OpenAI im Admin-UI
- Ermöglicht das Hinzufügen von EU-OpenAI-Modellen
- Behebung: Bearbeiten und Löschen von Modellen sofort anzeigen
- SchlĂĽssel-Seite
- Behebung: Neu erstellte SchlĂĽssel sofort im Admin-UI anzeigen (kein Aktualisieren erforderlich)
- Behebung: Ermöglicht das Klicken auf Top-Schlüssel, wenn Benutzer den Top-API-Schlüssel angezeigt werden
- Behebung: Ermöglicht das Filtern von Schlüsseln nach Team-Alias, Schlüssel-Alias und Org
- UI-Verbesserungen: 100 Schlüssel pro Seite anzeigen, volle Höhe nutzen, Breite des Schlüssel-Alias erhöhen
- Benutzerseite
- Behebung: Korrekte Anzahl interner BenutzerschlĂĽssel auf der Benutzerseite anzeigen
- Behebung: Metadaten werden in der Team-UI nicht aktualisiert
- Protokolle-Seite
- UI-Verbesserungen: Erweitertes Protokoll im Fokus auf LiteLLM UI halten
- UI-Verbesserungen: Kleinere Verbesserungen auf der Protokollseite
- Behebung: Ermöglicht internen Benutzern, ihre eigenen Protokolle abzufragen
- Speicherung von Fehlerprotokollen in der DB ausschalten Erste Schritte
- Anmelden/Abmelden
- Behebung: Korrekte Verwendung von
PROXY_LOGOUT_URL, wenn gesetzt Erste Schritte
- Behebung: Korrekte Verwendung von
Sicherheit​
- UnterstĂĽtzung fĂĽr rotierende Master-SchlĂĽssel Erste Schritte
- Behebung: Berechtigungen fĂĽr interne Benutzeransichten, die Rolle
internal_user_viewerdarf nicht dieTest Key Pageoder denCreate Key Buttonsehen Weitere Informationen zu rollenbasierter Zugriffskontrolle - Audit-Protokolle für alle Benutzer- und Modellerstellungs-/Update-/Lösch-Endpunkte ausgeben Erste Schritte
- JWT
- UnterstĂĽtzung fĂĽr mehrere JWT OIDC-Anbieter Erste Schritte
- Behebung: JWT-Zugriff mit Gruppen funktioniert nicht, wenn einem Team Zugriff auf alle Proxy-Modelle zugewiesen ist
- Verwendung von K/V-Paaren in einem AWS-Secret Erste Schritte
Logging-Integrationen​
- Prometheus: Metrik fĂĽr die Latenz der Azure LLM-API verfolgen Erste Schritte
- Athina: Tags, Benutzerfeedback und Modelloptionen zu
additional_keyshinzugefügt, die an Athina gesendet werden können Erste Schritte
Leistungs- / Zuverlässigkeitsverbesserungen​
- Redis + litellm router - Korrigiert Redis-Cluster-Modus fĂĽr litellm-Router PR
Allgemeine Verbesserungen​
- OpenWebUI-Integration -
thinking-Token anzeigen
- Anleitung fĂĽr den Einstieg in LiteLLM x OpenWebUI. Erste Schritte
thinking-Token auf OpenWebUI anzeigen (Bedrock, Anthropic, Deepseek) Erste Schritte

