Dies sind die Änderungen seit v1.61.20-stable.
Diese Version konzentriert sich hauptsächlich auf
- Verbesserungen der LLM-Übersetzung (weitere Verbesserungen bei
thinking-Inhalten) - UI-Verbesserungen (Fehlerprotokolle werden jetzt in der UI angezeigt)
Info
Diese Version wird am 03.09.2025 live gehen.
Demo-Instanz
Hier ist eine Demo-Instanz, um Änderungen zu testen
- Instanz: https://demo.litellm.ai/
- Anmeldedaten
- Benutzername: admin
- Passwort: sk-1234
Neue Modelle / Aktualisierte Modelle
supports_pdf_inputfür spezifische Bedrock Claude-Modelle hinzufügen PR- Preise für Amazon
eu-Modelle hinzufügen PR - Azure O1 Mini-Preise korrigieren PR
LLM-Übersetzung
- Unterstützt
/openai/-Passthrough für Assistant-Endpunkte. Erste Schritte - Bedrock Claude - Korrigiert Tool-Calling-Transformation auf dem Invoke-Endpunkt. Erste Schritte
- Bedrock Claude -
response_format-Unterstützung für Claude auf dem Invoke-Endpunkt. Erste Schritte - Bedrock -
descriptionweitergeben, wenn inresponse_formatgesetzt. Erste Schritte - Bedrock - Korrigiert das Übergeben von
response_format: {"type": "text"}. PR - OpenAI - Handhabt das Senden von
image_urlals String an OpenAI. Erste Schritte - Deepseek - gibt
reasoning_contentzurück, das beim Streaming fehlt. Erste Schritte - Caching - Unterstützt Caching für Reasoning-Inhalte. Erste Schritte
- Bedrock - Verarbeitet
thinking-Blöcke in der Assistant-Nachricht. Erste Schritte - Anthropic - gibt
signaturebeim Streaming zurück. Erste Schritte
- Hinweis: Wir sind auch von
signature_deltazusignaturemigriert. Mehr lesen
- Unterstützt den Parameter
formatzur Angabe des Bildtyps. Erste Schritte - Anthropic - Endpunkt
/v1/messages- Unterstützung für den Parameterthinking. Erste Schritte
- Hinweis: Dies refaktoriert den[BETA]vereinheitlichten
/v1/messages-Endpunkt, um nur für die Anthropic API zu funktionieren.
- Vertex AI - verarbeitet $id im Antwortschema bei Aufruf von Vertex AI. Erste Schritte
Verbesserungen bei der Ausgabenverfolgung
- Batches API - Korrigiert Kostenberechnung für die Ausführung bei
retrieve_batch. Erste Schritte - Batches API - Protokolliert Batch-Modelle in Spend-Protokollen / Standard-Logging-Payload. Erste Schritte
Management Endpunkte / UI
- Virtuelle Schlüssel-Seite
- Ermöglicht durchsuchbare Team-/Org-Filter auf der Erstellen-Schlüssel-Seite
- Felder
created_byundupdated_byzur Schlüssel-Tabelle hinzugefügt - Zeigt 'user_email' in der Schlüssel-Tabelle an
- 100 Schlüssel pro Seite anzeigen, volle Höhe nutzen, Breite des Schlüssel-Alias erhöhen
- Protokolle-Seite
- Fehlerprotokolle auf der LiteLLM UI anzeigen
- Internen Benutzern erlauben, ihre eigenen Protokolle anzuzeigen
- Interne Benutzer-Seite
- Administratoren erlauben, den Standardmodellzugriff für interne Benutzer zu steuern
- Sitzungsverwaltung mit Cookies korrigiert
Logging / Guardrail Integrationen
- Korrigiert Prometheus-Metriken mit benutzerdefinierten Metriken, wenn Schlüssel mit
team_idAnfragen stellen. PR
Leistungs-/Loadbalancing-/Zuverlässigkeitsverbesserungen
- Wartezeiten - Unterstützt Wartezeiten bei Modellen, die mit clientseitigen Anmeldeinformationen aufgerufen werden. Erste Schritte
- Tag-basierte Weiterleitung - stellt tag-basierte Weiterleitung über alle Endpunkte sicher (
/embeddings,/image_generation, etc.). Erste Schritte
Allgemeine Proxy-Verbesserungen
- Löst
BadRequestErroraus, wenn ein unbekanntes Modell in der Anfrage übergeben wird - Erzwingt Modellzugriffsbeschränkungen für die Azure OpenAI-Proxy-Route
- Zuverlässigkeitskorrektur - Handhabt Emojis in Texten - behebt orjson-Fehler
- Modellzugriffs-Patch - überschreibt litellm.anthropic_models nicht beim Ausführen von Authentifizierungsprüfungen
- Zeitzoninforamtionen im Docker-Image einstellen