Dies sind die Änderungen seit v1.61.20-stable.
Diese Version konzentriert sich hauptsächlich auf
- Verbesserungen der LLM-Ăśbersetzung (weitere Verbesserungen bei
thinking-Inhalten) - UI-Verbesserungen (Fehlerprotokolle werden jetzt in der UI angezeigt)
Info
Diese Version wird am 03.09.2025 live gehen.
Demo-Instanz​
Hier ist eine Demo-Instanz, um Änderungen zu testen
- Instanz: https://demo.litellm.ai/
- Anmeldedaten
- Benutzername: admin
- Passwort: sk-1234
Neue Modelle / Aktualisierte Modelle​
supports_pdf_inputfĂĽr spezifische Bedrock Claude-Modelle hinzufĂĽgen PR- Preise fĂĽr Amazon
eu-Modelle hinzufĂĽgen PR - Azure O1 Mini-Preise korrigieren PR
LLM-Übersetzung​
- UnterstĂĽtzt
/openai/-Passthrough fĂĽr Assistant-Endpunkte. Erste Schritte - Bedrock Claude - Korrigiert Tool-Calling-Transformation auf dem Invoke-Endpunkt. Erste Schritte
- Bedrock Claude -
response_format-UnterstĂĽtzung fĂĽr Claude auf dem Invoke-Endpunkt. Erste Schritte - Bedrock -
descriptionweitergeben, wenn inresponse_formatgesetzt. Erste Schritte - Bedrock - Korrigiert das Ăśbergeben von
response_format: {"type": "text"}. PR - OpenAI - Handhabt das Senden von
image_urlals String an OpenAI. Erste Schritte - Deepseek - gibt
reasoning_contentzurĂĽck, das beim Streaming fehlt. Erste Schritte - Caching - UnterstĂĽtzt Caching fĂĽr Reasoning-Inhalte. Erste Schritte
- Bedrock - Verarbeitet
thinking-Blöcke in der Assistant-Nachricht. Erste Schritte - Anthropic - gibt
signaturebeim Streaming zurĂĽck. Erste Schritte
- Hinweis: Wir sind auch von
signature_deltazusignaturemigriert. Mehr lesen
- UnterstĂĽtzt den Parameter
formatzur Angabe des Bildtyps. Erste Schritte - Anthropic - Endpunkt
/v1/messages- UnterstĂĽtzung fĂĽr den Parameterthinking. Erste Schritte
- Hinweis: Dies refaktoriert den[BETA]vereinheitlichten
/v1/messages-Endpunkt, um nur fĂĽr die Anthropic API zu funktionieren.
- Vertex AI - verarbeitet $id im Antwortschema bei Aufruf von Vertex AI. Erste Schritte
Verbesserungen bei der Ausgabenverfolgung​
- Batches API - Korrigiert Kostenberechnung fĂĽr die AusfĂĽhrung bei
retrieve_batch. Erste Schritte - Batches API - Protokolliert Batch-Modelle in Spend-Protokollen / Standard-Logging-Payload. Erste Schritte
Management Endpunkte / UI​
- Virtuelle SchlĂĽssel-Seite
- Ermöglicht durchsuchbare Team-/Org-Filter auf der Erstellen-Schlüssel-Seite
- Felder
created_byundupdated_byzur SchlĂĽssel-Tabelle hinzugefĂĽgt - Zeigt 'user_email' in der SchlĂĽssel-Tabelle an
- 100 Schlüssel pro Seite anzeigen, volle Höhe nutzen, Breite des Schlüssel-Alias erhöhen
- Protokolle-Seite
- Fehlerprotokolle auf der LiteLLM UI anzeigen
- Internen Benutzern erlauben, ihre eigenen Protokolle anzuzeigen
- Interne Benutzer-Seite
- Administratoren erlauben, den Standardmodellzugriff fĂĽr interne Benutzer zu steuern
- Sitzungsverwaltung mit Cookies korrigiert
Logging / Guardrail Integrationen​
- Korrigiert Prometheus-Metriken mit benutzerdefinierten Metriken, wenn SchlĂĽssel mit
team_idAnfragen stellen. PR
Leistungs-/Loadbalancing-/Zuverlässigkeitsverbesserungen​
- Wartezeiten - UnterstĂĽtzt Wartezeiten bei Modellen, die mit clientseitigen Anmeldeinformationen aufgerufen werden. Erste Schritte
- Tag-basierte Weiterleitung - stellt tag-basierte Weiterleitung ĂĽber alle Endpunkte sicher (
/embeddings,/image_generation, etc.). Erste Schritte
Allgemeine Proxy-Verbesserungen​
- Löst
BadRequestErroraus, wenn ein unbekanntes Modell in der Anfrage übergeben wird - Erzwingt Modellzugriffsbeschränkungen für die Azure OpenAI-Proxy-Route
- Zuverlässigkeitskorrektur - Handhabt Emojis in Texten - behebt orjson-Fehler
- Modellzugriffs-Patch - ĂĽberschreibt litellm.anthropic_models nicht beim AusfĂĽhren von AuthentifizierungsprĂĽfungen
- Zeitzoninforamtionen im Docker-Image einstellen