alerting, prometheus, secret management, management endpoints, ui, prompt management, finetuning, batch
Neue / Aktualisierte Modelle
- Mistral Large Preisgestaltung - https://github.com/BerriAI/litellm/pull/7452
- Cohere command-r7b-12-2024 Preisgestaltung - https://github.com/BerriAI/litellm/pull/7553/files
- Voyage - neue Modelle, Preise und Kontextfensterinformationen - https://github.com/BerriAI/litellm/pull/7472
- Anthropic -
max_output_tokensfür Bedrock Claude-3-5-Haiku auf 8192 erhöhen
Allgemeine Proxy-Verbesserungen
- Health-Check-Unterstützung für Echtzeitmodelle
- Unterstützt das Aufrufen von Azure-Echtzeitrouten über virtuelle Schlüssel
- Unterstützt benutzerdefinierte Tokenizer auf
/utils/token_counter- nützlich beim Überprüfen der Token-Anzahl für selbst gehostete Modelle - Anforderungspriorisierung - unterstützt auch auf dem
/v1/completion-Endpunkt
LLM-Übersetzungsverbesserungen
- Deepgram STT-Unterstützung. Hier starten
- OpenAI Moderationen - Unterstützung für
omni-moderation-latest. Hier starten - Azure O1 - Fake-Streaming-Unterstützung. Dies stellt sicher, dass die Antwort gestreamt wird, wenn
stream=trueübergeben wird. Hier starten - Anthropic - Behandlung von Nicht-Leerzeichen-Zeichen als Stoppsequenz - PR
- Azure OpenAI - Unterstützung für die Authentifizierung basierend auf Benutzername + Passwort von Entra ID. Hier starten
- LM Studio - Embedding-Routen-Unterstützung. Hier starten
- WatsonX - ZenAPIKeyAuth-Unterstützung. Hier starten
Prompt Management Verbesserungen
- Langfuse-Integration
- HumanLoop-Integration
- Unterstützung für die Verwendung von Lastverteilungsmodellen
- Unterstützung für das Laden optionaler Parameter aus dem Prompt-Manager
Finetuning + Batch API Verbesserungen
- Verbesserte einheitliche Endpunktunterstützung für Vertex AI Finetuning - PR
- Unterstützung für den Abruf von Vertex API Batch-Jobs hinzufügen - PR
NEUE Alerting-Integration
PagerDuty Alerting-Integration.
Behandelt zwei Arten von Alarmen
- Hohe Ausfallrate der LLM-API. Konfigurieren Sie X Fehler in Y Sekunden, um einen Alarm auszulösen.
- Hohe Anzahl von hängenden LLM-Anfragen. Konfigurieren Sie X Hänger in Y Sekunden, um einen Alarm auszulösen.
Prometheus Verbesserungen
Unterstützung für die Verfolgung von Latenz/Ausgaben/Tokens basierend auf benutzerdefinierten Metriken hinzugefügt. Hier starten
NEUE Hashicorp Secret Manager Unterstützung
Unterstützung für das Lesen von Anmeldeinformationen + Schreiben von LLM-API-Schlüsseln. Hier starten
Management-Endpunkte / UI-Verbesserungen
- Organisationen erstellen und anzeigen + Organisationsadministratoren in der Proxy-UI zuweisen
- Unterstützt das Löschen von Schlüsseln nach
key_alias - Teams der Organisation in der UI zuweisen
- Verhindert die Verwendung des UI-Sitzungs-Tokens für den "Testschlüssel"-Bereich
- Anzeige des verwendeten Modells im "Testschlüssel"-Bereich
- Unterstützt Markdown-Ausgabe im "Testschlüssel"-Bereich
Helm-Verbesserungen
- Verhindert Istio-Injection für den DB-Migrations-Cronjob
migrationJob.enabled-Variable innerhalb des Jobs verwenden
Logging-Verbesserungen
- braintrust logging: project_id berücksichtigen, mehr Metriken hinzufügen - https://github.com/BerriAI/litellm/pull/7613
- Athina - Basis-URL unterstützen -
ATHINA_BASE_URL - Lunary - Übergabe einer benutzerdefinierten übergeordneten Ausführungs-ID an LLM-Aufrufe zulassen
Git-Diff
Dies ist der Diff zwischen v1.56.3-stable und v1.57.8-stable.
Verwenden Sie dies, um die Änderungen im Codebase zu sehen.