Diese Version bereitstellen​
- Docker
- Pip
docker run litellm
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.69.0-stable
pip install litellm
pip install litellm==1.69.0.post1
Wichtige Highlights​
LiteLLM v1.69.0-stable bringt die folgenden Hauptverbesserungen
- Loadbalance Batch API Models: Einfaches Loadbalancing ĂĽber mehrere Azure Batch-Bereitstellungen mit LiteLLM Managed Files
- E-Mail-Einladungen 2.0: Senden Sie neu bei LiteLLM registrierten Benutzern eine E-Mail-Einladung.
- Nscale: LLM-API für die Einhaltung europäischer Vorschriften.
- Bedrock /v1/messages: Verwenden Sie Bedrock Anthropic-Modelle mit den /v1/messages von Anthropic.
Batch-API-Loadbalancing​
Diese Veröffentlichung bringt die Unterstützung für LiteLLM Managed Files für Batches. Dies ist großartig für
- Proxy-Administratoren: Sie können jetzt steuern, welche Batch-Modelle Benutzer aufrufen können.
- Entwickler: Sie müssen den Azure-Bereitstellungsnamen nicht mehr kennen, wenn Sie Ihre Batch-.jsonl-Dateien erstellen – geben Sie einfach das Modell an, auf das Ihr LiteLLM-Schlüssel Zugriff hat.
Im Laufe der Zeit erwarten wir, dass LiteLLM Managed Files die Methode sein wird, mit der die meisten Teams Dateien ĂĽber die Endpunkte /chat/completions, /batch und /fine_tuning verwenden.
E-Mail-Einladungen​
Diese Veröffentlichung bringt die folgenden Verbesserungen für unsere E-Mail-Einladungs-Integration
- Neue Vorlagen fĂĽr die Ereignisse Benutzer eingeladen und SchlĂĽssel erstellt.
- Korrekturen bei der Verwendung von SMTP-E-Mail-Anbietern.
- Native UnterstĂĽtzung fĂĽr die Resend API.
- Möglichkeit für Proxy-Administratoren, E-Mail-Ereignisse zu steuern.
Für LiteLLM Cloud-Benutzer, kontaktieren Sie uns bitte, wenn Sie dies für Ihre Instanz aktivieren möchten.
Neue Modelle / Aktualisierte Modelle​
- Gemini (VertexAI + Google AI Studio)
- Perplexity:
- Azure OpenAI:
- Weitergabe des Parameters `azure_ad_token_provider` korrigiert – PR
- OpenAI:
- Unterstützung für PDF-URLs im 'file'-Parameter hinzugefügt – PR
- Sagemaker:
- Inhaltslänge für den
sagemaker_chat-Provider korrigiert – PR
- Inhaltslänge für den
- Azure AI Foundry:
- Kostenverfolgung fĂĽr die folgenden Modelle hinzugefĂĽgt PR
- DeepSeek V3 0324
- Llama 4 Scout
- Llama 4 Maverick
- Kostenverfolgung fĂĽr die folgenden Modelle hinzugefĂĽgt PR
- Bedrock:
- Kostenverfolgung für Bedrock Llama 4-Modelle hinzugefügt – PR
- Vorlagenkonvertierung für Llama 4-Modelle in Bedrock korrigiert – PR
- Unterstützung für die Verwendung von Bedrock Anthropic-Modellen im /v1/messages-Format hinzugefügt – PR
- Streaming-Unterstützung für Bedrock Anthropic-Modelle im /v1/messages-Format hinzugefügt – PR
- OpenAI: UnterstĂĽtzung fĂĽr
reasoning_effortfüro3-Modelle hinzugefügt – PR - Databricks:
- Problem bei der Verwendung von externen Modellen durch Databricks behoben, bei dem Delta leer sein konnte – PR
- Cerebras: Preis und Kontextfenster für das Llama-3.1-70b-Modell korrigiert – PR
- Ollama:
- 🆕 Nscale
- Unterstützung für Chat- und Bildgenerierungs-Endpunkte hinzugefügt – PR
LLM API Endpoints​
- Messages API:
- Moderations API:
- Fehler behoben, um die Verwendung von LiteLLM UI-Anmeldeinformationen für die /moderations API zu ermöglichen – PR
- Realtime API:
- Behebung des Setzens von 'headers' im Scope für WebSocket-Authentifizierungsanfragen und Probleme mit Endlosschleifen – PR
- Files API:
- Batches API:
Verbesserungen bei der Ausgabenverfolgung / Budget​
- Bugfix - PostgreSQL Integer Overflow Fehler bei der DB Spend Tracking – PR
Management Endpunkte / UI​
- Modelle
- Logs:
- Benutzerverwaltung:
Logging / Guardrail Integrationen​
- Custom Logger API: V2 Custom Callback API (LLM-Logs an benutzerdefinierte API senden) – PR, Erste Schritte
- OpenTelemetry:
- OpenTelemetry so angepasst, dass es den semantischen Konventionen von GenAI folgt + Unterstützung für den Parameter 'instructions' für TTS – PR
- Bedrock PII:
- Unterstützung für PII-Maskierung mit Bedrock Guardrails hinzugefügt – Erste Schritte, PR
- Dokumentation:
- Dokumentation für StandardLoggingVectorStoreRequest hinzugefügt – PR
Leistungs- / Zuverlässigkeitsverbesserungen​
- Python-Kompatibilität:
- Caching:
Allgemeine Proxy-Verbesserungen​
- Proxy CLI:
- Alerting:
- Slack-Benachrichtigungen, wenn eine DB verwendet wird, funktionieren nicht mehr – PR
- E-Mail-Einladungen:
- Allgemein:
- Fehler behoben, bei dem doppelte JSON-Logs ausgegeben wurden – PR
Neue Mitwirkende​
- @zoltan-ongithub hat seinen ersten Beitrag in PR #10568 geleistet
- @mkavinkumar1 hat seinen ersten Beitrag in PR #10548 geleistet
- @thomelane hat seinen ersten Beitrag in PR #10549 geleistet
- @frankzye hat seinen ersten Beitrag in PR #10540 geleistet
- @aholmberg hat seinen ersten Beitrag in PR #10591 geleistet
- @aravindkarnam hat seinen ersten Beitrag in PR #10611 geleistet
- @xsg22 hat seinen ersten Beitrag in PR #10648 geleistet
- @casparhsws hat seinen ersten Beitrag in PR #10635 geleistet
- @hypermoose hat seinen ersten Beitrag in PR #10370 geleistet
- @tomukmatthews hat seinen ersten Beitrag in PR #10638 geleistet
- @keyute hat seinen ersten Beitrag in PR #10652 geleistet
- @GPTLocalhost hat seinen ersten Beitrag in PR #10687 geleistet
- @husnain7766 hat seinen ersten Beitrag in PR #10697 geleistet
- @claralp hat seinen ersten Beitrag in PR #10694 geleistet
- @mollux hat seinen ersten Beitrag in PR #10690 geleistet
