Diese Version bereitstellen
- Docker
- Pip
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.70.1-stable
pip install litellm==1.70.1
Wichtige Highlights
LiteLLM v1.70.1-stable ist jetzt live. Hier sind die wichtigsten Highlights dieser Version
- Gemini Realtime API: Sie können jetzt die Live-API von Gemini über die OpenAI /v1/realtime-API aufrufen
- Aufbewahrungsfrist für Ausgabenprotokolle: Ermöglicht das Löschen von Ausgabenprotokollen, die älter als ein bestimmter Zeitraum sind.
- PII Masking 2.0: Konfigurieren Sie einfach das Maskieren oder Blockieren bestimmter PII/PHI-Entitäten in der Benutzeroberfläche
Gemini Realtime API
Diese Version bringt die Unterstützung für den Aufruf von Gemini-Echtzeitmodellen (z. B. gemini-2.0-flash-live) über die Echtzeit-API von OpenAI ( /v1/realtime ). Dies ist großartig für Entwickler, da sie durch einfaches Ändern des Modellnamens problemlos von OpenAI zu Gemini wechseln können.
Wichtige Highlights
- Unterstützung für Text- und Audio-Ein- und Ausgabe
- Unterstützung für die Einstellung von Sitzungskonfigurationen (Modalität, Anweisungen, Aktivitätserkennung) im OpenAI-Format
- Unterstützung für Protokollierung und Nutzungsnachverfolgung für Echtzeitsitzungen
Dies wird derzeit über Google AI Studio unterstützt. Wir planen, die VertexAI-Unterstützung in der kommenden Woche zu veröffentlichen.
Aufbewahrungsfrist für Ausgabenprotokolle
Diese Version ermöglicht das Löschen von LiteLLM-Ausgabenprotokollen, die älter als ein bestimmter Zeitraum sind. Da wir jetzt das Speichern der rohen Anfrage/Antwort in den Protokollen ermöglichen, stellt das Löschen alter Protokolle sicher, dass die Datenbank in der Produktion performant bleibt.
PII Masking 2.0
Diese Version bringt Verbesserungen an unserer Presidio PII-Integration. Als Proxy-Administrator haben Sie jetzt die Möglichkeit,
- Bestimmte Entitäten maskieren oder blockieren (z. B. medizinische Lizenzen blockieren und andere Entitäten wie E-Mails maskieren).
- Guardrails in der Produktion überwachen. LiteLLM Logs zeigen Ihnen nun die Guardrail-Ausführung, die erkannten Entitäten und deren Konfidenzbewertung für jede Entität.
Neue Modelle / Aktualisierte Modelle
- Gemini (VertexAI + Google AI Studio)
- Google AI Studio
/realtime- Gemini Multimodal Live API-Unterstützung
- Audio-Ein-/Ausgabe-Unterstützung, Mapping optionaler Parameter, genaue Nutzungsberechnung - PR
- VertexAI
/chat/completion- Llama-Streaming-Fehler beheben - bei dem das Modell-Antwort im zurückgegebenen Streaming-Chunk verschachtelt war - PR
- Ollama
/chat/completion- Antwortenstruktur beheben - PR
- Bedrock
/chat/completion/messages- Dynamische AWS-Parameter verwenden - PR
- Nvidia NIM
/chat/completion- Unterstützung für Tools, tool_choice, parallele Tool-Aufrufe hinzufügen - PR
- Novita AI
- Neuer Anbieter für
/chat/completion-Routen hinzugefügt - PR
- Neuer Anbieter für
- Azure
/image/generation- Azure DALL-E 3-Aufruf mit benutzerdefiniertem Modellnamen beheben - PR
- Cohere
/embeddings- Einbettungen migrieren, um
/v2/embedzu verwenden - fügt Unterstützung für den Parameter output_dimensions hinzu - PR
- Einbettungen migrieren, um
- Anthropic
/chat/completion- Unterstützung für das Web-Search-Tool - nativ + OpenAI-Format - Erste Schritte
- VLLM
/embeddings- Unterstützung für die Einbettung von Eingaben als Liste von Ganzzahlen
- OpenAI
/chat/completion- Behebung - Behandlung von b64-Datei-Daten - Erste Schritte
- ‘supports_pdf_input’ zu allen Vision-Modellen hinzufügen - PR
LLM API Endpoints
- Antworten API
- Unterstützung für die Löschung von APIs beheben - PR
- Rerank API
/v2/rerankwird jetzt als ‘llm_api_route’ registriert - wodurch Nicht-Admins diese aufrufen können - PR
Verbesserungen bei der Ausgabenverfolgung
/chat/completion,/messages/audio/transcription/embeddings- Azure AI - Cohere Embed v4-Preise hinzufügen - PR
Management Endpunkte / UI
- Modelle
- Ollama - fügt API-Basisparameter zur Benutzeroberfläche hinzu
- Logs
- Team-ID, Schlüsselalias, Schlüssel-Hash-Filter zu den Protokollen hinzufügen - https://github.com/BerriAI/litellm/pull/10831
- Guardrail-Tracing jetzt in der Protokoll-Benutzeroberfläche - https://github.com/BerriAI/litellm/pull/10893
- Teams
- Patch zum Aktualisieren von Team-Informationen, wenn das Team in der Organisation ist und Mitglieder nicht in der Organisation sind - https://github.com/BerriAI/litellm/pull/10835
- Guardrails
- Bedrock, Presidio, Lakers Guardrails in der Benutzeroberfläche hinzufügen - https://github.com/BerriAI/litellm/pull/10874
- Info-Seite zu Guardrails anzeigen - https://github.com/BerriAI/litellm/pull/10904
- Guardrails in der Benutzeroberfläche bearbeiten - https://github.com/BerriAI/litellm/pull/10907
- Test Key
- Guardrails zur Prüfung in der Benutzeroberfläche auswählen
Logging / Alerting Integrationen
- StandardLoggingPayload
- Alle
x--Header in den Metadaten des Anforderers protokollieren - Erste Schritte - Guardrail-Tracing jetzt in der Standard-Logging-Payload - Erste Schritte
- Alle
- Generischer API Logger
- Unterstützung für die Übergabe des application/json-Headers
- Arize Phoenix
- PagerDuty
- PagerDuty ist jetzt ein kostenloses Feature - PR
- Alerting
- Senden von Slack-Alerts bei Updates von virtuellen Schlüsseln/Benutzern/Teams ist jetzt kostenlos - PR
Guardrails
- Guardrails
- Neuer Endpunkt
/apply_guardrailzum direkten Testen eines Guardrails - PR
- Neuer Endpunkt
- Lakera
/v2Endpunkte Unterstützung - PR
- Presidio
- Aim Security
- Unterstützung für Anonymisierung in AIM Guardrails - PR
Leistungs-/Loadbalancing-/Zuverlässigkeitsverbesserungen
- Überschreiben aller Konstanten mit einer .env-Variable zulassen - PR
- Maximale Aufbewahrungsfrist für Ausgabenprotokolle
Allgemeine Proxy-Verbesserungen
- Authentifizierung
- Bearer $LITELLM_API_KEY im benutzerdefinierten Header x-litellm-api-key behandeln PR
- Neues Enterprise pip-Paket -
litellm-enterprise- behebt ein Problem, bei dem der Ordnerenterprisebeim Verwenden des pip-Pakets nicht gefunden wurde - Proxy CLI
models import-Befehl hinzufügen - PR
- OpenWebUI
- LiteLLM konfigurieren, um Benutzerheader von Open Web UI zu parsen
- LiteLLM Proxy mit LiteLLM SDK
- Option zum Erzwingen/Immer-Verwenden des LiteLLM-Proxys beim Aufruf über das LiteLLM SDK
Neue Mitwirkende
- @imdigitalashish hat seinen ersten Beitrag in PR #10617 geleistet
- @LouisShark hat seinen ersten Beitrag in PR #10688 geleistet
- @OscarSavNS hat seinen ersten Beitrag in PR #10764 geleistet
- @arizedatngo hat seinen ersten Beitrag in PR #10654 geleistet
- @jugaldb hat seinen ersten Beitrag in PR #10805 geleistet
- @daikeren hat seinen ersten Beitrag in PR #10781 geleistet
- @naliotopier hat seinen ersten Beitrag in PR #10077 geleistet
- @damienpontifex hat seinen ersten Beitrag in PR #10813 geleistet
- @Dima-Mediator hat seinen ersten Beitrag in PR #10789 geleistet
- @igtm hat seinen ersten Beitrag in PR #10814 geleistet
- @shibaboy hat seinen ersten Beitrag in PR #10752 geleistet
- @camfarineau hat seinen ersten Beitrag in PR #10629 geleistet
- @ajac-zero hat seinen ersten Beitrag in PR #10439 geleistet
- @damgem hat seinen ersten Beitrag in PR #9802 geleistet
- @hxdror hat seinen ersten Beitrag in PR #10757 geleistet
- @wwwillchen hat seinen ersten Beitrag in PR #10894 geleistet
Demo-Instanz
Hier ist eine Demo-Instanz, um Änderungen zu testen
- Instanz: https://demo.litellm.ai/
- Anmeldedaten
- Benutzername: admin
- Passwort: sk-1234


