Dies sind die Änderungen seit v1.61.13-stable.
Diese Version konzentriert sich hauptsächlich auf
- Verbesserungen der LLM-Übersetzung (Unterstützung für
claude-3-7-sonnet+ 'thinking'/'reasoning_content') - UI-Verbesserungen (Modell-Hinzufügen-Fluss, Benutzerverwaltung usw.)
Demo-Instanz
Hier ist eine Demo-Instanz, um Änderungen zu testen
- Instanz: https://demo.litellm.ai/
- Anmeldedaten
- Benutzername: admin
- Passwort: sk-1234
Neue Modelle / Aktualisierte Modelle
- Unterstützung für Anthropic 3-7 sonnet + Kostenverfolgung (Anthropic API + Bedrock + Vertex AI + OpenRouter)
- Anthropic API Hier starten
- Bedrock API Hier starten
- Vertex AI API Hier ansehen
- OpenRouter Hier ansehen
- Unterstützung für Gpt-4.5-preview + Kostenverfolgung Hier ansehen
- Azure AI - Phi-4 Kostenverfolgung Hier ansehen
- Claude-3.5-sonnet - Vision-Unterstützung auf Anthropic API aktualisiert Hier ansehen
- Bedrock Llama Vision-Unterstützung Hier ansehen
- Cerebras llama3.3-70b Preisgestaltung Hier ansehen
LLM-Übersetzung
- Infinity Rerank - Unterstützt die Rückgabe von Dokumenten, wenn
return_documents=TrueHier starten - Amazon Deepseek - Extraktion des
<think>-Parameters in 'reasoning_content' Hier starten - Amazon Titan Embeddings - Filtert 'aws_'-Parameter aus dem Anfragekörper heraus Hier starten
- Anthropic 'thinking' + 'reasoning_content' Übersetzungsunterstützung (Anthropic API, Bedrock, Vertex AI) Hier starten
- VLLM - unterstützt 'video_url' Hier starten
- Proxy über litellm SDK aufrufen: Unterstützt
litellm_proxy/für Embeddings, Bilderzeugung, Transkription, Sprache, Reranking Hier starten - OpenAI Pass-through - Ermöglicht die Verwendung von Assistants GET, DELETE auf /openai Pass-through-Routen Hier starten
- Nachrichtenübersetzung - Korrigiert OpenAI-Nachricht für Assistant-Nachrichten, wenn die Rolle fehlt - OpenAI erlaubt dies
- O1/O3 - unterstützt 'drop_params' für o3-mini und den o1 parallel_tool_calls-Parameter (derzeit nicht unterstützt) Hier ansehen
Verbesserungen bei der Ausgabenverfolgung
- Kostenverfolgung für Rerank über Bedrock PR ansehen
- Anthropic Pass-through - behebt Race Condition, die dazu führt, dass Kosten nicht verfolgt werden PR ansehen
- Anthropic Pass-through: Genaue Tokenzählung sicherstellen PR ansehen
Management Endpunkte / UI
- Modellseite - Modelle nach "erstellt am" sortieren
- Modellseite - Verbesserungen des Modell-Bearbeitungsflusses
- Modellseite - Behebung des Hinzufügens von Azure-, Azure AI Studio-Modellen in der UI
- Interne Benutzerseite - Massenhaftes Hinzufügen von internen Benutzern in der UI ermöglichen
- Interne Benutzerseite - Benutzer nach "erstellt am" sortieren
- Virtuelle Schlüssel-Seite - Benutzer-IDs auf dem Dropdown-Menü beim Zuweisen eines Benutzers zu einem Team durchsuchbar machen PR ansehen
- Virtuelle Schlüssel-Seite - Ermöglicht das Erstellen eines Benutzers bei der Zuweisung von Schlüsseln an Benutzer PR ansehen
- Model Hub-Seite - Problem mit Textüberlauf behoben PR ansehen
- Admin-Einstellungen-Seite - MSFT SSO in der UI hinzufügen
- Backend - doppelte interne Benutzer in der DB nicht erstellen
Helm
- unterstützt
ttlSecondsAfterFinishedfür den Migrationsjob - PR ansehen - Migrationsjob mit zusätzlichen konfigurierbaren Eigenschaften verbessern - PR ansehen
Logging / Guardrail Integrationen
- Arize Phoenix Unterstützung
- 'no-log' - Korrigiert die Unterstützung des 'no-log'-Parameters bei Embedding-Aufrufen
Leistungs-/Loadbalancing-/Zuverlässigkeitsverbesserungen
- Single Deployment Cooldown-Logik - Verwendet
allowed_failsoderallowed_fail_policy, falls gesetzt Hier starten
Allgemeine Proxy-Verbesserungen
- Hypercorn - Korrigiert das Lesen/Parsen des Anfragekörpers
- Windows - Korrigiert das Ausführen des Proxys unter Windows
- DD-Trace - Korrigiert die Aktivierung von dd-trace im Proxy
Vollständiger Git-Diff
Vollständiges Git-Diff hier ansehen hier.