Zum Hauptinhalt springen

4 Beiträge mit dem Tag "security"

Alle Tags anzeigen

Krrish Dholakia
Ishaan Jaffer

Diese Version bereitstellen​

docker run litellm
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.67.4-stable

Wichtige Highlights​

  • Verbessertes Benutzermanagement: Diese Veröffentlichung ermöglicht die Suche und Filterung von Benutzern, SchlĂĽsseln, Teams und Modellen.
  • Responses API Load Balancing: Routet Anfragen ĂĽber Provider-Regionen und sorgt fĂĽr Sitzungskontinuität.
  • UI-Sitzungsprotokolle: Gruppiert mehrere Anfragen an LiteLLM zu einer Sitzung.

Verbessertes Benutzermanagement​


Diese Veröffentlichung erleichtert die Verwaltung von Benutzern und Schlüsseln auf LiteLLM. Sie können jetzt Benutzer, Schlüssel, Teams und Modelle durchsuchen und filtern und Benutzereinstellungen einfacher steuern.

Neue Funktionen umfassen

  • Suche nach Benutzern nach E-Mail, ID, Rolle oder Team.
  • Alle Modelle, Teams und SchlĂĽssel eines Benutzers an einem Ort anzeigen.
  • Benutzerrollen und Modellzugriff direkt vom Tab "Benutzer" ändern.

Diese Änderungen helfen Ihnen, weniger Zeit für die Einrichtung und Verwaltung von Benutzern auf LiteLLM aufzuwenden.

Responses API Load Balancing​


Diese Veröffentlichung führt Load Balancing für die Responses API ein, wodurch Sie Anfragen über Provider-Regionen leiten und die Sitzungskontinuität gewährleisten können. Es funktioniert wie folgt:

  • Wenn eine previous_response_id angegeben ist, leitet LiteLLM die Anfrage an die ursprĂĽngliche Bereitstellung weiter, die die vorherige Antwort generiert hat - wodurch die Sitzungskontinuität gewährleistet wird.
  • Wenn keine previous_response_id angegeben ist, verteilt LiteLLM die Anfragen auf Ihre verfĂĽgbaren Bereitstellungen.

Mehr erfahren

UI-Sitzungsprotokolle​


Diese Veröffentlichung ermöglicht es Ihnen, Anfragen an den LiteLLM-Proxy zu einer Sitzung zu gruppieren. Wenn Sie eine 'litellm_session_id' in Ihrer Anfrage angeben, gruppiert LiteLLM automatisch alle Protokolle in derselben Sitzung. Dies ermöglicht es Ihnen, die Nutzung und den Anfrageinhalt pro Sitzung einfach zu verfolgen.

Mehr erfahren

Neue Modelle / Aktualisierte Modelle​

  • OpenAI
    1. Kostenverfolgung fĂĽr 'gpt-image-1' hinzugefĂĽgt Erste Schritte
    2. Fehlerbehebung: Kostenverfolgung für gpt-image-1 hinzugefügt, wenn die Qualität nicht angegeben ist PR
  • Azure
    1. Zeitstempel-Granularitäten an Whisper in Azure übergeben, korrigiert Erste Schritte
    2. Preise fĂĽr azure/gpt-image-1 hinzugefĂĽgt Erste Schritte, PR
    3. Kostenverfolgung fĂĽr 'azure/computer-use-preview', 'azure/gpt-4o-audio-preview-2024-12-17', 'azure/gpt-4o-mini-audio-preview-2024-12-17' hinzugefĂĽgt PR
  • Bedrock
    1. UnterstĂĽtzung fĂĽr alle kompatiblen Bedrock-Parameter hinzugefĂĽgt, wenn model="arn:.." (Bedrock-Anwendungsinferenzprofil-Modelle) Erste Schritte, PR
    2. Falsche System-Prompt-Transformation korrigiert PR
  • VertexAI / Google AI Studio
    1. Setzen von 'budget_tokens=0' fĂĽr 'gemini-2.5-flash' zulassen Erste Schritte, PR
    2. Sicherstellen, dass die zurĂĽckgegebene 'usage' die Denk-Token-Nutzung einschlieĂźt PR
    3. Kostenverfolgung fĂĽr 'gemini-2.5-pro-preview-03-25' hinzugefĂĽgt PR
  • Cohere
    1. UnterstĂĽtzung fĂĽr cohere command-a-03-2025 hinzugefĂĽgt Erste Schritte, PR
  • SageMaker
    1. UnterstĂĽtzung fĂĽr den Parameter 'max_completion_tokens' hinzugefĂĽgt Erste Schritte, PR
  • Antworten API
    1. UnterstĂĽtzung fĂĽr GET- und DELETE-Operationen hinzugefĂĽgt - /v1/responses/{response_id} Erste Schritte
    2. SitzungsmanagementunterstĂĽtzung fĂĽr Nicht-OpenAI-Modelle hinzugefĂĽgt PR
    3. Routing-Affinität hinzugefügt, um Modellkonsistenz innerhalb von Sitzungen aufrechtzuerhalten Erste Schritte, PR

Verbesserungen bei der Ausgabenverfolgung​

  • Fehlerbehebung: Fehler bei der Spend-Nachverfolgung behoben, sodass Standard-LiteLLM-Parameter nicht im Speicher geändert werden PR
  • Einstellungstermine: Einstellungstermine fĂĽr Azure-, VertexAI-Modelle hinzugefĂĽgt PR

Management Endpunkte / UI​

Benutzer​

  • Filterung und Suche:

    • Benutzer nach user_id, Rolle, Team, sso_id filtern
    • Benutzer nach E-Mail suchen

  • Benutzerinformationsbereich: Ein neuer Benutzerinformationsbereich wurde hinzugefĂĽgt PR

    • Teams, SchlĂĽssel, Modelle anzeigen, die mit dem Benutzer verbunden sind
    • Benutzerrolle, Modellberechtigungen bearbeiten

Teams​

  • Filterung und Suche:

    • Teams nach Organisation, Team-ID filtern PR
    • Teams nach Teamnamen suchen PR

Schlüssel​

  • SchlĂĽsselverwaltung:
    • UnterstĂĽtzung fĂĽr Kreuzfilterung und Filterung nach SchlĂĽssel-Hash PR
    • SchlĂĽssel-Alias-ZurĂĽcksetzung beim ZurĂĽcksetzen von Filtern korrigiert PR
    • Tabellendarstellung bei SchlĂĽssel-Erstellung korrigiert PR

UI-Protokollseite​

  • Sitzungsprotokolle: UI-Sitzungsprotokolle hinzugefĂĽgt Erste Schritte

UI-Authentifizierung & Sicherheit​

  • Authentifizierung erforderlich: FĂĽr alle Dashboard-Seiten ist jetzt eine Authentifizierung erforderlich PR
  • SSO-Korrekturen: UngĂĽltigen Token-Fehler bei der SSO-Benutzeranmeldung behoben PR
  • [BETA] VerschlĂĽsselte Token: UI auf verschlĂĽsselte Token-Nutzung umgestellt PR
  • Token-Ablauf: Token-Aktualisierung durch erneutes Weiterleiten zur Anmeldeseite unterstĂĽtzt (behebt ein Problem, bei dem ein abgelaufener Token eine leere Seite zeigte) PR

Allgemeine UI-Korrekturen​

  • UI-Flackern behoben: UI-Flackerprobleme im Dashboard behoben PR
  • Verbesserte Terminologie: Bessere Lade- und Keine-Daten-Zustände auf den Seiten fĂĽr SchlĂĽssel und Tools PR
  • Azure-ModellunterstĂĽtzung: Bearbeiten von Azure-öffentlichen Modellnamen und Ă„ndern von Modellnamen nach der Erstellung korrigiert PR
  • Team-Modellauswahl: Fehlerbehebung fĂĽr die Team-Modellauswahl PR

Logging / Guardrail Integrationen​

  • Datadog:
    1. Datadog LLM-Observability-Protokollierung korrigiert Erste Schritte, PR
  • Prometheus / Grafana:
    1. Auswahl der Datenquelle auf der LiteLLM Grafana-Vorlage aktiviert Erste Schritte, PR
  • AgentOps:
    1. AgentOps-Integration hinzugefĂĽgt Erste Schritte, PR
  • Arize:
    1. Fehlende Attribute fĂĽr Arize & Phoenix Integration hinzugefĂĽgt Erste Schritte, PR

Allgemeine Proxy-Verbesserungen​

  • Caching: Caching korrigiert, um 'thinking' oder 'reasoning_effort' bei der Berechnung des Cache-SchlĂĽssels zu berĂĽcksichtigen PR
  • Modellgruppen: Handhabung von Fällen korrigiert, in denen der Benutzer 'model_group' innerhalb von 'model_info' setzt PR
  • Passthrough-Endpunkte: Sichergestellt, dass 'PassthroughStandardLoggingPayload' mit Methode, URL, Anfrage-/Antwortkörper protokolliert wird PR
  • SQL-Injection beheben: Mögliche SQL-Injection-Schwachstelle in 'spend_management_endpoints.py' behoben PR

Helm​

  • serviceAccountName im Migrationsjob korrigiert PR

Vollständige Changelog​

Die vollständige Liste der Änderungen finden Sie in den GitHub Release Notes.

Krrish Dholakia
Ishaan Jaffer

Wichtige Highlights​

  • SCIM-Integration: Ermöglicht Identitätsanbietern (Okta, Azure AD, OneLogin usw.), Benutzer und Teams (Gruppen) automatisch zu provisionieren, zu aktualisieren und zu deprovisionieren
  • Team- und Tag-basierte Nutzungsverfolgung: Sie können nun Nutzung und Ausgaben nach Team und Tag bei ĂĽber 1 Million Ausgabenprotokollen sehen.
  • Vereinheitlichte Responses API: UnterstĂĽtzung fĂĽr den Aufruf von Anthropic, Gemini, Groq usw. ĂĽber die neue Responses API von OpenAI.

Tauchen wir ein.

SCIM-Integration​

Diese Veröffentlichung fügt SCIM-Unterstützung für LiteLLM hinzu. Dies ermöglicht Ihrem SSO-Anbieter (Okta, Azure AD usw.), Benutzer, Teams und Mitgliedschaften auf LiteLLM automatisch zu erstellen/löschen. Das bedeutet, dass Ihr SSO-Anbieter, wenn Sie ein Team in Ihrem SSO-Anbieter entfernen, das entsprechende Team auf LiteLLM automatisch löschen wird.

Mehr erfahren

Team- und Tag-basierte Nutzungsverfolgung​

Diese Veröffentlichung verbessert die team- und tagbasierte Nutzungsverfolgung bei über 1 Million Ausgabenprotokollen, was die Überwachung Ihrer LLM-API-Ausgaben in der Produktion erleichtert. Dies umfasst:

  • Tägliche Ausgaben nach Teams + Tags anzeigen
  • Nutzung / Ausgaben nach SchlĂĽssel innerhalb von Teams anzeigen
  • Ausgaben nach mehreren Tags anzeigen
  • Interne Benutzer dazu ermächtigen, die Ausgaben von Teams anzuzeigen, deren Mitglied sie sind

Mehr erfahren

Vereinheitlichte Responses API​

Diese Veröffentlichung ermöglicht es Ihnen, Azure OpenAI, Anthropic, AWS Bedrock und Google Vertex AI Modelle über den POST /v1/responses Endpunkt auf LiteLLM aufzurufen. Das bedeutet, dass Sie jetzt beliebte Tools wie OpenAI Codex mit Ihren eigenen Modellen verwenden können.

Mehr erfahren

Neue Modelle / Aktualisierte Modelle​

  • OpenAI
    1. gpt-4.1, gpt-4.1-mini, gpt-4.1-nano, o3, o3-mini, o4-mini Preise - Erste Schritte, PR
    2. o4 - o4 korrekt auf OpenAI o_series Modell abbilden
  • Azure AI
    1. Korrektur der Phi-4 Ausgabe-Kosten pro Token - PR
    2. Responses API UnterstĂĽtzung Erste Schritte, PR
  • Anthropic
    1. UnterstĂĽtzung fĂĽr redigierte Nachrichten (thinking) - Erste Schritte, PR
  • Cohere
    1. /v2/chat Passthrough-EndpunktunterstĂĽtzung mit Kostenverfolgung - Erste Schritte, PR
  • Azure
    1. UnterstĂĽtzung fĂĽr Azure tenant_id/client_id Umgebungsvariablen - Erste Schritte, PR
    2. Korrektur der 'response_format'-PrĂĽfung fĂĽr API-Versionen ab 2025 - PR
    3. Preise fĂĽr gpt-4.1, gpt-4.1-mini, gpt-4.1-nano, o3, o3-mini, o4-mini hinzufĂĽgen
  • VLLM
    1. Dateien - UnterstĂĽtzung fĂĽr den Nachrichtentyp 'file' fĂĽr VLLM-Video-URLs - Erste Schritte, PR
    2. Passthrough - neuer /vllm/ Passthrough-Endpunkt unterstĂĽtzt - Erste Schritte, PR
  • Mistral
    1. neuer /mistral Passthrough-Endpunkt unterstĂĽtzt - Erste Schritte, PR
  • AWS
    1. Neu zugeordnete Bedrock-Regionen - PR
  • VertexAI / Google AI Studio
    1. Gemini - Antwortformat - Beibehaltung der Schemabeschreibungsreihenfolge fĂĽr Google Gemini und Vertex durch Angabe von 'propertyOrdering' - Erste Schritte, PR
    2. Gemini-2.5-flash - RĂĽckgabe von Reasoning-Inhalt Google AI Studio, Vertex AI
    3. Gemini-2.5-flash - Preise + Modellinformationen PR
    4. Passthrough - neue Route /vertex_ai/discovery - ermöglicht den Aufruf von AgentBuilder API-Routen Erste Schritte, PR
  • Fireworks AI
    1. Gibt Tool-Aufruf-Antworten im Feld 'tool_calls' zurück (Fireworks gibt dies fälschlicherweise als JSON-String im Inhalt zurück) PR
  • Triton
    1. Entfernen von festen 'bad_words' / 'stop_words' aus dem '/generate'-Aufruf - Erste Schritte, PR
  • Sonstiges
    1. UnterstĂĽtzung fĂĽr alle LiteLLM-Provider auf der Responses API (funktioniert mit Codex) - Erste Schritte, PR
    2. Kombination mehrerer Tool-Aufrufe in gestreamter Antwort korrigiert - Erste Schritte, PR

Verbesserungen bei der Ausgabenverfolgung​

  • Kostenkontrolle - EinfĂĽgen von Cache-Kontrollpunkten in den Prompt zur Kostensenkung Erste Schritte, PR
  • Spend-Tags - Spend-Tags in Headern - UnterstĂĽtzung fĂĽr x-litellm-tags, auch wenn die tagbasierte Weiterleitung nicht aktiviert ist Erste Schritte, PR
  • Gemini-2.5-flash - Berechnung der Kosten fĂĽr Reasoning-Tokens unterstĂĽtzen PR

Management Endpunkte / UI​

  • Benutzer

    1. created_at und updated_at auf der Benutzerseite anzeigen - PR
  • Virtuelle SchlĂĽssel

    1. Filtern nach SchlĂĽssel-Alias - https://github.com/BerriAI/litellm/pull/10085
  • Nutzungs-Tab

    1. Team-basierte Nutzung

      • Neue Tabelle 'LiteLLM_DailyTeamSpend' fĂĽr aggregierte teambasierte Nutzungsdatenspeicherung - PR

      • Neues teambasiertes Nutzungs-Dashboard + neue API '/team/daily/activity' - PR

      • Team-Alias auf der API '/team/daily/activity' zurĂĽckgeben - PR

      • internen Benutzern ermöglichen, Ausgaben fĂĽr Teams anzuzeigen, zu denen sie gehören - PR

      • Top-SchlĂĽssel pro Team anzeigen lassen - PR

    2. Tag-basierte Nutzung

      • Neue Tabelle 'LiteLLM_DailyTagSpend' fĂĽr aggregierte tagbasierte Nutzungsdatenspeicherung - PR
      • Auf Proxy-Admins beschränken - PR
      • Top-SchlĂĽssel nach Tag anzeigen lassen
      • In der Anfrage ĂĽbergebene Tags (d. h. dynamische Tags) auf der '/tag/list'-API zurĂĽckgeben - PR
    3. Prompt-Caching-Metriken in täglichen Benutzer-, Team-, Tag-Tabellen verfolgen - PR

    4. Nutzung pro SchlĂĽssel anzeigen (auf allen, Team- und Tag-Nutzungs-Dashboards) - PR

    5. alten Nutzungs-Tab durch neuen Nutzungs-Tab ersetzen

  • Modelle

    1. Spalten größenveränderbar/ausblendbar machen - PR
  • API-Playground

    1. internem Benutzer erlauben, den API-Playground aufzurufen - PR
  • SCIM

    1. LiteLLM SCIM-Integration fĂĽr Team- und Benutzerverwaltung hinzufĂĽgen - Erste Schritte, PR

Logging / Guardrail Integrationen​

  • GCS
    1. GCS Pub/Sub-Protokollierung mit der Umgebungsvariable GCS_PROJECT_ID korrigieren - Erste Schritte, PR
  • AIM
    1. LiteLLM Call-ID-Weiterleitung an Aim-Guardrails bei Pre- und Post-Hook-Aufrufen hinzufĂĽgen - Erste Schritte, PR
  • Azure Blob Storage
    1. Sicherstellen, dass die Protokollierung in Szenarien mit hohem Durchsatz funktioniert - Erste Schritte, PR

Allgemeine Proxy-Verbesserungen​

  • UnterstĂĽtzung fĂĽr das Setzen von 'litellm.modify_params' ĂĽber Umgebungsvariable PR
  • Modellerkennung - PrĂĽfen Sie die /models Endpunkte des Anbieters beim Aufruf des /v1/models Endpunkts des Proxys - Erste Schritte, PR
  • /utils/token_counter - Abrufen des benutzerdefinierten Tokenizers fĂĽr DB-Modelle korrigiert - Erste Schritte, PR
  • Prisma-Migration - Umgang mit vorhandenen Spalten in der DB-Tabelle - PR

Krrish Dholakia
Ishaan Jaffer

Diese Version bereitstellen​

docker run litellm
docker run
-e STORE_MODEL_IN_DB=True
-p 4000:4000
ghcr.io/berriai/litellm:main-v1.66.0-stable

v1.66.0-stable ist jetzt verfügbar, hier sind die wichtigsten Highlights dieser Veröffentlichung

Wichtige Highlights​

  • Echtzeit-API-Kostenverfolgung: Verfolgen Sie die Kosten von Echtzeit-API-Aufrufen
  • Microsoft SSO automatische Synchronisierung: Synchronisieren Sie automatisch Gruppen und Gruppenmitglieder von Azure Entra ID nach LiteLLM
  • xAI grok-3: UnterstĂĽtzung fĂĽr xai/grok-3 Modelle hinzugefĂĽgt
  • Sicherheitskorrekturen: Schwachstellen CVE-2025-0330 und CVE-2024-6825 behoben

Tauchen wir ein.

Echtzeit-API-Kostenverfolgung​

Diese Veröffentlichung fügt Echtzeit-API-Protokollierung + Kostenverfolgung hinzu.

  • Protokollierung: LiteLLM protokolliert nun die vollständige Antwort von Echtzeit-Aufrufen fĂĽr alle Protokollierungsintegrationen (DB, S3, Langfuse usw.)
  • Kostenverfolgung: Sie können nun 'base_model' und benutzerdefinierte Preise fĂĽr Echtzeit-Modelle festlegen. Benutzerdefinierte Preise
  • Budgets: Ihre SchlĂĽssel-/Benutzer-/Team-Budgets funktionieren nun auch fĂĽr Echtzeit-Modelle.

Starten Sie hier

Microsoft SSO automatische Synchronisierung​

Synchronisiert automatisch Gruppen und Mitglieder von Azure Entra ID nach LiteLLM

Diese Version fĂĽgt UnterstĂĽtzung fĂĽr die automatische Synchronisierung von Gruppen und Mitgliedern in Microsoft Entra ID mit LiteLLM hinzu. Das bedeutet, dass LiteLLM Proxy-Administratoren weniger Zeit mit der Verwaltung von Teams und Mitgliedern verbringen mĂĽssen und LiteLLM Folgendes ĂĽbernimmt:

  • Automatische Erstellung von Teams, die in Microsoft Entra ID existieren
  • Synchronisierung von Teammitgliedern in Microsoft Entra ID mit LiteLLM-Teams

Starten Sie hier mit diesem Link

Neue Modelle / Aktualisierte Modelle​

  • xAI

    1. UnterstĂĽtzung fĂĽr `reasoning_effort` fĂĽr xai/grok-3-mini-beta hinzugefĂĽgt. Erste Schritte
    2. Kostenverfolgung fĂĽr xai/grok-3-Modelle hinzugefĂĽgt. PR
  • Hugging Face

    1. UnterstĂĽtzung fĂĽr Inferenz-Anbieter hinzugefĂĽgt. Erste Schritte
  • Azure

    1. Kostenverfolgung fĂĽr `azure/gpt-4o-realtime-audio` hinzugefĂĽgt. PR
  • VertexAI

    1. UnterstĂĽtzung fĂĽr das `enterpriseWebSearch`-Tool hinzugefĂĽgt. Erste Schritte
    2. Nur SchlĂĽssel ĂĽbergeben, die vom Vertex AI-Antwortschema akzeptiert werden. PR
  • Google AI Studio

    1. Kostenverfolgung fĂĽr gemini-2.5-pro-Modelle hinzugefĂĽgt. PR
    2. Preise fĂĽr 'gemini/gemini-2.5-pro-preview-03-25' korrigiert. PR
    3. Behandlung von `file_data`, das ĂĽbergeben wird, korrigiert. PR
  • Azure

    1. Preise fĂĽr Azure Phi-4 aktualisiert. PR
    2. Kostenverfolgung fĂĽr `azure/gpt-4o-realtime-audio` hinzugefĂĽgt. PR
  • Databricks

    1. `reasoning_effort` aus Parametern entfernt. PR
    2. ĂśberprĂĽfung benutzerdefinierter Endpunkte fĂĽr Databricks korrigiert. PR
  • Allgemein

    1. Dienstprogramm `litellm.supports_reasoning()` hinzugefĂĽgt, um zu verfolgen, ob eine LLM Reasoning unterstĂĽtzt. Erste Schritte
    2. Function Calling - Pydantic Base Model in Message Tool Calls verarbeitet, `tools = []` verarbeitet und Streaming fĂĽr Tool Calls bei `meta.llama3-3-70b-instruct-v1:0` unterstĂĽtzt. PR
    3. LiteLLM Proxy - Parameter `thinking` kann ĂĽber das Client-SDK an den LiteLLM Proxy ĂĽbergeben werden. PR
    4. Parameter `thinking` fĂĽr LiteLLM korrekt ĂĽbersetzt. PR

Verbesserungen bei der Ausgabenverfolgung​

  • OpenAI, Azure
    1. Echtzeit-API-Kostenverfolgung mit Token-Nutzungsmetriken in Spend-Logs. Erste Schritte
  • Anthropic
    1. Preise fĂĽr Claude Haiku Cache Read pro Token korrigiert. PR
    2. Kostenverfolgung fĂĽr Claude-Antworten mit `base_model` hinzugefĂĽgt. PR
    3. Kostenberechnung fĂĽr Anthropic Prompt Caching und gekĂĽrzte geloggte Nachricht in der DB korrigiert. PR
  • Allgemein
    1. Token-Tracking und Nutzungs-Objekt in Spend-Logs hinzugefĂĽgt. PR
    2. Benutzerdefinierte Preise auf Deployment-Ebene verarbeiten. PR

Management Endpunkte / UI​

  • Test Key Tab

    1. Darstellung von Reasoning-Inhalten, TTFT (Time to First Byte) und Nutzungsmetriken auf der Test-Key-Seite hinzugefĂĽgt. PR

      Anzeige von Input-, Output-, Reasoning-Tokens und TTFT-Metriken.

  • Tag- / Richtlinienverwaltung

    1. Tag-/Richtlinienverwaltung hinzugefügt. Erstellung von Routing-Regeln basierend auf Request-Metadaten. Dies ermöglicht die Durchsetzung, dass Anfragen mit tags="private" nur an bestimmte Modelle weitergeleitet werden. Erste Schritte


      Tags erstellen und verwalten.

  • Login-Bildschirm neu gestaltet

    1. Polierter Login-Bildschirm. PR
  • Microsoft SSO Auto-Sync

    1. Debug-Route hinzugefügt, um Admins die Fehlersuche bei SSO-JWT-Feldern zu ermöglichen. PR
    2. Möglichkeit hinzugefügt, die MSFT Graph API zur Zuweisung von Benutzern zu Teams zu verwenden. PR
    3. LiteLLM mit Microsoft Entra ID Enterprise Application verbunden. PR
    4. Möglichkeit für Admins hinzugefügt, `default_team_params` festzulegen, wenn LiteLLM SSO Standard-Teams erstellt. PR
    5. MSFT SSO korrigiert, um das richtige Feld fĂĽr die Benutzere-Mail zu verwenden. PR
    6. UI-UnterstĂĽtzung fĂĽr die Einstellung von "Default Team" hinzugefĂĽgt, wenn LiteLLM SSO automatisch Teams erstellt. PR
  • UI-Fehlerbehebungen

    1. Verhindert, dass numerische Werte für Teams, Keys, Organisationen und Modelle beim Scrollen geändert werden. PR
    2. Key- und Team-Updates werden sofort in der UI widergespiegelt. PR

Verbesserungen bei Logging / Guardrails.​

  • Prometheus
    1. Key- und Team-Budgetmetriken werden als Cronjob geplant ausgegeben. Erste Schritte

Sicherheitskorrekturen.​

  • Gefixed CVE-2025-0330 - Leakage von Langfuse API-SchlĂĽsseln bei der Team-Ausnahmebehandlung. PR
  • Gefixed CVE-2024-6825 - Remote Code Execution in Post-Call-Regeln. PR

Helm​

  • Service-Annotationen zum LiteLLM-Helm-Chart hinzugefĂĽgt. PR
  • Zusätzliche Umgebungsvariablen (`extraEnvVars`) zum Helm-Deployment hinzugefĂĽgt. PR

Demo​

Probieren Sie es noch heute in der Demo-Instanz aus. heute

Vollständiger Git-Diff​

Sehen Sie den vollständigen Git-Diff seit v1.65.4-stable hier

Krrish Dholakia
Ishaan Jaffer

Docker-Image, Sicherheit, Schwachstelle

0 kritische/hohe Schwachstellen

Was hat sich geändert?​

  • Das LiteLLMBase-Image verwendet jetzt cgr.dev/chainguard/python:latest-dev

Warum die Änderung?​

Um sicherzustellen, dass es 0 kritische/hohe Schwachstellen im LiteLLM Docker-Image gibt.

Migrationsanleitung​

  • Wenn Sie ein benutzerdefiniertes Dockerfile mit litellm als Basis-Image + apt-get verwenden.

Verwenden Sie anstelle von apt-get apk, da das Basis-LiteLLM-Image kein apt-get mehr installiert hat.

Sie sind nur betroffen, wenn Sie apt-get in Ihrem Dockerfile verwenden.

# Use the provided base image
FROM ghcr.io/berriai/litellm:main-latest

# Set the working directory
WORKDIR /app

# Install dependencies - CHANGE THIS to `apk`
RUN apt-get update && apt-get install -y dumb-init

Vor der Änderung

RUN apt-get update && apt-get install -y dumb-init

Nach der Änderung

RUN apk update && apk add --no-cache dumb-init