Zum Hauptinhalt springen

3 Beiträge mit dem Tag "langfuse"

Alle Tags anzeigen

Krrish Dholakia
Ishaan Jaffer

alerting, prometheus, secret management, management endpoints, ui, prompt management, finetuning, batch

Neue / Aktualisierte Modelle​

  1. Mistral Large Preisgestaltung - https://github.com/BerriAI/litellm/pull/7452
  2. Cohere command-r7b-12-2024 Preisgestaltung - https://github.com/BerriAI/litellm/pull/7553/files
  3. Voyage - neue Modelle, Preise und Kontextfensterinformationen - https://github.com/BerriAI/litellm/pull/7472
  4. Anthropic - max_output_tokens für Bedrock Claude-3-5-Haiku auf 8192 erhöhen

Allgemeine Proxy-Verbesserungen​

  1. Health-Check-UnterstĂĽtzung fĂĽr Echtzeitmodelle
  2. UnterstĂĽtzt das Aufrufen von Azure-Echtzeitrouten ĂĽber virtuelle SchlĂĽssel
  3. UnterstĂĽtzt benutzerdefinierte Tokenizer auf /utils/token_counter - nĂĽtzlich beim ĂśberprĂĽfen der Token-Anzahl fĂĽr selbst gehostete Modelle
  4. Anforderungspriorisierung - unterstĂĽtzt auch auf dem /v1/completion-Endpunkt

LLM-Übersetzungsverbesserungen​

  1. Deepgram STT-UnterstĂĽtzung. Hier starten
  2. OpenAI Moderationen - UnterstĂĽtzung fĂĽr omni-moderation-latest. Hier starten
  3. Azure O1 - Fake-Streaming-UnterstĂĽtzung. Dies stellt sicher, dass die Antwort gestreamt wird, wenn stream=true ĂĽbergeben wird. Hier starten
  4. Anthropic - Behandlung von Nicht-Leerzeichen-Zeichen als Stoppsequenz - PR
  5. Azure OpenAI - UnterstĂĽtzung fĂĽr die Authentifizierung basierend auf Benutzername + Passwort von Entra ID. Hier starten
  6. LM Studio - Embedding-Routen-UnterstĂĽtzung. Hier starten
  7. WatsonX - ZenAPIKeyAuth-UnterstĂĽtzung. Hier starten

Prompt Management Verbesserungen​

  1. Langfuse-Integration
  2. HumanLoop-Integration
  3. UnterstĂĽtzung fĂĽr die Verwendung von Lastverteilungsmodellen
  4. UnterstĂĽtzung fĂĽr das Laden optionaler Parameter aus dem Prompt-Manager

Hier starten

Finetuning + Batch API Verbesserungen​

  1. Verbesserte einheitliche EndpunktunterstĂĽtzung fĂĽr Vertex AI Finetuning - PR
  2. UnterstĂĽtzung fĂĽr den Abruf von Vertex API Batch-Jobs hinzufĂĽgen - PR

NEUE Alerting-Integration​

PagerDuty Alerting-Integration.

Behandelt zwei Arten von Alarmen

  • Hohe Ausfallrate der LLM-API. Konfigurieren Sie X Fehler in Y Sekunden, um einen Alarm auszulösen.
  • Hohe Anzahl von hängenden LLM-Anfragen. Konfigurieren Sie X Hänger in Y Sekunden, um einen Alarm auszulösen.

Hier starten

Prometheus Verbesserungen​

UnterstĂĽtzung fĂĽr die Verfolgung von Latenz/Ausgaben/Tokens basierend auf benutzerdefinierten Metriken hinzugefĂĽgt. Hier starten

NEUE Hashicorp Secret Manager Unterstützung​

UnterstĂĽtzung fĂĽr das Lesen von Anmeldeinformationen + Schreiben von LLM-API-SchlĂĽsseln. Hier starten

Management-Endpunkte / UI-Verbesserungen​

  1. Organisationen erstellen und anzeigen + Organisationsadministratoren in der Proxy-UI zuweisen
  2. Unterstützt das Löschen von Schlüsseln nach key_alias
  3. Teams der Organisation in der UI zuweisen
  4. Verhindert die Verwendung des UI-Sitzungs-Tokens fĂĽr den "TestschlĂĽssel"-Bereich
  5. Anzeige des verwendeten Modells im "TestschlĂĽssel"-Bereich
  6. UnterstĂĽtzt Markdown-Ausgabe im "TestschlĂĽssel"-Bereich

Helm-Verbesserungen​

  1. Verhindert Istio-Injection fĂĽr den DB-Migrations-Cronjob
  2. migrationJob.enabled-Variable innerhalb des Jobs verwenden

Logging-Verbesserungen​

  1. braintrust logging: project_id berĂĽcksichtigen, mehr Metriken hinzufĂĽgen - https://github.com/BerriAI/litellm/pull/7613
  2. Athina - Basis-URL unterstĂĽtzen - ATHINA_BASE_URL
  3. Lunary - Ăśbergabe einer benutzerdefinierten ĂĽbergeordneten AusfĂĽhrungs-ID an LLM-Aufrufe zulassen

Git-Diff​

Dies ist der Diff zwischen v1.56.3-stable und v1.57.8-stable.

Verwenden Sie dies, um die Änderungen im Codebase zu sehen.

Git Diff

Krrish Dholakia
Ishaan Jaffer

langfuse, Management-Endpunkte, UI, prometheus, Geheimnisverwaltung

Langfuse Prompt Management​

Langfuse Prompt Management wird als BETA gekennzeichnet. Dies ermöglicht uns, schnell auf Feedback zu reagieren, das wir erhalten, und den Status für Benutzer klarer zu gestalten. Wir erwarten, dass diese Funktion nächsten Monat (Februar 2025) stabil sein wird.

Änderungen

  • Die Client-Nachricht in der LLM API-Anfrage einschlieĂźen. (Zuvor wurde nur die Prompt-Vorlage gesendet, und die Client-Nachricht wurde ignoriert).
  • Protokollieren Sie die Prompt-Vorlage in der protokollierten Anfrage (z. B. nach S3/Langfuse).
  • Protokollieren Sie die 'prompt_id' und 'prompt_variables' in der protokollierten Anfrage (z. B. nach S3/Langfuse).

Hier starten

Team-/Organisationsverwaltung + UI-Verbesserungen​

Die Verwaltung von Teams und Organisationen in der Benutzeroberfläche ist jetzt einfacher.

Änderungen

  • UnterstĂĽtzung fĂĽr die Bearbeitung von Benutzerrollen innerhalb eines Teams in der Benutzeroberfläche.
  • UnterstĂĽtzung fĂĽr die Aktualisierung der Rolle eines Teammitglieds auf Administrator ĂĽber die API - /team/member_update
  • Team-Administratoren zeigen alle SchlĂĽssel fĂĽr ihr Team an.
  • Organisationen mit Budgets hinzufĂĽgen
  • Teams Organisationen auf der Benutzeroberfläche zuweisen
  • SSO-Benutzer automatisch Teams zuweisen

Hier starten

Hashicorp Vault Unterstützung​

Wir unterstĂĽtzen jetzt das Schreiben von LiteLLM Virtual API-SchlĂĽsseln in Hashicorp Vault.

Hier starten

Benutzerdefinierte Prometheus-Metriken​

Definieren Sie benutzerdefinierte Prometheus-Metriken und verfolgen Sie Nutzung/Latenz/Anzahl der Anfragen dagegen.

Dies ermöglicht eine feinere Verfolgung - z. B. basierend auf der im Metadaten der Anfrage übergebenen Prompt-Vorlage.

Hier starten

Krrish Dholakia
Ishaan Jaffer

Eine neue LiteLLM Stable-Version wurde gerade veröffentlicht. Hier sind 5 Updates seit v1.52.2-stable.

langfuse, Fallbacks, neue Modelle, azure_storage

Langfuse Prompt Management​

Dies erleichtert das Ausführen von Experimenten oder das Ändern spezifischer Modelle wie gpt-4o zu gpt-4o-mini auf Langfuse, anstatt Änderungen in Ihren Anwendungen vorzunehmen. Start hier

Fallback-Prompts clientseitig steuern​

Claude-Prompts unterscheiden sich von OpenAI-Prompts.

Ăśbergabe von modellspezifischen Prompts bei der Verwendung von Fallbacks. Start hier

Neue Anbieter / Modelle​

✨ Unterstützung für Azure Data Lake Storage​

Senden Sie LLM-Nutzungsdaten (Ausgaben, Token) an Azure Data Lake. Dies erleichtert die Nutzung von Nutzungsdaten auf anderen Diensten (z. B. Databricks) Start hier

Docker Run LiteLLM​

docker run \
-e STORE_MODEL_IN_DB=True \
-p 4000:4000 \
ghcr.io/berriai/litellm:litellm_stable_release_branch-v1.55.8-stable

Tägliche Updates erhalten​

LiteLLM veröffentlicht täglich neue Versionen. Folgen Sie uns auf LinkedIn, um tägliche Updates zu erhalten.