Sentry - LLM-Ausnahmen protokollieren
Tipp
Dies wird von der Community gepflegt. Bitte melden Sie einen Fehler, wenn Sie auf einen stoßen https://github.com/BerriAI/litellm
Sentry bietet Fehlerüberwachung für die Produktion. LiteLLM kann mit dieser Integration Breadcrumbs hinzufügen und Ausnahmen an Sentry senden.
Ausnahmen verfolgen für
- litellm.completion() - completion() für 100+ LLMs
- litellm.acompletion() - asynchrone completion()
- Streaming completion() & acompletion() Aufrufe
Verwendung
SENTRY_DSN & Callback festlegen
import litellm, os
os.environ["SENTRY_DSN"] = "your-sentry-url"
litellm.failure_callback=["sentry"]
Sentry-Callback mit completion
import litellm
from litellm import completion
litellm.input_callback=["sentry"] # adds sentry breadcrumbing
litellm.failure_callback=["sentry"] # [OPTIONAL] if you want litellm to capture -> send exception to sentry
import os
os.environ["SENTRY_DSN"] = "your-sentry-url"
os.environ["OPENAI_API_KEY"] = "your-openai-key"
# set bad key to trigger error
api_key="bad-key"
response = completion(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hey!"}], stream=True, api_key=api_key)
print(response)
Nachrichten, Antwortinhalt von Sentry-Protokollierung schwärzen
Setzen Sie litellm.turn_off_message_logging=True. Dies verhindert, dass die Nachrichten und Antworten an Sentry protokolliert werden, aber die Anforderungsmetadaten werden weiterhin protokolliert.
Teilen Sie uns mit, wenn Sie zusätzliche Optionen von Sentry benötigen.