Zum Hauptinhalt springen

Roh-Anfrage-/Antwort-Protokollierung

Protokollierung

Sehen Sie die rohe Anfrage/Antwort, die von LiteLLM an Ihren Protokollierungsanbieter (OTEL/Langfuse/etc.) gesendet wurde.

# pip install langfuse 
import litellm
import os

# log raw request/response
litellm.log_raw_request_response = True

# from https://cloud.langfuse.com/
os.environ["LANGFUSE_PUBLIC_KEY"] = ""
os.environ["LANGFUSE_SECRET_KEY"] = ""
# Optional, defaults to https://cloud.langfuse.com
os.environ["LANGFUSE_HOST"] # optional

# LLM API Keys
os.environ['OPENAI_API_KEY']=""

# set langfuse as a callback, litellm will send the data to langfuse
litellm.success_callback = ["langfuse"]

# openai call
response = litellm.completion(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": "Hi 👋 - i'm openai"}
]
)

Erwartetes Protokoll

Rohe Antwortheader zurückgeben

Gibt die rohen Antwortheader vom LLM-Anbieter zurück.

Derzeit nur für OpenAI unterstützt.

import litellm
import os

litellm.return_response_headers = True

## set ENV variables
os.environ["OPENAI_API_KEY"] = "your-api-key"

response = litellm.completion(
model="gpt-3.5-turbo",
messages=[{ "content": "Hello, how are you?","role": "user"}]
)

print(response._hidden_params)

Erwartete Antwort