Promptlayer Tutorial
Dies wird von der Community gepflegt. Bitte melden Sie einen Fehler, wenn Sie auf einen stoßen https://github.com/BerriAI/litellm
Promptlayer ist eine Plattform für Prompt-Ingenieure. Protokolliere OpenAI-Anfragen. Suche in der Nutzungshistorie. Verfolge die Leistung. Verwalte Prompt-Vorlagen visuell.
Verwenden Sie Promptlayer, um Anfragen über alle LLM-Anbieter hinweg zu protokollieren (OpenAI, Azure, Anthropic, Cohere, Replicate, PaLM)
liteLLM bietet Callbacks, mit denen Sie Daten basierend auf dem Status Ihrer Antworten einfach protokollieren können.
Verwendung von Callbacks
Holen Sie sich Ihren PromptLayer API-Schlüssel von https://promptlayer.com/
Verwenden Sie nur 2 Zeilen Code, um Ihre Antworten sofort zu protokollieren über alle Anbieter mit Promptlayer
litellm.success_callback = ["promptlayer"]
Vollständiger Code
from litellm import completion
## set env variables
os.environ["PROMPTLAYER_API_KEY"] = "your-promptlayer-key"
os.environ["OPENAI_API_KEY"], os.environ["COHERE_API_KEY"] = "", ""
# set callbacks
litellm.success_callback = ["promptlayer"]
#openai call
response = completion(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hi 👋 - i'm openai"}])
#cohere call
response = completion(model="command-nightly", messages=[{"role": "user", "content": "Hi 👋 - i'm cohere"}])
Metadaten protokollieren
Sie können auch Metadaten für Abschlussanfragen an Promptlayer protokollieren.
Sie können Metadaten zu einer Abschlussanfrage über den Metadaten-Parameter hinzufügen
completion(model,messages, metadata={"model": "ai21"})
Vollständiger Code
from litellm import completion
## set env variables
os.environ["PROMPTLAYER_API_KEY"] = "your-promptlayer-key"
os.environ["OPENAI_API_KEY"], os.environ["COHERE_API_KEY"] = "", ""
# set callbacks
litellm.success_callback = ["promptlayer"]
#openai call - log llm provider is openai
response = completion(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hi 👋 - i'm openai"}], metadata={"provider": "openai"})
#cohere call - log llm provider is cohere
response = completion(model="command-nightly", messages=[{"role": "user", "content": "Hi 👋 - i'm cohere"}], metadata={"provider": "cohere"})
Dank an Nick Bradford von Vim-GPT für den Vorschlag.
Support & Sprechen Sie mit den Gründern
- Demo buchen 👋
- Community Discord 💭
- Unsere Nummern 📞 +1 (770) 8783-106 / +1 (412) 618-6238
- Unsere E-Mails ✉️ ishaan@berri.ai / krrish@berri.ai