🌙 Lunary - GenAI Observability
Lunary ist eine Open-Source-Plattform, die Observability, Prompt-Management und Analysen bietet, um Teams bei der Verwaltung und Verbesserung von LLM-Chatbots zu unterstützen.
Sie können uns jederzeit per E-Mail erreichen oder direkt einen Demo-Termin vereinbaren.
Verwendung mit dem LiteLLM Python SDK
Voraussetzungen
pip install litellm lunary
Schnellstart
Holen Sie sich zuerst Ihren öffentlichen Lunary-Schlüssel im Lunary Dashboard.
Verwenden Sie nur 2 Codezeilen, um Ihre Antworten über alle Anbieter hinweg sofort mit Lunary zu protokollieren
litellm.success_callback = ["lunary"]
litellm.failure_callback = ["lunary"]
Vollständiger Code
from litellm import completion
os.environ["LUNARY_PUBLIC_KEY"] = "your-lunary-public-key" # from https://app.lunary.ai/)
os.environ["OPENAI_API_KEY"] = ""
litellm.success_callback = ["lunary"]
litellm.failure_callback = ["lunary"]
response = completion(
model="gpt-4o",
messages=[{"role": "user", "content": "Hi there 👋"}],
user="ishaan_litellm"
)
Verwendung mit LangChain ChatLiteLLM
import os
from langchain.chat_models import ChatLiteLLM
from langchain.schema import HumanMessage
import litellm
os.environ["LUNARY_PUBLIC_KEY"] = "" # from https://app.lunary.ai/settings
os.environ['OPENAI_API_KEY']="sk-..."
litellm.success_callback = ["lunary"]
litellm.failure_callback = ["lunary"]
chat = ChatLiteLLM(
model="gpt-4o"
messages = [
HumanMessage(
content="what model are you"
)
]
chat(messages)
Verwendung mit Prompt-Vorlagen
Sie können Lunary verwenden, um Prompt-Vorlagen zu verwalten und sie mit LiteLLM über alle Ihre LLM-Anbieter hinweg zu verwenden.
from litellm import completion
from lunary
template = lunary.render_template("template-slug", {
"name": "John", # Inject variables
})
litellm.success_callback = ["lunary"]
result = completion(**template)
Verwendung mit benutzerdefinierten Chains
Sie können Ihre LLM-Aufrufe in benutzerdefinierte Chains einpacken, damit Sie sie als Traces visualisieren können.
import litellm
from litellm import completion
import lunary
litellm.success_callback = ["lunary"]
litellm.failure_callback = ["lunary"]
@lunary.chain("My custom chain name")
def my_chain(chain_input):
chain_run_id = lunary.run_manager.current_run_id
response = completion(
model="gpt-4o",
messages=[{"role": "user", "content": "Say 1"}],
metadata={"parent_run_id": chain_run_id},
)
response = completion(
model="gpt-4o",
messages=[{"role": "user", "content": "Say 2"}],
metadata={"parent_run_id": chain_run_id},
)
chain_output = response.choices[0].message
return chain_output
my_chain("Chain input")
Verwendung mit LiteLLM Proxy Server
Schritt 1: Abhängigkeiten installieren und Umgebungsvariablen festlegen
Abhängigkeiten installieren
pip install litellm lunary
Holen Sie sich Ihren öffentlichen Lunary-Schlüssel von https://app.lunary.ai/settings
export LUNARY_PUBLIC_KEY="<your-public-key>"
Schritt 2: Eine config.yaml erstellen und lunary Callbacks festlegen
model_list:
- model_name: "*"
litellm_params:
model: "*"
litellm_settings:
success_callback: ["lunary"]
failure_callback: ["lunary"]
Schritt 3: Den LiteLLM-Proxy starten
litellm --config config.yaml
Schritt 4: Eine Anfrage stellen
curl -X POST 'http://0.0.0.0:4000/chat/completions' \
-H 'Content-Type: application/json' \
-d '{
"model": "gpt-4o",
"messages": [
{
"role": "system",
"content": "You are a helpful math tutor. Guide the user through the solution step by step."
},
{
"role": "user",
"content": "how can I solve 8x + 7 = -23"
}
]
}'
Weitere Details zu den verschiedenen Möglichkeiten, Anfragen an den LiteLLM-Proxy zu stellen, finden Sie auf dieser Seite
Support & Sprechen Sie mit den Gründern
- Demo buchen 👋
- Community Discord 💭
- Unsere Nummern 📞 +1 (770) 8783-106 / +1 (412) 618-6238
- Unsere E-Mails ✉️ ishaan@berri.ai / krrish@berri.ai