Zum Hauptinhalt springen

Humanloop

Humanloop ermöglicht Produktteams den Aufbau robuster KI-Funktionen mit LLMs unter Verwendung erstklassiger Tools für Evaluierung, Prompt-Management und Beobachtbarkeit.

Erste Schritte

Verwenden Sie Humanloop, um Prompts über alle LiteLLM-Anbieter hinweg zu verwalten.

import os 
import litellm

os.environ["HUMANLOOP_API_KEY"] = "" # [OPTIONAL] set here or in `.completion`

litellm.set_verbose = True # see raw request to provider

resp = litellm.completion(
model="humanloop/gpt-3.5-turbo",
prompt_id="test-chat-prompt",
prompt_variables={"user_message": "this is used"}, # [OPTIONAL]
messages=[{"role": "user", "content": "<IGNORED>"}],
# humanloop_api_key="..." ## alternative to setting env var
)

Erwartete Protokolle

POST Request Sent from LiteLLM:
curl -X POST \
https://api.openai.com/v1/ \
-d '{'model': 'gpt-3.5-turbo', 'messages': <YOUR HUMANLOOP PROMPT TEMPLATE>}'

So legen Sie das Modell fest

So legen Sie das Modell fest

Das Modell auf LiteLLM festlegen

Sie können humanloop/<litellm_model_name> verwenden

litellm.completion(
model="humanloop/gpt-3.5-turbo", # or `humanloop/anthropic/claude-3-5-sonnet`
...
)

Das Modell auf Humanloop festlegen

LiteLLM ruft den Endpunkt von Humanloop https://api.humanloop.com/v5/prompts/<your-prompt-id> auf, um die Prompt-Vorlage abzurufen.

Dies gibt auch das auf Humanloop festgelegte Vorlagenmodell zurück.

{
"template": [
{
... # your prompt template
}
],
"model": "gpt-3.5-turbo" # your template model
}