Zum Hauptinhalt springen

Aporia

Verwenden Sie Aporia, um PII in Anfragen und Obszönitäten in Antworten zu erkennen

1. Richten Sie Guardrails auf Aporia ein​

Erstellen Sie Aporia-Projekte​

Erstellen Sie zwei Projekte auf Aporia

  1. Pre LLM API Call – Legen Sie alle Richtlinien fest, die Sie vor dem LLM-API-Aufruf ausführen möchten
  2. Post LLM API Call – Legen Sie alle Richtlinien fest, die Sie nach dem LLM-API-Aufruf ausführen möchten

Pre-Call: PII erkennen​

FĂĽgen Sie den PII - Prompt zu Ihrem Pre LLM API Call-Projekt hinzu

Post-Call: Obszönitäten in Antworten erkennen​

FĂĽgen Sie den Toxicity - Response zu Ihrem Post LLM API Call-Projekt hinzu

2. Definieren Sie Guardrails in Ihrer LiteLLM config.yaml​

  • Definieren Sie Ihre Guardrails unter dem Abschnitt guardrails
model_list:
- model_name: gpt-3.5-turbo
litellm_params:
model: openai/gpt-3.5-turbo
api_key: os.environ/OPENAI_API_KEY

guardrails:
- guardrail_name: "aporia-pre-guard"
litellm_params:
guardrail: aporia # supported values: "aporia", "lakera"
mode: "during_call"
api_key: os.environ/APORIA_API_KEY_1
api_base: os.environ/APORIA_API_BASE_1
- guardrail_name: "aporia-post-guard"
litellm_params:
guardrail: aporia # supported values: "aporia", "lakera"
mode: "post_call"
api_key: os.environ/APORIA_API_KEY_2
api_base: os.environ/APORIA_API_BASE_2

Unterstützte Werte für mode​

  • pre_call Vor dem LLM-Aufruf, auf der Eingabe ausfĂĽhren
  • post_call Nach dem LLM-Aufruf, auf der Eingabe & Ausgabe ausfĂĽhren
  • during_call Während des LLM-Aufrufs, auf der Eingabe ausfĂĽhren. Gleicht pre_call, läuft aber parallel zum LLM-Aufruf. Die Antwort wird erst zurĂĽckgegeben, wenn die Guardrail-PrĂĽfung abgeschlossen ist.

3. Starten Sie das LiteLLM Gateway​

litellm --config config.yaml --detailed_debug

4. Testanfrage​

Langchain, OpenAI SDK Anwendungsbeispiele

Dies sollte fehlschlagen, da ishaan@berri.ai in der Anfrage PII ist.

curl -i https://:4000/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-npnwjPQciVRok5yNZgKmFQ" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [
{"role": "user", "content": "hi my email is ishaan@berri.ai"}
],
"guardrails": ["aporia-pre-guard", "aporia-post-guard"]
}'

Erwartete Antwort bei Fehler

{
"error": {
"message": {
"error": "Violated guardrail policy",
"aporia_ai_response": {
"action": "block",
"revised_prompt": null,
"revised_response": "Aporia detected and blocked PII",
"explain_log": null
}
},
"type": "None",
"param": "None",
"code": "400"
}
}

5. ✨ Guardrails pro Projekt steuern (API-Schlüssel)​

Info

✨ Dies ist eine exklusive Enterprise-Funktion Kontaktieren Sie uns für eine kostenlose Testversion

Verwenden Sie dies, um zu steuern, welche Guardrails pro Projekt ausgeführt werden. In diesem Tutorial möchten wir nur die folgenden Guardrails für 1 Projekt (API-Schlüssel) ausführen

  • guardrails: ["aporia-pre-guard", "aporia-post-guard"]

Schritt 1 SchlĂĽssel mit Guardrail-Einstellungen erstellen

curl -X POST 'http://0.0.0.0:4000/key/generate' \
-H 'Authorization: Bearer sk-1234' \
-H 'Content-Type: application/json' \
-D '{
"guardrails": ["aporia-pre-guard", "aporia-post-guard"]
}
}'

Schritt 2 Mit neuem SchlĂĽssel testen

curl --location 'http://0.0.0.0:4000/chat/completions' \
--header 'Authorization: Bearer sk-jNm1Zar7XfNdZXp49Z1kSQ' \
--header 'Content-Type: application/json' \
--data '{
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "my email is ishaan@berri.ai"
}
]
}'