/moderations
Verwendung
- LiteLLM Python SDK
- LiteLLM Proxy Server
from litellm import moderation
response = moderation(
input="hello from litellm",
model="text-moderation-stable"
)
Für den /moderations Endpunkt ist es nicht notwendig, model in der Anfrage oder in der litellm config.yaml anzugeben
Starten Sie den litellm Proxy-Server
litellm
- OpenAI Python SDK
- Curl-Anfrage
from openai import OpenAI
# set base_url to your proxy server
# set api_key to send to proxy server
client = OpenAI(api_key="<proxy-api-key>", base_url="http://0.0.0.0:4000")
response = client.moderations.create(
input="hello from litellm",
model="text-moderation-stable" # optional, defaults to `omni-moderation-latest`
)
print(response)
curl --location 'http://0.0.0.0:4000/moderations' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-1234' \
--data '{"input": "Sample text goes here", "model": "text-moderation-stable"}'
Input-Parameter
LiteLLM akzeptiert und übersetzt die OpenAI Moderationsparameter für alle unterstützten Anbieter.
Erforderliche Felder
input: string oder Array - Eingabe (oder Eingaben) zur Klassifizierung. Kann ein einzelner String, ein Array von Strings oder ein Array von Multi-Modal-Input-Objekten sein, ähnlich wie bei anderen Modellen.- Wenn String: Ein Text-String zur Klassifizierung für Moderation
- Wenn Array von Strings: Ein Array von Strings zur Klassifizierung für Moderation
- Wenn Array von Objekten: Ein Array von Multi-Modal-Inputs für das Moderationsmodell, wobei jedes Objekt sein kann
- Ein Objekt, das ein zu klassifizierendes Bild beschreibt
type: string, erforderlich - Immerimage_urlimage_url: objekt, erforderlich - Enthält entweder eine Bild-URL oder eine Daten-URL für ein base64-kodiertes Bild
- Ein Objekt, das Text zur Klassifizierung beschreibt
type: string, erforderlich - Immertexttext: string, erforderlich - Ein Text-String zur Klassifizierung
- Ein Objekt, das ein zu klassifizierendes Bild beschreibt
Optionale Felder
model: string (optional) - Das zu verwendende Moderationsmodell. Standardmäßigomni-moderation-latest.
Ausgabeformat
Hier ist das exakte JSON-Ausgabeformat und der Typ, den Sie von allen Moderationsaufrufen erwarten können
LiteLLM folgt dem Ausgabeformat von OpenAI
{
"id": "modr-AB8CjOTu2jiq12hp1AQPfeqFWaORR",
"model": "text-moderation-007",
"results": [
{
"flagged": true,
"categories": {
"sexual": false,
"hate": false,
"harassment": true,
"self-harm": false,
"sexual/minors": false,
"hate/threatening": false,
"violence/graphic": false,
"self-harm/intent": false,
"self-harm/instructions": false,
"harassment/threatening": true,
"violence": true
},
"category_scores": {
"sexual": 0.000011726012417057063,
"hate": 0.22706663608551025,
"harassment": 0.5215635299682617,
"self-harm": 2.227119921371923e-6,
"sexual/minors": 7.107352217872176e-8,
"hate/threatening": 0.023547329008579254,
"violence/graphic": 0.00003391829886822961,
"self-harm/intent": 1.646940972932498e-6,
"self-harm/instructions": 1.1198755256458526e-9,
"harassment/threatening": 0.5694745779037476,
"violence": 0.9971134662628174
}
}
]
}
Unterstützte Anbieter
| Anbieter |
|---|
| OpenAI |