Zum Hauptinhalt springen

/completions

Verwendung​

from litellm import text_completion

response = text_completion(
model="gpt-3.5-turbo-instruct",
prompt="Say this is a test",
max_tokens=7
)

Eingabeparameter​

LiteLLM akzeptiert und übersetzt die OpenAI Text Completion Parameter über alle unterstützten Anbieter hinweg.

Erforderliche Felder​

  • model: string - ID des zu verwendenden Modells
  • prompt: string oder Array - Die Eingabeaufforderung(en) zur Generierung von Vervollständigungen

Optionale Felder​

  • best_of: integer - Generiert best_of Vervollständigungen serverseitig und gibt die "beste" zurück
  • echo: boolean - Gibt die Eingabeaufforderung zusätzlich zur Vervollständigung zurück.
  • frequency_penalty: number - Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend auf ihrer bestehenden Häufigkeit.
  • logit_bias: map - Ändert die Wahrscheinlichkeit, dass bestimmte Tokens in der Vervollständigung erscheinen
  • logprobs: integer - Schließt die Log-Wahrscheinlichkeiten für die logprobs wahrscheinlichsten Tokens ein. Maximalwert 5
  • max_tokens: integer - Die maximale Anzahl der zu generierenden Tokens.
  • n: integer - Wie viele Vervollständigungen für jede Eingabeaufforderung generiert werden sollen.
  • presence_penalty: number - Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie im bisherigen Text vorkommen.
  • seed: integer - Wenn angegeben, versucht das System, deterministische Stichproben zu erstellen
  • stop: string oder Array - Bis zu 4 Sequenzen, an denen die API die Generierung von Tokens stoppt
  • stream: boolean - Gibt zurück, ob Teilfortschritte gestreamt werden sollen. Standardmäßig false
  • suffix: string - Der Suffix, der nach einer Vervollständigung von eingefügtem Text kommt
  • temperature: number - Welche Sampling-Temperatur verwendet werden soll, zwischen 0 und 2.
  • top_p: number - Eine Alternative zum Sampling mit Temperatur, genannt Nucleus Sampling.
  • user: string - Eine eindeutige Kennung für Ihren Endbenutzer

Ausgabeformat​

Hier ist das genaue JSON-Ausgabeformat, das Sie von Vervollständigungsaufrufen erwarten können

Folgt dem Ausgabeformat von OpenAI

{
"id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
"object": "text_completion",
"created": 1589478378,
"model": "gpt-3.5-turbo-instruct",
"system_fingerprint": "fp_44709d6fcb",
"choices": [
{
"text": "\n\nThis is indeed a test",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 7,
"total_tokens": 12
}
}

Unterstützte Anbieter​

AnbieterLink zur Verwendung
OpenAIVerwendung
Azure OpenAIVerwendung