Zum Hauptinhalt springen

Verwendung des Text Completion Formats - mit Completion()

Wenn Sie die Interaktion mit dem OpenAI Text Completion-Format bevorzugen, behandelt dieses Tutorial, wie LiteLLM in diesem Format verwendet wird.

response = openai.Completion.create(
model="text-davinci-003",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)

Verwendung von LiteLLM im Text Completion-Format​

Mit gpt-3.5-turbo​

from litellm import text_completion
response = text_completion(
model="gpt-3.5-turbo",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)

Mit text-davinci-003​

response = text_completion(
model="text-davinci-003",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)

Mit llama2​

response = text_completion(
model="togethercomputer/llama-2-70b-chat",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)