Verwendung des Text Completion Formats - mit Completion()
Wenn Sie die Interaktion mit dem OpenAI Text Completion-Format bevorzugen, behandelt dieses Tutorial, wie LiteLLM in diesem Format verwendet wird.
response = openai.Completion.create(
model="text-davinci-003",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)
Verwendung von LiteLLM im Text Completion-Format​
Mit gpt-3.5-turbo​
from litellm import text_completion
response = text_completion(
model="gpt-3.5-turbo",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)
Mit text-davinci-003​
response = text_completion(
model="text-davinci-003",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)
Mit llama2​
response = text_completion(
model="togethercomputer/llama-2-70b-chat",
prompt='Write a tagline for a traditional bavarian tavern',
temperature=0,
max_tokens=100)