Verwendung von Fine-Tuned gpt-3.5-turbo
LiteLLM ermöglicht es Ihnen, completion mit Ihren feingetunten gpt-3.5-turbo Modellen aufzurufen. Wenn Sie Ihr eigenes feingetuntes gpt-3.5-turbo Modell erstellen möchten, folgen Sie diesem Tutorial: https://platform.openai.com/docs/guides/fine-tuning/preparing-your-dataset
Sobald Sie Ihr feingetuntes Modell erstellt haben, können Sie es mit litellm.completion() aufrufen.
Verwendung​
import os
from litellm import completion
# LiteLLM reads from your .env
os.environ["OPENAI_API_KEY"] = "your-api-key"
response = completion(
model="ft:gpt-3.5-turbo:my-org:custom_suffix:id",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message)
Verwendung - Festlegen der OpenAI-Organisations-ID​
LiteLLM ermöglicht es Ihnen, Ihre OpenAI-Organisation bei Aufrufen von OpenAI LLMs anzugeben. Weitere Details hier: Festlegen der Organisations-ID Dies kann auf eine der folgenden Arten erfolgen:
- Umgebungsvariable
OPENAI_ORGANIZATION - Parameter fĂĽr
litellm.completion(model=model, organization="ihre-organisations-id") - Als
litellm.organization="ihre-organisations-id"festlegen
import os
from litellm import completion
# LiteLLM reads from your .env
os.environ["OPENAI_API_KEY"] = "your-api-key"
os.environ["OPENAI_ORGANIZATION"] = "your-org-id" # Optional
response = completion(
model="ft:gpt-3.5-turbo:my-org:custom_suffix:id",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message)