Zum Hauptinhalt springen

Azure OpenAI Embeddings

API-Schlüssel​

Dies kann als Umgebungsvariable festgelegt oder als Parameter fĂĽr litellm.embedding() ĂĽbergeben werden

import os
os.environ['AZURE_API_KEY'] =
os.environ['AZURE_API_BASE'] =
os.environ['AZURE_API_VERSION'] =

Verwendung​

from litellm import embedding
response = embedding(
model="azure/<your deployment name>",
input=["good morning from litellm"],
api_key=api_key,
api_base=api_base,
api_version=api_version,
)
print(response)
ModellnameFunktionsaufruf
text-embedding-ada-002embedding(model="azure/<Ihr Deployment-Name>", input=input)

h/t an Mikko fĂĽr diese Integration

Verwendung - LiteLLM Proxy Server​

Hier erfahren Sie, wie Sie Azure OpenAI-Modelle mit dem LiteLLM Proxy Server aufrufen können

1. Speichern Sie den Schlüssel in Ihrer Umgebung​

export AZURE_API_KEY=""

2. Proxy starten​

model_list:
- model_name: text-embedding-ada-002
litellm_params:
model: azure/my-deployment-name
api_base: https://openai-gpt-4-test-v-1.openai.azure.com/
api_version: "2023-05-15"
api_key: os.environ/AZURE_API_KEY # The `os.environ/` prefix tells litellm to read this from the env.

3. Testen​

curl --location 'http://0.0.0.0:4000/embeddings' \
--header 'Content-Type: application/json' \
--data ' {
"model": "text-embedding-ada-002",
"input": ["write a litellm poem"]
}'