Zum Hauptinhalt springen

Snowflake

EigenschaftDetails
BeschreibungDie Snowflake Cortex LLM REST API ermöglicht Ihnen den Zugriff auf die COMPLETE-Funktion über HTTP POST-Anfragen
Provider-Routing in LiteLLMsnowflake/
Link zur AnbieterdokumentationSnowflake ↗
Basis-URLhttps://{account-id}.snowflakecomputing.com/api/v2/cortex/inference:complete/
Unterstützte OpenAI-Endpunkte/chat/completions, /completions

Derzeit hat die REST-API von Snowflake keinen Endpunkt für die Embedding-Modelle snowflake-arctic-embed. Wenn Sie diese Embedding-Modelle mit Litellm verwenden möchten, können Sie sie über unseren Hugging Face-Provider aufrufen.

Hier auf Hugging Face finden Sie die Arctic Embed-Modelle hier.

Unterstützte OpenAI-Parameter

    "temperature",
"max_tokens",
"top_p",
"response_format"

API SCHLÜSSEL

Snowflake hat keine API-Schlüssel. Stattdessen greifen Sie mit Ihrem JWT-Token und Ihrer Account-ID auf die Snowflake-API zu.

import os 
os.environ["SNOWFLAKE_JWT"] = "YOUR JWT"
os.environ["SNOWFLAKE_ACCOUNT_ID"] = "YOUR ACCOUNT IDENTIFIER"

Verwendung

from litellm import completion

## set ENV variables
os.environ["SNOWFLAKE_JWT"] = "YOUR JWT"
os.environ["SNOWFLAKE_ACCOUNT_ID"] = "YOUR ACCOUNT IDENTIFIER"

# Snowflake call
response = completion(
model="snowflake/mistral-7b",
messages = [{ "content": "Hello, how are you?","role": "user"}]
)

Verwendung mit LiteLLM Proxy

1. Erforderliche Umgebungsvariablen

export SNOWFLAKE_JWT=""
export SNOWFLAKE_ACCOUNT_ID = ""

2. Starten Sie den Proxy~

model_list:
- model_name: mistral-7b
litellm_params:
model: snowflake/mistral-7b
api_key: YOUR_API_KEY
api_base: https://YOUR-ACCOUNT-ID.snowflakecomputing.com/api/v2/cortex/inference:complete

litellm --config /path/to/config.yaml

3. Testen

curl --location 'http://0.0.0.0:4000/chat/completions' \
--header 'Content-Type: application/json' \
--data ' {
"model": "snowflake/mistral-7b",
"messages": [
{
"role": "user",
"content": "Hello, how are you?"
}
]
}
'