Nicht unterstützte Parameter verwerfen
Entfernen Sie nicht unterstützte OpenAI-Parameter von Ihrem LLM-Anbieter.
Schnellstart
import litellm
import os
# set keys
os.environ["COHERE_API_KEY"] = "co-.."
litellm.drop_params = True # 👈 KEY CHANGE
response = litellm.completion(
model="command-r",
messages=[{"role": "user", "content": "Hey, how's it going?"}],
response_format={"key": "value"},
)
LiteLLM ordnet alle unterstützten OpenAI-Parameter nach Anbieter + Modell (z. B. Funktionsaufrufe werden von Anthropic auf Bedrock unterstützt, aber nicht von Titan).
Siehe litellm.get_supported_openai_params("command-r") Code
Wenn ein Anbieter/Modell einen bestimmten Parameter nicht unterstützt, können Sie ihn entfernen.
Verwendung des OpenAI-Proxys
litellm_settings:
drop_params: true
Übergeben Sie drop_params in completion(..)
Einfach drop_params beim Aufruf spezifischer Modelle
- SDK
- PROXY
import litellm
import os
# set keys
os.environ["COHERE_API_KEY"] = "co-.."
response = litellm.completion(
model="command-r",
messages=[{"role": "user", "content": "Hey, how's it going?"}],
response_format={"key": "value"},
drop_params=True
)
- litellm_params:
api_base: my-base
model: openai/my-model
drop_params: true # 👈 KEY CHANGE
model_name: my-model
Zu entfernende Parameter angeben
Um spezifische Parameter beim Aufruf eines Anbieters zu entfernen (z. B. 'logit_bias' für vllm)
Verwenden Sie additional_drop_params
- SDK
- PROXY
import litellm
import os
# set keys
os.environ["COHERE_API_KEY"] = "co-.."
response = litellm.completion(
model="command-r",
messages=[{"role": "user", "content": "Hey, how's it going?"}],
response_format={"key": "value"},
additional_drop_params=["response_format"]
)
- litellm_params:
api_base: my-base
model: openai/my-model
additional_drop_params: ["response_format"] # 👈 KEY CHANGE
model_name: my-model
additional_drop_params: Liste oder null - Eine Liste von OpenAI-Parametern, die Sie beim Aufruf des Modells entfernen möchten.
Zulässige OpenAI-Parameter in einer Anfrage angeben
Weisen Sie LiteLLM an, spezifische OpenAI-Parameter in einer Anfrage zuzulassen. Verwenden Sie dies, wenn Sie eine litellm.UnsupportedParamsError erhalten und einen Parameter zulassen möchten. LiteLLM übergibt den Parameter unverändert an das Modell.
- LiteLLM Python SDK
- LiteLLM Proxy
In diesem Beispiel übergeben wir allowed_openai_params=["tools"], um den Parameter tools zuzulassen.
await litellm.acompletion(
model="azure/o_series/<my-deployment-name>",
api_key="xxxxx",
api_base=api_base,
messages=[{"role": "user", "content": "Hello! return a json object"}],
tools=[{"type": "function", "function": {"name": "get_current_time", "description": "Get the current time in a given location.", "parameters": {"type": "object", "properties": {"location": {"type": "string", "description": "The city name, e.g. San Francisco"}}, "required": ["location"]}}}]
allowed_openai_params=["tools"],
)
Bei Verwendung des LiteLLM-Proxys können Sie allowed_openai_params auf zwei Arten übergeben
- Dynamisches Übergeben von
allowed_openai_paramsin einer Anfrage - Setzen von
allowed_openai_paramsin der config.yaml-Datei für ein bestimmtes Modell
Dynamisches Übergeben von allowed_openai_params in einer Anfrage
In diesem Beispiel übergeben wir allowed_openai_params=["tools"], um den Parameter tools für eine an das im Proxy festgelegte Modell gesendete Anfrage zuzulassen.
import openai
from openai import AsyncAzureOpenAI
import openai
client = openai.OpenAI(
api_key="anything",
base_url="http://0.0.0.0:4000"
)
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages = [
{
"role": "user",
"content": "this is a test request, write a short poem"
}
],
extra_body={
"allowed_openai_params": ["tools"]
}
)
Setzen von allowed_openai_params in config.yaml
Sie können allowed_openai_params auch in der config.yaml-Datei für ein bestimmtes Modell festlegen. Dies bedeutet, dass alle Anfragen an diese Bereitstellung den Parameter tools übergeben dürfen.
model_list:
- model_name: azure-o1-preview
litellm_params:
model: azure/o_series/<my-deployment-name>
api_key: xxxxx
api_base: https://openai-prod-test.openai.azure.com/openai/deployments/o1/chat/completions?api-version=2025-01-01-preview
allowed_openai_params: ["tools"]