Modell-Alias
Der Modellname, den Sie einem Endbenutzer anzeigen, kann von dem abweichen, den Sie an LiteLLM übergeben – z. B. Anzeige von GPT-3.5 während der Backend-Aufruf von gpt-3.5-turbo-16k erfolgt.
LiteLLM vereinfacht dies, indem es Ihnen ermöglicht, ein Zuordnungsmapping von Modell-Aliassen zu übergeben.
erwartetes Format
litellm.model_alias_map = {
# a dictionary containing a mapping of the alias string to the actual litellm model name string
"model_alias": "litellm_model_name"
}
Verwendung
Relevanter Code​
model_alias_map = {
"GPT-3.5": "gpt-3.5-turbo-16k",
"llama2": "replicate/llama-2-70b-chat:2796ee9483c3fd7aa2e171d38f4ca12251a30609463dcfd4cd76703f22e96cdf"
}
litellm.model_alias_map = model_alias_map
Vollständiger Code​
import litellm
from litellm import completion
## set ENV variables
os.environ["OPENAI_API_KEY"] = "openai key"
os.environ["REPLICATE_API_KEY"] = "cohere key"
## set model alias map
model_alias_map = {
"GPT-3.5": "gpt-3.5-turbo-16k",
"llama2": "replicate/llama-2-70b-chat:2796ee9483c3fd7aa2e171d38f4ca12251a30609463dcfd4cd76703f22e96cdf"
}
litellm.model_alias_map = model_alias_map
messages = [{ "content": "Hello, how are you?","role": "user"}]
# call "gpt-3.5-turbo-16k"
response = completion(model="GPT-3.5", messages=messages)
# call replicate/llama-2-70b-chat:2796ee9483c3fd7aa2e171d38f4ca1...
response = completion("llama2", messages)