CLI-Argumente
Cli Argumente, --host, --port, --num_workers
--host​
- Standard:
'0.0.0.0' - Der Host, auf dem der Server lauschen soll.
- Verwendung
litellm --host 127.0.0.1 - Verwendung - Umgebungsvariable setzen:
HOSTexport HOST=127.0.0.1
litellm
--port​
- Standard:
4000 - Der Port, an den der Server gebunden werden soll.
- Verwendung
litellm --port 8080 - Verwendung - Umgebungsvariable setzen:
PORTexport PORT=8080
litellm
--num_workers​
- Standard:
1 - Die Anzahl der zu startenden Uvicorn-Worker.
- Verwendung
litellm --num_workers 4 - Verwendung - Umgebungsvariable setzen:
NUM_WORKERSexport NUM_WORKERS=4
litellm
--api_base​
- Standard:
None - Die API-Basis, die LiteLLM aufrufen soll.
- Verwendung
litellm --model huggingface/tinyllama --api_base https://k58ory32yinf1ly0.us-east-1.aws.endpoints.huggingface.cloud
--api_version​
- Standard:
None - FĂĽr Azure-Dienste, geben Sie die API-Version an.
- Verwendung
litellm --model azure/gpt-deployment --api_version 2023-08-01 --api_base https://<your api base>"
--model oder -m​
- Standard:
None - Der Modellname, der an LiteLLM ĂĽbergeben wird.
- Verwendung
litellm --model gpt-3.5-turbo
--test​
- Typ:
bool(Flag) - Leitet Chat-Vervollständigungs-URLs weiter, um eine Testanfrage zu stellen.
- Verwendung
litellm --test
--health​
- Typ:
bool(Flag) - Führt einen Integritätscheck für alle Modelle in config.yaml durch.
- Verwendung
litellm --health
--alias​
- Standard:
None - Ein Alias fĂĽr das Modell, zur benutzerfreundlichen Referenz.
- Verwendung
litellm --alias my-gpt-model
--debug​
- Standard:
False - Typ:
bool(Flag) - Aktiviert den Debug-Modus fĂĽr die Eingabe.
- Verwendung
litellm --debug - Verwendung - Umgebungsvariable setzen:
DEBUGexport DEBUG=True
litellm
--detailed_debug​
- Standard:
False - Typ:
bool(Flag) - Aktiviert den Debug-Modus fĂĽr die Eingabe.
- Verwendung
litellm --detailed_debug - Verwendung - Umgebungsvariable setzen:
DETAILED_DEBUGexport DETAILED_DEBUG=True
litellm
--temperature​
- Standard:
None - Typ:
float - Stellt die Temperatur fĂĽr das Modell ein.
- Verwendung
litellm --temperature 0.7
--max_tokens​
- Standard:
None - Typ:
int - Stellt die maximale Anzahl von Tokens fĂĽr die Modellausgabe ein.
- Verwendung
litellm --max_tokens 50
--request_timeout​
- Standard:
6000 - Typ:
int - Stellt das Timeout in Sekunden für Vervollständigungsaufrufe ein.
- Verwendung
litellm --request_timeout 300
--drop_params​
- Typ:
bool(Flag) - Ignoriert nicht zugeordnete Parameter.
- Verwendung
litellm --drop_params
--add_function_to_prompt​
- Typ:
bool(Flag) - Wenn eine Funktion ĂĽbergeben wird, die nicht unterstĂĽtzt wird, wird sie als Teil des Prompts ĂĽbergeben.
- Verwendung
litellm --add_function_to_prompt
--config​
- Konfiguriert LiteLLM durch Angabe eines Konfigurationsdateipfads.
- Verwendung
litellm --config path/to/config.yaml
--telemetry​
- Standard:
True - Typ:
bool - Hilft bei der Nachverfolgung der Nutzung dieser Funktion.
- Verwendung
litellm --telemetry False
--log_config​
- Standard:
None - Typ:
str - Gibt eine Protokollierungskonfigurationsdatei fĂĽr Uvicorn an.
- Verwendung
litellm --log_config path/to/log_config.conf