🗃️ /chat/completions
3 Elemente
📄️ /responses [Beta]
LiteLLM stellt einen BETA-Endpunkt im Format der OpenAI-API /responses bereit
📄️ /completions
Verwendung
📄️ /embeddings
Schnellstart
📄️ /v1/messages [BETA]
Verwenden Sie LiteLLM, um alle Ihre LLM-APIs im Anthropic v1/messages-Format aufzurufen.
📄️ /mcp [BETA] - Model Context Protocol
Stellen Sie MCP-Tools auf dem LiteLLM Proxy Server bereit
🗃️ /images
2 Elemente
🗃️ /audio
2 Elemente
🗃️ Durchreich-Endpunkte (Anthropic SDK, etc.)
12 Elemente
📄️ /rerank
LiteLLM folgt der cohere API Anfrage / Antwort für die rerank API
📄️ /assistants
Beinhaltet Threads, Messages, Assistants.
🗃️ /files
2 Elemente
🗃️ /batches
2 Elemente
📄️ /realtime
Verwenden Sie dies zum Lastverteilen zwischen Azure + OpenAI.
📄️ /fine_tuning
Dies ist ein Endpunkt nur für Unternehmen. Starten Sie hier mit Enterprise
📄️ /moderations
Verwendung
📄️ /guardrails/apply_guardrail
Verwenden Sie diesen Endpunkt, um direkt auf eine Guardrail zuzugreifen, die auf Ihrer LiteLLM-Instanz konfiguriert ist. Dies ist nützlich, wenn Dienste direkt auf eine Guardrail zugreifen müssen.