Zum Hauptinhalt springen

Verwendung von ChatLiteLLM() - Langchain

Voraussetzungen​

!pip install litellm langchain

Schnellstart​

import os
from langchain_community.chat_models import ChatLiteLLM
from langchain_core.prompts import (
ChatPromptTemplate,
SystemMessagePromptTemplate,
AIMessagePromptTemplate,
HumanMessagePromptTemplate,
)
from langchain_core.messages import AIMessage, HumanMessage, SystemMessage

os.environ['OPENAI_API_KEY'] = ""
chat = ChatLiteLLM(model="gpt-3.5-turbo")
messages = [
HumanMessage(
content="what model are you"
)
]
chat.invoke(messages)

Langchain ChatLiteLLM mit MLflow verwenden​

MLflow bietet eine Open-Source-Observability-Lösung für ChatLiteLLM.

Um die Integration zu aktivieren, rufen Sie einfach mlflow.litellm.autolog() vorher in Ihrem Code auf. Keine weitere Einrichtung ist erforderlich.

import mlflow

mlflow.litellm.autolog()

Sobald das automatische Tracing aktiviert ist, können Sie ChatLiteLLM aufrufen und aufgezeichnete Traces in MLflow sehen.

import os
from langchain.chat_models import ChatLiteLLM

os.environ['OPENAI_API_KEY']="sk-..."

chat = ChatLiteLLM(model="gpt-4o-mini")
chat.invoke("Hi!")

Langchain ChatLiteLLM mit Lunary verwenden​

import os
from langchain.chat_models import ChatLiteLLM
from langchain.schema import HumanMessage
import litellm

os.environ["LUNARY_PUBLIC_KEY"] = "" # from https://app.lunary.ai/settings
os.environ['OPENAI_API_KEY']="sk-..."

litellm.success_callback = ["lunary"]
litellm.failure_callback = ["lunary"]

chat = ChatLiteLLM(
model="gpt-4o"
messages = [
HumanMessage(
content="what model are you"
)
]
chat(messages)

Weitere Details finden Sie hier

LangChain ChatLiteLLM + Langfuse verwenden​

Sehen Sie sich diesen Abschnitt hier an, um weitere Details zur Integration von Langfuse mit ChatLiteLLM zu erhalten.