ChatLiteLLM: LiteLLM의 기본 사용을 위한 주요 LangChain wrapper (문서).ChatLiteLLMRouter: LiteLLM의 Router를 활용하는ChatLiteLLMwrapper (문서).
목차
개요
통합 세부사항
| Class | Package | Local | Serializable | JS support | Downloads | Version |
|---|---|---|---|---|---|---|
| ChatLiteLLM | langchain-litellm | ❌ | ❌ | ❌ | ||
| ChatLiteLLMRouter | langchain-litellm | ❌ | ❌ | ❌ |
모델 기능
| Tool calling | Structured output | JSON mode | Image input | Audio input | Video input | Token-level streaming | Native async | Token usage | Logprobs |
|---|---|---|---|---|---|---|---|---|---|
| ✅ | ❌ | ❌ | ❌ | ❌ | ❌ | ✅ | ✅ | ✅ | ❌ |
설정
ChatLiteLLM과 ChatLiteLLMRouter 모델에 액세스하려면 langchain-litellm 패키지를 설치하고 OpenAI, Anthropic, Azure, Replicate, OpenRouter, Hugging Face, Together AI 또는 Cohere 계정을 생성해야 합니다. 그런 다음 API 키를 받아 환경 변수로 내보내야 합니다.
자격 증명
사용하려는 LLM 제공업체를 선택하고 해당 업체에 가입하여 API 키를 받아야 합니다.예시 - Anthropic
console.anthropic.com/으로 이동하여 Anthropic에 가입하고 API 키를 생성하세요. 완료되면 ANTHROPIC_API_KEY 환경 변수를 설정하세요.예시 - OpenAI
platform.openai.com/api-keys로 이동하여 OpenAI에 가입하고 API 키를 생성하세요. 완료되면 OPENAI_API_KEY 환경 변수를 설정하세요.설치
LangChain LiteLLM 통합은langchain-litellm 패키지에서 사용할 수 있습니다:
인스턴스화
ChatLiteLLM
LiteLLM에서 지원하는model 이름을 제공하여 ChatLiteLLM 모델을 인스턴스화할 수 있습니다.
ChatLiteLLMRouter
여기에 명시된 대로 모델 목록을 정의하여 LiteLLM의 라우팅 기능을 활용할 수도 있습니다.호출
ChatLiteLLM 또는 ChatLiteLLMRouter를 인스턴스화했다면 이제 LangChain의 API를 통해 ChatModel을 사용할 수 있습니다.
비동기 및 스트리밍 기능
ChatLiteLLM과 ChatLiteLLMRouter는 비동기 및 스트리밍 기능도 지원합니다:
API 참조
모든ChatLiteLLM과 ChatLiteLLMRouter 기능 및 구성에 대한 자세한 문서는 API 참조를 확인하세요: github.com/Akshay-Dongare/langchain-litellm
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.