Overview
이 가이드는langchain-openai 패키지를 활용하는 vLLM chat models를 시작하는 데 도움이 됩니다. ChatOpenAI의 모든 기능과 구성에 대한 자세한 문서는 API reference를 참조하세요.
Integration details
| Class | Package | Local | Serializable | JS support | Downloads | Version |
|---|---|---|---|---|---|---|
| ChatOpenAI | langchain_openai | ✅ | beta | ❌ |
Model features
tool calling, multi-modal input 지원, token-level streaming 지원 등과 같은 특정 모델 기능은 호스팅되는 모델에 따라 달라집니다.Setup
vLLM 문서는 여기를 참조하세요. LangChain을 통해 vLLM 모델에 액세스하려면langchain-openai integration package를 설치해야 합니다.
Credentials
인증은 inference server의 세부 사항에 따라 달라집니다. 모델 호출의 자동 추적을 활성화하려면 LangSmith API key를 설정하세요:Installation
LangChain vLLM integration은langchain-openai 패키지를 통해 액세스할 수 있습니다:
Instantiation
이제 model object를 인스턴스화하고 chat completion을 생성할 수 있습니다:Invocation
API reference
langchain-openai를 통해 노출되는 모든 기능과 구성에 대한 자세한 문서는 API reference를 참조하세요: python.langchain.com/api_reference/openai/chat_models/langchain_openai.chat_models.base.ChatOpenAI.html
vLLM documentation도 참조하세요.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.