langchain-runpod integration package를 사용하여 LangChain 애플리케이션을 RunPod Serverless에 호스팅된 모델에 연결하는 방법을 다룹니다.
이 integration은 표준 Language Model(LLM)과 Chat Model 모두에 대한 인터페이스를 제공합니다.
설치
전용 partner package를 설치하세요:설정
1. RunPod에서 Endpoint 배포하기
- RunPod Serverless Console로 이동하세요.
- “New Endpoint”를 생성하고, 모델과 예상되는 입력/출력 형식에 호환되는 적절한 GPU와 template(예: vLLM, TGI, text-generation-webui)을 선택하세요(component 가이드 또는 package README 참조).
- 설정을 구성하고 배포하세요.
- 배포 후 Endpoint ID를 반드시 복사하세요.
2. API 자격 증명 설정
이 integration은 RunPod API Key와 Endpoint ID가 필요합니다. 안전한 액세스를 위해 환경 변수로 설정하세요:RUNPOD_CHAT_ENDPOINT_ID를 설정하거나 초기화 중에 ID를 직접 전달해야 할 수 있습니다.
Component
이 package는 두 가지 주요 component를 제공합니다:1. LLM
표준 텍스트 completion 모델과 상호작용하기 위한 component입니다. 자세한 사용법은 RunPod LLM Integration 가이드를 참조하세요2. Chat Model
대화형 모델과 상호작용하기 위한 component입니다. 자세한 사용법과 기능 지원은 RunPod Chat Model Integration 가이드를 참조하세요.Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.