langchain-nvidia-ai-endpoints 패키지는 NVIDIA NIM inference microservice의 모델을 사용하여 애플리케이션을 구축하는 LangChain integration을 포함하고 있습니다. NIM은 커뮤니티와 NVIDIA의 chat, embedding, re-ranking 모델과 같은 다양한 도메인의 모델을 지원합니다. 이러한 모델들은 NVIDIA 가속 인프라에서 최고의 성능을 제공하도록 NVIDIA에 의해 최적화되었으며, NVIDIA 가속 인프라에서 단일 명령으로 어디서나 배포할 수 있는 사용하기 쉬운 사전 구축 컨테이너인 NIM으로 배포됩니다.
NVIDIA가 호스팅하는 NIM 배포는 NVIDIA API catalog에서 테스트할 수 있습니다. 테스트 후, NIM은 NVIDIA AI Enterprise 라이선스를 사용하여 NVIDIA의 API catalog에서 내보낼 수 있으며, 온프레미스 또는 클라우드에서 실행할 수 있어 기업이 IP와 AI 애플리케이션에 대한 소유권과 완전한 제어권을 가질 수 있습니다.
NIM은 모델별로 컨테이너 이미지로 패키징되며 NVIDIA NGC Catalog을 통해 NGC 컨테이너 이미지로 배포됩니다. 핵심적으로 NIM은 AI 모델에서 inference를 실행하기 위한 쉽고 일관되며 친숙한 API를 제공합니다.
다음은 text-generative 및 embedding 모델과 관련된 일반적인 기능을 사용하는 방법에 대한 예제입니다.
Installation
Setup
시작하기:- NVIDIA AI Foundation 모델을 호스팅하는 NVIDIA에서 무료 계정을 생성합니다.
- 원하는 모델을 클릭합니다.
-
Input에서 Python 탭을 선택하고
Get API Key를 클릭합니다. 그런 다음Generate Key를 클릭합니다. - 생성된 키를 NVIDIA_API_KEY로 복사하고 저장합니다. 그러면 endpoint에 액세스할 수 있습니다.
Working with NVIDIA API Catalog
Working with NVIDIA NIMs
배포할 준비가 되면 NVIDIA AI Enterprise 소프트웨어 라이선스에 포함된 NVIDIA NIM으로 모델을 자체 호스팅하고 어디서나 실행할 수 있어 커스터마이징에 대한 소유권과 지적 재산권(IP) 및 AI 애플리케이션에 대한 완전한 제어권을 가질 수 있습니다. NIM에 대해 자세히 알아보기Using NVIDIA AI Foundation Endpoints
선별된 NVIDIA AI Foundation 모델들이 친숙한 API로 LangChain에서 직접 지원됩니다. 지원되는 활성 모델은 API Catalog에서 확인할 수 있습니다. 다음은 시작하는 데 도움이 될 수 있는 유용한 예제입니다:Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.