Overview
Integration details
| Class | Package | Local | Serializable | JS support | Downloads | Version |
|---|---|---|---|---|---|---|
| AzureAIChatCompletionsModel | langchain-azure-ai | ❌ | ✅ | ✅ |
Model features
| Tool calling | Structured output | JSON mode | Image input | Audio input | Video input | Token-level streaming | Native async | Token usage | Logprobs |
|---|---|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ✅ | ✅ | ❌ | ❌ | ✅ | ✅ | ✅ | ✅ |
Setup
AzureAIChatCompletionsModel 모델에 액세스하려면 Azure account를 생성하고, API key를 받고,langchain-azure-ai integration package를 설치해야 합니다.
Credentials
배포를 생성하고 API key를 생성하는 방법은 Azure docs를 참조하세요. 모델이 배포되면 AI Foundry에서 ‘get endpoint’ 버튼을 클릭합니다. 그러면 endpoint와 api key가 표시됩니다. 이 작업을 완료한 후 AZURE_AI_CREDENTIAL 및 AZURE_AI_ENDPOINT 환경 변수를 설정하세요:Installation
LangChain AzureAIChatCompletionsModel integration은langchain-azure-ai package에 있습니다:
Instantiation
이제 model 객체를 인스턴스화하고 chat completion을 생성할 수 있습니다:Invocation
API reference
모든 AzureAIChatCompletionsModel 기능 및 구성에 대한 자세한 문서는 API reference를 참조하세요: python.langchain.com/api_reference/azure_ai/chat_models/langchain_azure_ai.chat_models.AzureAIChatCompletionsModel.htmlConnect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.