AzureOpenAIEmbeddings의 기능 및 구성 옵션에 대한 자세한 문서는 API reference를 참조하세요.
Overview
Integration details
Setup
AzureOpenAI embedding model에 액세스하려면 Azure 계정을 생성하고, API key를 받고,langchain-openai integration package를 설치해야 합니다.
Credentials
배포된 Azure OpenAI 인스턴스가 필요합니다. 이 가이드를 따라 Azure Portal에서 버전을 배포할 수 있습니다. 인스턴스가 실행되면 인스턴스의 이름과 key가 있는지 확인하세요. Azure Portal의 인스턴스 “Keys and Endpoint” 섹션에서 key를 찾을 수 있습니다.Installation
LangChain AzureOpenAI integration은langchain-openai package에 있습니다:
Instantiation
이제 model 객체를 인스턴스화하고 chat completion을 생성할 수 있습니다:Indexing and Retrieval
Embedding model은 데이터 인덱싱과 나중에 검색하는 과정 모두에서 retrieval-augmented generation (RAG) 플로우에 자주 사용됩니다. 자세한 지침은 RAG 튜토리얼을 참조하세요. 아래에서는 위에서 초기화한embeddings 객체를 사용하여 데이터를 인덱싱하고 검색하는 방법을 확인할 수 있습니다. 이 예제에서는 InMemoryVectorStore에서 샘플 문서를 인덱싱하고 검색합니다.
Direct Usage
내부적으로 vectorstore와 retriever 구현은embeddings.embed_documents(...)와 embeddings.embed_query(...)를 호출하여 각각 from_texts와 retrieval invoke 작업에 사용되는 텍스트에 대한 embedding을 생성합니다.
이러한 메서드를 직접 호출하여 자신의 사용 사례에 맞는 embedding을 얻을 수 있습니다.
Embed single texts
embed_query를 사용하여 단일 텍스트나 문서를 embedding할 수 있습니다:
Embed multiple texts
embed_documents를 사용하여 여러 텍스트를 embedding할 수 있습니다:
API reference
AzureOpenAIEmbeddings의 기능 및 구성 옵션에 대한 자세한 문서는 API reference를 참조하세요.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.