WatsonxEmbeddings는 IBM watsonx.ai foundation model을 위한 wrapper입니다.이 예제는
LangChain을 사용하여 watsonx.ai model과 통신하는 방법을 보여줍니다.
Overview
Integration details
Setup
IBM watsonx.ai model에 액세스하려면 IBM watsonx.ai 계정을 생성하고, API key를 받고,langchain-ibm integration package를 설치해야 합니다.
Credentials
이 셀은 watsonx Embeddings와 작업하는 데 필요한 WML credential을 정의합니다. Action: IBM Cloud 사용자 API key를 제공하세요. 자세한 내용은 documentation을 참조하세요.Installation
LangChain IBM integration은langchain-ibm package에 있습니다:
Instantiation
다른 model에 대해 modelparameters를 조정해야 할 수 있습니다.
WatsonxEmbeddings class를 초기화합니다.
Note:
- API 호출에 대한 context를 제공하려면
project_id또는space_id를 추가해야 합니다. 자세한 내용은 documentation을 참조하세요. - 프로비저닝된 서비스 인스턴스의 지역에 따라 여기에 설명된 url 중 하나를 사용하세요.
project_id와 Dallas url을 사용합니다.
추론에 사용될 model_id를 지정해야 합니다.
APIClient 객체를 WatsonxEmbeddings class에 전달하는 옵션이 있습니다.
Indexing and Retrieval
Embedding model은 데이터 인덱싱과 나중에 검색하는 과정 모두에서 retrieval-augmented generation (RAG) flow에 자주 사용됩니다. 자세한 지침은 RAG tutorials을 참조하세요. 아래에서는 위에서 초기화한embeddings 객체를 사용하여 데이터를 인덱싱하고 검색하는 방법을 확인할 수 있습니다. 이 예제에서는 InMemoryVectorStore에서 샘플 문서를 인덱싱하고 검색합니다.
Direct Usage
내부적으로 vectorstore와 retriever 구현은embeddings.embed_documents(...)와 embeddings.embed_query(...)를 호출하여 각각 from_texts와 retrieval invoke 작업에 사용되는 텍스트에 대한 embedding을 생성합니다.
이러한 method를 직접 호출하여 자신의 사용 사례에 맞는 embedding을 얻을 수 있습니다.
Embed single texts
embed_query로 단일 텍스트나 문서를 embedding할 수 있습니다:
Embed multiple texts
embed_documents로 여러 텍스트를 embedding할 수 있습니다:
API reference
모든WatsonxEmbeddings feature와 configuration에 대한 자세한 문서는 API reference를 참조하세요.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.