Hugging Face Embedding class를 로드해보겠습니다.
pip install -qU  langchain langchain-huggingface sentence_transformers
from langchain_huggingface.embeddings import HuggingFaceEmbeddings
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-mpnet-base-v2")
text = "This is a test document."
query_result = embeddings.embed_query(text)
query_result[:3]
[-0.04895168915390968, -0.03986193612217903, -0.021562768146395683]
doc_result = embeddings.embed_documents([text])

Hugging Face Inference Providers

Inference Providers를 통해 embedding model에 접근할 수도 있습니다. 이를 통해 확장 가능한 서버리스 인프라에서 오픈 소스 모델을 사용할 수 있습니다. 먼저, Hugging Face에서 읽기 전용 API key를 받아야 합니다.
from getpass import getpass

huggingfacehub_api_token = getpass()
이제 HuggingFaceInferenceAPIEmbeddings class를 사용하여 Inference Providers를 통해 오픈 소스 embedding model을 실행할 수 있습니다.
from langchain_huggingface import HuggingFaceInferenceAPIEmbeddings

embeddings = HuggingFaceInferenceAPIEmbeddings(
    api_key=huggingfacehub_api_token,
    model_name="sentence-transformers/all-MiniLM-l6-v2",
)

query_result = embeddings.embed_query(text)
query_result[:3]
[-0.038338541984558105, 0.1234646737575531, -0.028642963618040085]

Hugging Face Hub

Hugging Face Hub package를 통해 로컬에서 embedding을 생성할 수도 있습니다. 이를 위해서는 huggingface_hub를 설치해야 합니다.
!pip install huggingface_hub
from langchain_huggingface.embeddings import HuggingFaceEndpointEmbeddings
embeddings = HuggingFaceEndpointEmbeddings()
text = "This is a test document."
query_result = embeddings.embed_query(text)
query_result[:3]

Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.
I