---
title: Text Embeddings Inference
---

>[Hugging Face Text Embeddings Inference (TEI)](https://huggingface.co/docs/text-embeddings-inference/index)는 오픈소스 텍스트 임베딩 및 시퀀스 분류 모델을 배포하고 제공하기 위한 툴킷입니다. `TEI``FlagEmbedding`, `Ember`, `GTE`, `E5`를 포함한 가장 인기 있는 모델들에 대해 고성능 추출을 가능하게 합니다.

langchain에서 사용하려면 먼저 `huggingface-hub`를 설치하세요.

```python
pip install -U huggingface-hub
그런 다음 TEI를 사용하여 임베딩 모델을 노출합니다. 예를 들어, Docker를 사용하여 다음과 같이 BAAI/bge-large-en-v1.5를 제공할 수 있습니다:
model=BAAI/bge-large-en-v1.5
revision=refs/pr/5
volume=$PWD/data # share a volume with the Docker container to avoid downloading weights every run

docker run --gpus all -p 8080:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:0.6 --model-id $model --revision $revision
Docker 사용법의 세부 사항은 기본 하드웨어에 따라 다를 수 있습니다. 예를 들어, Intel Gaudi/Gaudi2 하드웨어에서 모델을 제공하려면 관련 docker run 명령어는 tei-gaudi repository를 참조하세요. 마지막으로 클라이언트를 인스턴스화하고 텍스트를 임베딩합니다.
from langchain_huggingface.embeddings import HuggingFaceEndpointEmbeddings
embeddings = HuggingFaceEndpointEmbeddings(model="http://localhost:8080")
text = "What is deep learning?"
query_result = embeddings.embed_query(text)
query_result[:3]
[0.018113142, 0.00302585, -0.049911194]
doc_result = embeddings.embed_documents([text])
doc_result[0][:3]
[0.018113142, 0.00302585, -0.049911194]

---

<Callout icon="pen-to-square" iconType="regular">
    [Edit the source of this page on GitHub.](https://github.com/langchain-ai/docs/edit/main/src/oss/python/integrations/text_embedding/text_embeddings_inference.mdx)
</Callout>
<Tip icon="terminal" iconType="regular">
    [Connect these docs programmatically](/use-these-docs) to Claude, VSCode, and more via MCP for    real-time answers.
</Tip>
I