PremAI는 Generative AI로 구동되는 강력하고 프로덕션 준비가 완료된 애플리케이션 생성을 간소화하는 올인원 플랫폼입니다. 개발 프로세스를 간소화함으로써 PremAI는 사용자 경험 향상과 애플리케이션의 전반적인 성장 촉진에 집중할 수 있도록 합니다. 여기에서 플랫폼 사용을 빠르게 시작할 수 있습니다.

설치 및 설정

먼저 langchainpremai-sdk를 설치합니다. 다음 명령어를 입력하여 설치할 수 있습니다:
pip install premai langchain
진행하기 전에 PremAI에 계정을 만들고 이미 프로젝트를 생성했는지 확인하세요. 그렇지 않은 경우 PremAI 플랫폼을 시작하려면 빠른 시작 가이드를 참조하세요. 첫 번째 프로젝트를 생성하고 API key를 받으세요.

PremEmbeddings

이 섹션에서는 LangChain과 함께 PremEmbeddings를 사용하여 다양한 embedding model에 액세스하는 방법을 논의합니다. 먼저 모듈을 import하고 API Key를 설정하겠습니다.
# Let's start by doing some imports and define our embedding object

from langchain_community.embeddings import PremAIEmbeddings
필요한 모듈을 import한 후 client를 설정하겠습니다. 지금은 project_id8이라고 가정하겠습니다. 하지만 반드시 자신의 project-id를 사용하세요. 그렇지 않으면 오류가 발생합니다.
참고: ChatPremAI와 달리 PremAIEmbeddings에서는 model_name 인자 설정이 필수입니다.
import getpass
import os

if os.environ.get("PREMAI_API_KEY") is None:
    os.environ["PREMAI_API_KEY"] = getpass.getpass("PremAI API Key:")
model = "text-embedding-3-large"
embedder = PremAIEmbeddings(project_id=8, model=model)
우리는 많은 최첨단 embedding model을 지원합니다. 지원되는 LLM 및 embedding model 목록은 여기에서 확인할 수 있습니다. 지금은 이 예제에서 text-embedding-3-large model을 사용하겠습니다.
query = "Hello, this is a test query"
query_result = embedder.embed_query(query)

# Let's print the first five elements of the query embedding vector

print(query_result[:5])
[-0.02129288576543331, 0.0008162345038726926, -0.004556538071483374, 0.02918623760342598, -0.02547479420900345]
마지막으로 document를 embedding해보겠습니다
documents = ["This is document1", "This is document2", "This is document3"]

doc_result = embedder.embed_documents(documents)

# Similar to previous result, let's print the first five element
# of the first document vector

print(doc_result[0][:5])
[-0.0030691148713231087, -0.045334383845329285, -0.0161729846149683, 0.04348714277148247, -0.0036920777056366205]

Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.
I