이 문서는 DeepSeek의 호스팅 chat models를 시작하는 데 도움을 드립니다. 모든 ChatDeepSeek 기능 및 구성에 대한 자세한 문서는 API reference를 참조하세요.
DeepSeek의 모델은 오픈 소스이며 로컬에서 실행하거나(Ollama 등) 다른 추론 제공자(Fireworks, Together 등)에서도 실행할 수 있습니다.

Overview

Integration details

ClassPackageLocalSerializableJS supportDownloadsVersion
ChatDeepSeeklangchain-deepseekbetaPyPI - DownloadsPyPI - Version

Model features

Tool callingStructured outputJSON modeImage inputAudio inputVideo inputToken-level streamingNative asyncToken usageLogprobs
model="deepseek-reasoner"로 지정되는 DeepSeek-R1은 tool calling이나 structured output을 지원하지 않습니다. 이러한 기능은 model="deepseek-chat"으로 지정되는 DeepSeek-V3에서 지원됩니다.

Setup

DeepSeek 모델에 액세스하려면 DeepSeek 계정을 생성하고 API key를 받은 다음 langchain-deepseek integration package를 설치해야 합니다.

Credentials

DeepSeek의 API Key 페이지로 이동하여 DeepSeek에 가입하고 API key를 생성하세요. 완료한 후 DEEPSEEK_API_KEY environment variable을 설정하세요:
import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
    os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter your DeepSeek API key: ")
모델 호출의 자동 추적을 활성화하려면 LangSmith API key를 설정하세요:
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

Installation

LangChain DeepSeek integration은 langchain-deepseek package에 있습니다:
pip install -qU langchain-deepseek

Instantiation

이제 model object를 인스턴스화하고 chat completion을 생성할 수 있습니다:
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0,
    max_tokens=None,
    timeout=None,
    max_retries=2,
    # other params...
)

Invocation

messages = [
    (
        "system",
        "You are a helpful assistant that translates English to French. Translate the user sentence.",
    ),
    ("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg.content

API reference

모든 ChatDeepSeek 기능 및 구성에 대한 자세한 문서는 API Reference를 참조하세요.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.
I