LangChain과 함께 사용
LangGraph 내에서 LangChain 모듈을 사용하는 경우, 추적을 활성화하기 위해 몇 가지 환경 변수만 설정하면 됩니다. 이 가이드는 기본 예제를 안내합니다. 구성에 대한 자세한 내용은 LangChain으로 추적하기 가이드를 참조하세요.1. 설치
Python 및 JS용 LangGraph 라이브러리와 OpenAI 통합을 설치합니다(아래 코드 스니펫에서는 OpenAI 통합을 사용합니다). 사용 가능한 패키지의 전체 목록은 LangChain Python 문서 및 LangChain JS 문서를 참조하세요.2. 환경 구성
LangSmith와 함께 LangChain.js를 사용하고 서버리스 환경이 아닌 경우, 지연 시간을 줄이기 위해 다음을 명시적으로 설정하는 것이 좋습니다:
export LANGCHAIN_CALLBACKS_BACKGROUND=true서버리스 환경에서는 함수가 종료되기 전에 추적이 완료될 수 있도록 반대로 설정하는 것이 좋습니다:export LANGCHAIN_CALLBACKS_BACKGROUND=false자세한 내용은 이 LangChain.js 가이드를 참조하세요.3. trace 로깅
환경을 설정한 후에는 평소처럼 LangChain runnable을 호출할 수 있습니다. LangSmith가 적절한 추적 구성을 자동으로 추론합니다:
LangChain 없이 사용
LangGraph 내에서 다른 SDK나 커스텀 함수를 사용하는 경우, 적절하게 래핑하거나 데코레이팅해야 합니다(Python에서는@traceable 데코레이터, JS에서는 traceable 함수 사용, 또는 SDK의 경우 wrap_openai와 같은 것 사용). 그렇게 하면 LangSmith가 래핑된 메서드의 trace를 자동으로 중첩합니다.
다음은 예제입니다. 자세한 내용은 이 페이지를 참조하세요.
1. 설치
Python 및 JS용 LangGraph 라이브러리와 OpenAI SDK를 설치합니다(아래 코드 스니펫에서는 OpenAI 통합을 사용합니다).2. 환경 구성
LangSmith와 함께 LangChain.js를 사용하고 서버리스 환경이 아닌 경우, 지연 시간을 줄이기 위해 다음을 명시적으로 설정하는 것이 좋습니다:
export LANGCHAIN_CALLBACKS_BACKGROUND=true서버리스 환경에서는 함수가 종료되기 전에 추적이 완료될 수 있도록 반대로 설정하는 것이 좋습니다:export LANGCHAIN_CALLBACKS_BACKGROUND=false자세한 내용은 이 LangChain.js 가이드를 참조하세요.3. trace 로깅
환경을 설정한 후, 추적하려는 커스텀 함수/SDK를 래핑하거나 데코레이팅합니다. 그러면 LangSmith가 적절한 추적 구성을 자동으로 추론합니다:
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.