LangChain V1.0 릴리즈 이후 공식 도큐먼트의 한글 번역본 입니다. 번역 오류는 Issue 에 올려주세요 🙇‍♂️

Docs by LangChain home pagelight logodark logo
  • GitHub
  • Try LangSmith
  • Try LangSmith
Get started
Observability
Evaluation
Prompt engineering
Deployment
Agent Builder
Hosting
    • 개요
    • 빠른 시작
    • 개념
    • 평가 접근 방식
    Datasets
    • 데이터셋 관리
    Set up evaluations
    Analyze experiment results
    • 실험 분석하기
    • 실험 결과 비교
    • UI에서 실험 필터링
    • 실험의 성능 메트릭 가져오기
    • LangSmith 외부에서 실행된 실험 업로드
    Annotation & human feedback
    • Annotation queue 사용하기
    • 피드백 기준 설정하기
    • trace와 run을 인라인으로 주석 달기
    • 평가자 점수 감사
    Common data types
    • 예제 데이터 형식
    • Dataset 사전 정의 JSON schema 타입
    • Dataset 변환

    LangSmith Evaluations

    다음 섹션은 dataset 생성, evaluation 실행 및 결과 분석에 도움을 줍니다:

    Evaluation 개념

    LangSmith에서 evaluation이 작동하는 방식을 이해하기 위한 핵심 용어와 개념을 검토합니다.

    Dataset 관리

    UI 또는 SDK를 통해 evaluation을 위한 dataset을 생성하고 관리합니다.

    Evaluation 실행

    다양한 evaluator와 기법을 사용하여 애플리케이션을 평가하고 품질을 측정합니다.

    결과 분석

    Evaluation 결과를 확인 및 분석하고, experiment를 비교하며, 데이터를 필터링하고, 결과를 내보냅니다.

    피드백 수집

    Annotation queue와 출력물에 대한 inline annotation을 통해 사람의 피드백을 수집합니다.

    튜토리얼 따라하기

    간단한 chatbot부터 복잡한 agent evaluation까지 단계별 튜토리얼을 따라 학습합니다.

    Edit the source of this page on GitHub.
    Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.
    평가 빠른 시작
    다음
    ⌘I
    Docs by LangChain home pagelight logodark logo
    githubxlinkedinyoutube

    Resources

    ForumChangelogLangChain AcademyTrust Center

    Company

    AboutCareersBlog
    githubxlinkedinyoutube
    Mintlify에 의해 지원됨