기존 experiment의 평가는 현재 Python SDK에서만 지원됩니다. 이미 experiment를 실행했고 추가 평가 지표를 추가하려는 경우, 이전과 같이 evaluate() / aevaluate() 메서드를 사용하여 experiment에 evaluator를 적용할 수 있습니다. 대상 함수 대신 experiment 이름 / ID를 전달하면 됩니다:
from langsmith import evaluate

def always_half(inputs: dict, outputs: dict) -> float:
    return 0.5

experiment_name = "my-experiment:abc"  # Replace with an actual experiment name or ID

evaluate(experiment_name, evaluators=[always_half])

---

<Callout icon="pen-to-square" iconType="regular">
    [Edit the source of this page on GitHub.](https://github.com/langchain-ai/docs/edit/main/src/langsmith/evaluate-existing-experiment.mdx)
</Callout>
<Tip icon="terminal" iconType="regular">
    [Connect these docs programmatically](/use-these-docs) to Claude, VSCode, and more via MCP for    real-time answers.
</Tip>
I