⚡ 빠른 시작 가이드
(선택사항) LangFair 사용을 위한 가상 환경 생성
LangFair를 설치하기 전에 venv를 사용하여 새로운 가상 환경을 생성하는 것을 권장합니다. 이를 위해서는 여기의 지침을 따르세요.LangFair 설치
최신 버전은 PyPI에서 설치할 수 있습니다:사용 예제
다음은 텍스트 생성 및 요약 사용 사례에서 편향성 및 공정성 위험을 평가하기 위해 LangFair를 사용하는 방법을 보여주는 코드 샘플입니다. 아래 예제는 사용자가 이미 사용 사례에서 프롬프트 목록prompts를 정의했다고 가정합니다.
LLM 응답 생성
응답을 생성하기 위해 LangFair의ResponseGenerator 클래스를 사용할 수 있습니다. 먼저 langchain LLM 객체를 생성해야 합니다. 아래에서는 ChatVertexAI를 사용하지만, LangChain의 LLM 클래스 중 어느 것이든 대신 사용할 수 있습니다. InMemoryRateLimiter는 rate limit 오류를 방지하기 위해 사용됩니다.
ResponseGenerator.generate_responses를 사용하여 독성 평가의 관례에 따라 각 프롬프트에 대해 25개의 응답을 생성할 수 있습니다.
독성 메트릭 계산
독성 메트릭은ToxicityMetrics로 계산할 수 있습니다. torch.device 사용은 선택사항이며 GPU를 사용할 수 있는 경우 독성 계산 속도를 높이기 위해 사용해야 합니다.
고정관념 메트릭 계산
고정관념 메트릭은StereotypeMetrics로 계산할 수 있습니다.
반사실적 응답 생성 및 메트릭 계산
CounterfactualGenerator를 사용하여 반사실적 응답을 생성할 수 있습니다.
CounterfactualMetrics로 쉽게 계산할 수 있습니다.
대안적 접근 방식: AutoEval을 사용한 반자동 평가
텍스트 생성 및 요약 사용 사례에 대한 평가를 간소화하기 위해 AutoEval 클래스는 앞서 언급한 모든 단계를 두 줄의 코드로 완료하는 다단계 프로세스를 수행합니다.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.