Prediction Guard는 민감한 데이터를 보호하고, 일반적인 AI 오작동을 방지하며, 저렴한 하드웨어에서 실행되는 안전하고 확장 가능한 GenAI 플랫폼입니다.
Overview
Integration details
이 통합은 다양한 보호 장치와 보안 기능을 포함하는 Prediction Guard API를 활용합니다.Setup
Prediction Guard 모델에 액세스하려면 여기에서 문의하여 Prediction Guard API key를 받고 시작하세요.Credentials
key를 받으면 다음과 같이 설정할 수 있습니다Installation
Instantiation
Invocation
Process Input
Prediction Guard를 사용하면 입력 검사 중 하나를 사용하여 PII 또는 prompt injection에 대해 모델 입력을 보호할 수 있습니다. 자세한 내용은 Prediction Guard 문서를 참조하세요.PII
Prompt Injection
Output Validation
Prediction Guard를 사용하면 factuality를 사용하여 환각과 잘못된 정보를 방지하고, toxicity를 사용하여 유해한 응답(예: 욕설, 혐오 발언)을 방지하여 모델 출력을 검증할 수 있습니다. 자세한 내용은 Prediction Guard 문서를 참조하세요.Toxicity
Factuality
Chaining
API reference
python.langchain.com/api_reference/community/llms/langchain_community.llms.predictionguard.PredictionGuard.htmlConnect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.