- 통합 API 액세스: 하나의 API를 통해 250개 이상의 LLM(OpenAI, Claude, Gemini, Groq, Mistral)에 연결
- 낮은 지연 시간: 지능형 라우팅 및 로드 밸런싱으로 3ms 미만의 내부 지연 시간
- 엔터프라이즈 보안: RBAC 및 감사 로깅을 갖춘 SOC 2, HIPAA, GDPR 규정 준수
- 할당량 및 비용 관리: 토큰 기반 할당량, 속도 제한 및 포괄적인 사용량 추적
- 관찰성: 사용자 정의 가능한 보존 기간을 가진 전체 요청/응답 로깅, 메트릭 및 추적
사전 요구 사항
LangChain을 TrueFoundry와 통합하기 전에 다음을 확인하세요:- TrueFoundry 계정: 최소 하나의 모델 제공자가 구성된 TrueFoundry 계정. 여기에서 빠른 시작 가이드를 따르세요
- Personal Access Token: TrueFoundry 토큰 생성 가이드를 따라 토큰을 생성하세요
빠른 시작
ChatOpenAI 인터페이스를 통해 TrueFoundry의 통합 LLM gateway에 연결할 수 있습니다.
base_url을 TrueFoundry endpoint로 설정하세요 (아래 설명)api_key를 TrueFoundry PAT (Personal Access Token)로 설정하세요- 통합 코드 스니펫에 표시된 것과 동일한
model-name을 사용하세요
설치
기본 설정
LangChain에서ChatOpenAI 모델을 업데이트하여 TrueFoundry에 연결하세요:
LangGraph 통합
관찰성 및 거버넌스
Metrics Dashboard를 통해 다음을 모니터링하고 분석할 수 있습니다:- 성능 메트릭: Request Latency, Time to First Token (TTFS), Inter-Token Latency (ITL)와 같은 주요 지연 시간 메트릭을 P99, P90, P50 백분위수로 추적
- 비용 및 토큰 사용량: 각 모델에 대한 입력/출력 토큰 및 관련 비용의 상세한 분석을 통해 애플리케이션 비용에 대한 가시성 확보
- 사용 패턴: 사용자 활동, 모델 분포 및 팀 기반 사용량에 대한 상세한 분석을 통해 애플리케이션 사용 방식 이해
- 속도 제한 및 로드 밸런싱: 제한 구성, 모델 간 트래픽 분산 및 폴백 설정
지원
질문, 문제 또는 지원이 필요한 경우:Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.