contextual-client Python SDK가 필요합니다. 자세한 내용은 여기에서 확인하세요.
개요
이 통합은 Contextual AI의 Grounded Language Model을 호출합니다.통합 세부 정보
| Class | Package | Local | Serializable | JS support | Downloads | Version |
|---|---|---|---|---|---|---|
| ChatContextual | langchain-contextual | ❌ | beta | ❌ |
모델 기능
| Tool calling | Structured output | JSON mode | Image input | Audio input | Video input | Token-level streaming | Native async | Token usage | Logprobs |
|---|---|---|---|---|---|---|---|---|---|
| ❌ | ❌ | ❌ | ❌ | ❌ | ❌ | ❌ | ❌ | ❌ | ❌ |
설정
Contextual 모델에 액세스하려면 Contextual AI 계정을 생성하고 API 키를 받은 다음langchain-contextual 통합 패키지를 설치해야 합니다.
자격 증명
app.contextual.ai로 이동하여 Contextual에 가입하고 API 키를 생성하세요. 완료되면 CONTEXTUAL_AI_API_KEY 환경 변수를 설정하세요:설치
LangChain Contextual 통합은langchain-contextual 패키지에 있습니다:
인스턴스화
이제 모델 객체를 인스턴스화하고 chat completion을 생성할 수 있습니다. chat client는 다음과 같은 추가 설정으로 인스턴스화할 수 있습니다:| Parameter | Type | Description | Default |
|---|---|---|---|
| temperature | Optional[float] | 응답의 무작위성에 영향을 주는 샘플링 온도입니다. 높은 temperature 값은 근거성을 감소시킬 수 있습니다. | 0 |
| top_p | Optional[float] | nucleus sampling을 위한 파라미터로, temperature의 대안이며 응답의 무작위성에도 영향을 줍니다. 높은 top_p 값은 근거성을 감소시킬 수 있습니다. | 0.9 |
| max_new_tokens | Optional[int] | 모델이 응답에서 생성할 수 있는 최대 토큰 수입니다. 최소값은 1이고 최대값은 2048입니다. | 1024 |
호출
Contextual Grounded Language Model은ChatContextual.invoke 메서드를 호출할 때 추가 kwargs를 허용합니다.
이러한 추가 입력은 다음과 같습니다:
| Parameter | Type | Description |
|---|---|---|
| knowledge | list[str] | 필수: grounded language model이 응답을 생성할 때 사용할 수 있는 지식 소스의 문자열 목록입니다. |
| system_prompt | Optional[str] | 선택 사항: 모델이 응답을 생성할 때 따라야 하는 지침입니다. 모델이 이러한 지침을 정확히 따른다는 보장은 없습니다. |
| avoid_commentary | Optional[bool] | 선택 사항 (기본값: False): 모델이 응답에서 추가 논평을 피해야 하는지 여부를 나타내는 플래그입니다. 논평은 대화적 성격을 가지며 검증 가능한 주장을 포함하지 않습니다. 따라서 논평은 사용 가능한 컨텍스트에 엄격하게 근거하지 않습니다. 그러나 논평은 응답의 유용성을 향상시키는 유용한 컨텍스트를 제공할 수 있습니다. |
체이닝
Contextual Model을 output parser와 체이닝할 수 있습니다.API 참조
모든 ChatContextual 기능 및 구성에 대한 자세한 문서는 Github 페이지를 참조하세요: github.com/ContextualAI//langchain-contextualConnect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.