MLX LLM을 chat model로 사용하는 방법을 보여줍니다.
특히 다음을 수행합니다:
- MLXPipeline 활용하기,
ChatMLXclass를 활용하여 이러한 LLM들이 LangChain의 Chat Messages 추상화와 인터페이스할 수 있도록 하기.- 오픈소스 LLM을 사용하여
ChatAgentpipeline을 구동하는 방법 시연하기
1. LLM 인스턴스화하기
선택할 수 있는 세 가지 LLM 옵션이 있습니다.2. chat template을 적용하기 위해 ChatMLX 인스턴스화하기
chat model과 전달할 메시지들을 인스턴스화합니다.
3. agent로 테스트해보기
여기서는gemma-2b-it을 zero-shot ReAct Agent로 테스트합니다. 아래 예제는 여기에서 가져왔습니다.
참고: 이 섹션을 실행하려면 SerpAPI Token을 환경 변수로 저장해야 합니다: SERPAPI_API_KEY
react-json 스타일 prompt와 검색 엔진 및 계산기에 대한 액세스 권한으로 agent를 구성합니다.
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.