Setup
- 사용하려는 모델의 llamafile을 다운로드합니다. HuggingFace에서 llamafile 형식의 많은 모델을 찾을 수 있습니다. 이 가이드에서는 작은 모델인
TinyLlama-1.1B-Chat-v1.0.Q5_K_M을 다운로드합니다. 참고:wget이 없는 경우 이 링크를 통해 모델을 다운로드할 수 있습니다.
- llamafile을 실행 가능하게 만듭니다. 먼저, 아직 하지 않았다면 터미널을 엽니다. MacOS, Linux 또는 BSD를 사용하는 경우,
chmod를 사용하여 컴퓨터가 이 새 파일을 실행할 수 있도록 권한을 부여해야 합니다(아래 참조). Windows를 사용하는 경우, 파일 이름 끝에 “.exe”를 추가하여 파일 이름을 변경합니다(모델 파일 이름은TinyLlama-1.1B-Chat-v1.0.Q5_K_M.llamafile.exe가 되어야 합니다).
- llamafile을 “server mode”로 실행합니다:
Usage
.stream(...) method를 사용합니다:
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.