이 문서는 Fireworks AI chat models 시작하기를 도와줍니다. 모든 ChatFireworks 기능과 구성에 대한 자세한 문서는 API reference를 참조하세요. Fireworks AI는 모델을 실행하고 커스터마이징할 수 있는 AI 추론 플랫폼입니다. Fireworks에서 제공하는 모든 모델 목록은 Fireworks docs를 참조하세요.

Overview

Integration details

ClassPackageLocalSerializableJS supportDownloadsVersion
ChatFireworkslangchain-fireworksbetaPyPI - DownloadsPyPI - Version

Model features

Tool callingStructured outputJSON modeImage inputAudio inputVideo inputToken-level streamingNative asyncToken usageLogprobs

Setup

Fireworks 모델에 액세스하려면 Fireworks 계정을 생성하고, API key를 발급받고, langchain-fireworks integration package를 설치해야 합니다.

Credentials

fireworks.ai/login으로 이동하여 Fireworks에 가입하고 API key를 생성하세요. 완료한 후 FIREWORKS_API_KEY environment variable을 설정하세요:
import getpass
import os

if "FIREWORKS_API_KEY" not in os.environ:
    os.environ["FIREWORKS_API_KEY"] = getpass.getpass("Enter your Fireworks API key: ")
모델 호출의 자동 추적을 활성화하려면 LangSmith API key를 설정하세요:
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"

Installation

LangChain Fireworks integration은 langchain-fireworks package에 있습니다:
pip install -qU langchain-fireworks

Instantiation

이제 모델 객체를 인스턴스화하고 chat completion을 생성할 수 있습니다:
  • TODO: 관련 매개변수로 모델 인스턴스화를 업데이트하세요.
from langchain_fireworks import ChatFireworks

llm = ChatFireworks(
    model="accounts/fireworks/models/llama-v3-70b-instruct",
    temperature=0,
    max_tokens=None,
    timeout=None,
    max_retries=2,
    # other params...
)

Invocation

messages = [
    (
        "system",
        "You are a helpful assistant that translates English to French. Translate the user sentence.",
    ),
    ("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg
AIMessage(content="J'adore la programmation.", response_metadata={'token_usage': {'prompt_tokens': 35, 'total_tokens': 44, 'completion_tokens': 9}, 'model_name': 'accounts/fireworks/models/llama-v3-70b-instruct', 'system_fingerprint': '', 'finish_reason': 'stop', 'logprobs': None}, id='run-df28e69a-ff30-457e-a743-06eb14d01cb0-0', usage_metadata={'input_tokens': 35, 'output_tokens': 9, 'total_tokens': 44})
print(ai_msg.content)
J'adore la programmation.

API reference

모든 ChatFireworks 기능과 구성에 대한 자세한 문서는 API reference를 참조하세요: python.langchain.com/api_reference/fireworks/chat_models/langchain_fireworks.chat_models.ChatFireworks.html langchain-fireworks package를 사용하려면 다음 설치 단계를 따르세요:
pip install langchain-fireworks

Basic usage

Setting up

  1. Fireworks AI에 로그인하여 모델에 액세스할 수 있는 API Key를 발급받고, FIREWORKS_API_KEY environment variable로 설정되어 있는지 확인하세요. 로그인하고 API key를 발급받은 후, 다음 단계에 따라 FIREWORKS_API_KEY environment variable을 설정하세요:
    • Linux/macOS: 터미널을 열고 다음 명령을 실행하세요:
    export FIREWORKS_API_KEY='your_api_key'
    
    참고: 이 environment variable을 터미널 세션 간에 지속되도록 하려면 위 줄을 ~/.bashrc, ~/.bash_profile, 또는 ~/.zshrc 파일에 추가하세요.
    • Windows: Command Prompt의 경우 다음을 사용하세요:
    set FIREWORKS_API_KEY=your_api_key
    
  2. model id를 사용하여 모델을 설정하세요. 모델이 설정되지 않은 경우 기본 모델은 fireworks-llama-v2-7b-chat입니다. fireworks.ai에서 전체 최신 모델 목록을 확인하세요.
import getpass
import os

# Initialize a Fireworks model
llm = Fireworks(
    model="accounts/fireworks/models/llama-v3p1-8b-instruct",
    base_url="https://api.fireworks.ai/inference/v1/completions",
)

Calling the Model Directly

문자열 prompt로 모델을 직접 호출하여 completion을 얻을 수 있습니다.
# Single prompt
output = llm.invoke("Who's the best quarterback in the NFL?")
print(output)
# Calling multiple prompts
output = llm.generate(
    [
        "Who's the best cricket player in 2016?",
        "Who's the best basketball player in the league?",
    ]
)
print(output.generations)

Advanced usage

Tool use: LangChain Agent + Fireworks function calling model

Fireworks function calling model에 계산기 사용법을 가르치는 방법은 이 노트북을 확인하세요. Fireworks는 빠른 모델 추론과 tool 사용에 대한 최상의 경험을 제공하는 데 중점을 두고 있습니다. GPT-4와 비교하여 어떻게 다른지에 대한 자세한 내용은 블로그를 확인하세요. 핵심은 function calling 사용 사례에서 GPT-4와 동등하지만 훨씬 빠르고 저렴하다는 것입니다.

RAG: LangChain agent + Fireworks function calling model + MongoDB + Nomic AI embeddings

엔드 투 엔드 플로우에 대한 cookbook은 여기에서 확인하세요
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.
I