- Partitioning Support
- Real Application Clusters scalability
- Exadata smart scans
- Shard processing across geographically distributed databases
- Transactions
- Parallel SQL
- Disaster recovery
- Security
- Oracle Machine Learning
- Oracle Graph Database
- Oracle Spatial and Graph
- Oracle Blockchain
- JSON
사전 요구사항
LangChain과 Oracle AI Vector Search의 통합을 용이하게 하기 위해 Oracle Python Client driver가 설치되어 있는지 확인하세요.Oracle Database에 연결하기
다음 샘플 코드는 Oracle Database에 연결하는 방법을 보여줍니다. 기본적으로 python-oracledb는 Oracle Database에 직접 연결하는 ‘Thin’ 모드로 실행됩니다. 이 모드는 Oracle Client 라이브러리가 필요하지 않습니다. 그러나 python-oracledb가 이를 사용할 때 일부 추가 기능을 사용할 수 있습니다. Oracle Client 라이브러리를 사용할 때 Python-oracledb는 ‘Thick’ 모드에 있다고 합니다. 두 모드 모두 Python Database API v2.0 사양을 지원하는 포괄적인 기능을 제공합니다. 각 모드에서 지원되는 기능에 대해 설명하는 다음 가이드를 참조하세요. thin-mode를 사용할 수 없는 경우 thick-mode로 전환할 수 있습니다.ONNX Model 로드하기
Oracle은 다양한 embedding provider를 지원하여 사용자가 독점 데이터베이스 솔루션과 OCIGENAI 및 HuggingFace와 같은 타사 서비스 중에서 선택할 수 있습니다. 이 선택은 embedding 생성 및 관리 방법론을 결정합니다. 중요 : 사용자가 database 옵션을 선택하는 경우 Oracle Database에 ONNX model을 업로드해야 합니다. 반대로 embedding 생성을 위해 타사 provider를 선택하는 경우 Oracle Database에 ONNX model을 업로드할 필요가 없습니다. Oracle 내에서 직접 ONNX model을 사용하는 것의 중요한 장점은 외부 당사자에게 데이터를 전송할 필요가 없어 향상된 보안과 성능을 제공한다는 것입니다. 또한 이 방법은 일반적으로 network 또는 REST API 호출과 관련된 지연 시간을 방지합니다. 다음은 Oracle Database에 ONNX model을 업로드하는 예제 코드입니다:Credential 생성하기
embedding 생성을 위해 타사 provider를 선택하는 경우 사용자는 provider의 endpoint에 안전하게 액세스하기 위한 credential을 설정해야 합니다. 중요: embedding 생성을 위해 ‘database’ provider를 선택하는 경우 credential이 필요하지 않습니다. 그러나 사용자가 타사 provider를 사용하기로 결정하는 경우 선택한 provider에 특정한 credential을 생성해야 합니다. 다음은 예시입니다:Embedding 생성하기
Oracle AI Vector Search는 로컬에서 호스팅되는 ONNX model 또는 타사 API를 활용하여 embedding을 생성하는 여러 방법을 제공합니다. 이러한 대안 구성에 대한 포괄적인 지침은 Oracle AI Vector Search 가이드를 참조하세요. 참고: 사용자는 ONNX model을 사용하는 ‘database’ provider를 제외하고 타사 embedding 생성 provider를 사용하기 위해 proxy를 구성해야 할 수 있습니다.엔드 투 엔드 데모
Oracle AI Vector Search의 도움으로 엔드 투 엔드 RAG pipeline을 구축하려면 전체 데모 가이드 Oracle AI Vector Search 엔드 투 엔드 데모 가이드를 참조하세요.Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.