Menu Docs
Página inicial do Docs
/
MongoDB Atlas
/

Integre a pesquisa vetorial com tecnologias de IA

Nesta página

  • Conceitos chave
  • Frameworks
  • LangChain
  • LlamaIndex
  • Núcleo semântica
  • Serviços
  • Base de conhecimento da Amazon CloudRock
  • Recursos da API

Você pode usar o Atlas Vector Search com provedores populares de IA e LLMs por meio de suas APIs padrão. O MongoDB e os parceiros também fornecem integrações de produtos específicos para ajudá-lo a aproveitar o Atlas Vector Search em seus aplicativos generativos baseados em IA e IA.

Esta página destaca integrações de IA notáveis que a MongoDB e seus parceiros desenvolveram. Para obter uma lista completa de integrações e serviços de parceiros, consulte Conheça o ecossistema de parceiros do MongoDB.

Grandes modelos de linguagem (LLMs)

Você pode integrar o Atlas Vector Search com frameworks LLMe LLM para construir aplicação baseados em IA. Ao desenvolver com LLMs, você pode encontrar as seguintes limitações:

  • Dados obsoletos: os LLMssão formados em um conjunto de dados estático até um determinado ponto no tempo.

  • Sem acesso a dados locais: os LLMsnão têm acesso a dados locais ou pessoais.

  • Alucinações: os LLMsàs vezes geram informações imprecisas.

Geração Aumentada por Recuperação (RAG)

A Geração Aumentada de Recuperação (RAG) é uma arquitetura para aplicativos LLM projetada para resolver essas limitações. No RAG, você executa a seguinte ação:

  1. Armazene seus dados personalizados em umbanco de dados vetorial .

  2. Use a pesquisa vetorial para recuperar documento semanticamente semelhantes do reconhecimento de data center vetorial. Esses documentos aumentam os dados de treinamento existentes aos quais os LLMstêm acesso.

  3. Solicitar o LLM . O LLM usa esses documentos como contexto para gerar uma resposta mais informado e preciso.

Para saber mais, consulte O que é geração aumentada de recuperação (RAG)?.

Você pode integrar o Atlas Vector Search com as seguintes estruturas de código aberto para armazenar dados personalizados no Atlas e implementar o RAG com o Atlas Vector Search.

LangChain é uma estrutura que simplifica a criação de aplicativos LLM por meio do uso de "cadeias", que são componentes específicos do LangChain que podem ser combinados para uma variedade de casos de uso, incluindo RAG.

Para começar, consulte os seguintes tutoriais:

LlamaIndex é uma framework que simplifica a forma como você conecta fontes de dados personalizadas aos LLMs . Ele fornece várias ferramentas para ajudá-lo a carregar e preparar incorporações vetoriais para aplicativos RAG .

Para começar, consulte Introdução à integração com o LlamaIndex.

Kernel semântica da Microsoft é um SDK que permite combinar vários serviços de IA com seus aplicativos.Você pode usar o Semantic Kernel para uma variedade de casos de uso, incluindo RAG.

Para começar, consulte Introdução à integração do Semantic Kernel.

Você também pode integrar o Atlas Vector Search com os seguintes serviços de IA.

Cama rochosa do Amazon é um serviço totalmente gerenciado para a criação de aplicativos de IA generativa. Você pode integrar o Atlas Vector Search como uma base de conhecimento para que o Amazon CamaDB armazene dados personalizados no Atlas e implemente o RAG.

Para começar, consulte Introdução à integração da base de dados de conhecimento da Amazon Camara.

Consulte os seguintes recursos de API à medida que desenvolve as integrações de IA para o Atlas Vector Search:

← Como realizar a pesquisa híbrida