Docs Menu
Docs Home
/

Inteligencia de centro de llamadas impulsada por IA

Transforme el servicio al cliente con MongoDB Atlas Vector Search y RAG. Convierte grabaciones de llamadas en perspectivas buscables para respuestas más rápidas y precisas.

Casos de uso: Análisis, Gen AI, Modernización, Personalización

Industrias: Seguros, Serviciosfinancieros, Salud, Comercio minorista, Telecomunicaciones

Productos: MongoDB Atlas, MongoDB Atlas Search, MongoDB Atlas Vector Search

Socios: AWS, Cohere, LangChain

Un desafío importante para muchas compañías de seguros son los centros de atención telefónica ineficientes, donde a los agentes les resulta difícil localizar y entregar información precisa a los clientes rápidamente. Estudios han demostrado que las empresas con una experiencia de cliente superior superan a sus competidores. Por ejemplo, los clientes satisfechos tienen un 80% más de probabilidades de renovar sus pólizas, lo que contribuye directamente al crecimiento.

Esta solución demuestra cómo MongoDB puede transformar las operaciones de los centros de llamadas. Aprovecha la IA y el análisis para convertir archivos de audio no estructurados en vectores con capacidad de búsqueda. Esto permite a las empresas acceder rápidamente a información relevante, identificar estrategias de resolución eficaces y preguntas frecuentes, y mejorar la experiencia general de atención al cliente.

La figura 1 muestra cómo transformar grabaciones de audio sin procesar en vectores. El proceso funciona de la siguiente manera:

  1. Almacenar archivos de audio sin procesar: almacene grabaciones de llamadas anteriores en su formato de audio original.

  2. Procesar archivos de audio: utilice inteligencia artificial y servicios analíticos, como conversión de voz a texto, resumen de contenido y vectorización.

  3. Almacenar vectores y metadatos: almacene los vectores generados y sus metadatos, como marcas de tiempo de llamadas e información del agente, en un almacén de datos operativo.

Flujo de vectorización del servicio al cliente

Figura 1. Flujo de extracción y vectorización de información de llamadas de atención al cliente

Una vez almacenados los datos en formato vectorial en el almacén de datos operativo, se vuelven accesibles para aplicaciones en tiempo real. Ahora, Vector Search puede consumir estos datos o integrarlos en una arquitectura de Recuperación-Generación Aumentada (RAG). Este enfoque combina Modelos de Lenguaje Grandes (LLM) con fuentes de conocimiento externas para generar resultados más precisos e informativos.

La arquitectura del sistema, que se muestra en la Figura 2, contiene los siguientes módulos y funciones:

  • Amazon Transcribe recibe el audio proveniente del teléfono del cliente y lo convierte en texto.

  • Cohere proporciona un modelo de integración a través de Amazon Bedrock, que convierte el texto de Transcribe en vectores.

  • Atlas Vector Search recibe el vector de query y devuelve un documento que contiene la FAQ semánticamente más similar de la base de datos.

Arquitectura y módulos del sistema

Figura 2. Arquitectura del sistema y módulos

Para obtener detalles completos de implementación, consulte el repositorio de GitHub.

  • Transforma los centros de llamadas con servicios de IA: Integra servicios de IA, como de voz a texto, incrustación de vectores y búsqueda vectorial, con MongoDB Atlas para transformar los centros de llamadas tradicionales con datos de voz procesables.

  • Integre una arquitectura basada en RAG: combine una arquitectura RAG con Vector Search para generar respuestas de agentes más rápidas, chatbots y flujos de trabajo automatizados.

  • Implementa asistencia en tiempo real para agentes: integra la asistencia de agentes para mejorar los resultados empresariales, como una mayor satisfacción del cliente, mayor lealtad y mejor rendimiento financiero.

Esta solución sirve como base para aplicaciones avanzadas que requieren interacciones complejas, como flujos de trabajo de agentes y procesos de múltiples pasos con LLM y búsqueda híbrida. También mejora las capacidades de los chatbots y los bots de voz, lo que les permite brindar respuestas más relevantes y personalizadas a los clientes.

  • Luca Napoli, MongoDB

  • Sebastian Rojas Arbulu, MongoDB

Volver

Hybrid FHIR ODL

En esta página