Casos de uso: Gestión de contenidos, Gen AI
Industrias: Medios, Telecomunicaciones
Productos y herramientas: MongoDB Atlas, Búsquedavectorialde MongoDB Atlas
Asociados: Amazon Bedrock
Resumen de la solución
Los equipos de contenido se enfrentan a una presión cada vez mayor para producir contenido atractivo y creíble en un entorno informativo de ritmo acelerado. Los métodos tradicionales suelen generar fatiga creativa y perder oportunidades en lugar de crear contenido, debido al tiempo dedicado a la investigación manual, la verificación de fuentes y la gestión de herramientas. Con MongoDB, puede combinar la IA Generativa con su infraestructura de datos adaptable para optimizar las operaciones editoriales. Para ayudarle a probar estas capacidades, le ofrecemos la demo de Content Lab, una solución que puede replicar.
La demostración de Content Lab agiliza los flujos de trabajo editoriales y le permite:
Ingerir y estructurar contenido diverso: esta demostración procesa de manera eficiente grandes volúmenes de contenido no estructurado y semiestructurado de diversas fuentes, organizándolo dinámicamente por tema, industria y metadatos de la fuente.
Habilite el descubrimiento y la redacción de contenido con IA: Los modelos de incrustación y MongoDB Atlas Vector Search transforman el contenido sin procesar en datos estructurados y buscables. Esta combinación permite la recuperación semántica de temas de actualidad y automatiza la redacción de contenido, reduciendo la fatiga creativa.
Aumentar la credibilidad del contenido: Este demo captura y almacena URLs de origen que luego se insertan directamente en las sugerencias de temas. La integración con agentes de búsqueda externos enriquece aún más las sugerencias de contenido con información contextual.
Facilite la personalización y aumente la eficiencia del flujo de trabajo: Esta demo procesa el perfil del usuario para ofrecer sugerencias de escritura personalizadas y almacena borradores para el control de versiones y su reutilización. El esquema flexible de MongoDB lo hace posible, adaptándose fácilmente a la evolución de los datos del perfil, los formatos de borrador y los nuevos tipos de contenido sin interrumpir el flujo de trabajo.
Figura 1. Diagrama de flujo del recorrido del usuario
Al ofrecer una solución de almacenamiento unificada, información en tiempo real y asistencia automatizada para el contenido, esta demostración muestra cómo MongoDB ayuda a los equipos editoriales a reducir la complejidad, mejorar la calidad del contenido y acelerar la producción. Ofrece a los editores una ruta clara desde la idea hasta la publicación.
Arquitectura de referencia
La demo de Content Lab ofrece una herramienta de publicación basada en IA que combina Gen AI con la infraestructura de datos flexible de MongoDB para optimizar las operaciones editoriales. La arquitectura está diseñada como un microservicio para:
Gestionar la ingesta de contenido diverso
Impulse el descubrimiento y la redacción basados en IA
Mejorar la credibilidad del contenido
Apoye la personalización y la eficiencia del flujo de trabajo
Figura 2. Arquitectura de alto nivel de la demostración del Content Lab.
Esta arquitectura utiliza los siguientes componentes:
Interfaz de usuario (UI): los usuarios interactúan con el sistema a través de una UI que proporciona funciones como sugerencias de temas, herramientas de borrador y gestión de borradores.
Servicios de backend: estos microservicios manejan diferentes funciones de la demostración, entre ellas:
Análisis de contenido y sugerencias backend: este servicio procesa noticias y datos de Reddit, transformando el contenido en vectores semánticos a través de modelos de incrustación como Cohere-embedEstos vectores se pueden procesar con Atlas Vector Search para proporcionar sugerencias de temas en tiempo real. El microservicio consta de los siguientes componentes principales:
Programador y orquestación: este servicio automatiza diariamente los flujos de trabajo de ingesta, generación de incrustaciones y sugerencias de temas.
Rol: Este servicio potencia la asistencia y personalización de escritura en sentido descendente para el microservicio de asistente de escritura mediante búsqueda y recuperación semántica.
A continuación puede encontrar un diagrama de descripción general de alto nivel de este microservicio.
haga clic para ampliarFigura 3. Arquitectura de alto nivel del backend de contenido y sugerencias
Asistente de escritura: Este servicio proporciona herramientas para la publicación, que incluyen la creación de borradores, la corrección de textos, el refinamiento de contenido y la finalización del chat. Estas herramientas utilizan LLM como Anthropic Claude a través de AWS Bedrock.
MongoDB Atlas: Atlas funciona como almacén de datos principal y proporciona capacidades de búsqueda semántica, almacenamiento de bases de datos y canales de agregación para un procesamiento y recuperación eficientes.
Enfoque del modelo de datos
Esta demostración utiliza el siguiente diseño de modelo de documento y colecciones para almacenar contenido.
Hay cinco colecciones principales en la demostración de Content Lab:
userProfilereddit_postsnewssuggestionsdrafts
La colección userProfile almacena las preferencias individuales del usuario para personalizar las sugerencias basadas en IA. Estas preferencias incluyen:
persona:El tipo de escritor que el usuario puede elegir.tone:El tono deseado lo puede elegir el usuario, por ejemplo, casual, formal o semiformal.styleTraits:Las características predefinidas del escritor.sampleText: Una oración de ejemplo de un escritor.
Este esquema sigue el principio de diseño de MongoDB: los datos a los que se accede frecuentemente se almacenan juntos, lo que permite al asistente de escritura recuperar rápidamente las recomendaciones del usuario. A continuación se muestra un documento de ejemplo.
{ "_id": { "$oid": "6862a8988c0f7bf43af995a8" }, "persona": "The Formal Expert", "userName": "Mark S.", "tone": "Polished, academic, appeals to professionals and older readers", "styleTraits": [ "Long, structured paragraphs", "Formal language with rich vocabulary", "Analytical, often includes references or citations" ], "sampleText": "This development represents..." }
Las colecciones reddit_posts y news almacenan datos sin procesar extraídos de sus respectivas API. Estos documentos se enriquecen aún más con embeddings, que son representaciones numéricas del significado del contenido que permiten la búsqueda semántica.
La colección suggestions contiene los temas sugeridos a partir del procesamiento de los datos de reddit_posts y news. La interfaz de usuario puede encontrar fácilmente estos documentos y utilizarlos para la selección de temas. Se muestra a continuación un documento de muestra.
{ "_id": { "$oid": "686fb23055303796c4f37b7e" }, "topic": "Backlash against generative AI", "keywords": [ "algorithmic bias", "data privacy", "AI regulation", "public trust" ], "description": "As generative AI tools like ChatGPT proliferate, a growing public backlash highlights concerns over their negative impacts and the need for stronger oversight.", "label": "technology", "url": "https://www.wired.com/story/generative-ai-backlash/", "type": "news_analysis", "analyzed_at": { "$date": "2025-07-10T12:29:36.277Z" }, "source_query": "Viral social media content" }
Finalmente, la colección drafts almacena los borradores de los usuarios. Cada borrador está asociado a un tema sugerido, lo que facilita su organización y recuperación. Este modelo garantiza la persistencia, el control de versiones y la reutilización del contenido para los flujos de trabajo editoriales.
Construir la solución
Puede replicar esta demostración siguiendo estos pasos:
Bifurcar y clonar repositorios
Bifurca y clona los repositorios backend #,1 backend #2 y frontend en tu cuenta de GitHub.
Aprovisionamiento de MongoDB Atlas
Dentro de su cuenta de MongoDB Atlas, cree un clúster y una base de datos llamada contentlab con estas colecciones:
drafts: Almacenar borradores de documentos creados por el usuarionews:Almacene artículos de noticias extraídos con incrustaciones.reddit_posts:Almacena publicaciones y comentarios de Reddit con incrustaciones.suggestions:Almacene sugerencias de temas generadas por IA.userProfiles: Almacenar información y preferencias del perfil de usuario.
Instalar dependencias y ejecutar servicios
Instala e inicia ambos servicios de backend en los puertos 8000 y 8001. A continuación, instala las dependencias frontend e inicia el servidor de desarrollo en http://localhost:3000.
Aprendizajes clave
Adapte los modelos de datos con el esquema flexible de MongoDB: con MongoDB, puede agregar sin problemas nuevos campos o adaptar los existentes (como metadatos personalizados, resúmenes e historiales de versiones) en sus colecciones, sin tiempos de inactividad ni migraciones complejas.
Integre Atlas Vector Search para un descubrimiento significativo: con MongoDB, puede almacenar incrustaciones de varias API en sus respectivas colecciones y luego ejecutar consultas de similitud para descubrir temas relevantes en segundos.
Garantice la confianza editorial mediante el seguimiento de las fuentes de contenido: con MongoDB, puede almacenar URL de origen y metadatos junto con sugerencias, lo que facilita la verificación de los orígenes y preserva la credibilidad en los borradores.
Mantenga un flujo constante de ideas automatizando su canalización: con MongoDB, puede programar trabajos diarios para recopilar noticias, procesar incrustaciones y generar sugerencias que garanticen recomendaciones de temas actualizadas.
Autores
Aswin Subramanian Maheswaran, MongoDB
Felipe Trejos, MongoDB
Obtén más información
Para comprender cómo Atlas Vector Search potencia la búsqueda semántica y permite el análisis en tiempo real, visita la página Atlas Vector Search.
Para saber cómo MongoDB está transformando las operaciones de medios, lea el artículo Personalización de medios impulsada por IA: MongoDB y búsqueda vectorial.
Para descubrir cómo MongoDB admite flujos de trabajo de medios modernos, visita la página MongoDB para medios y entretenimiento.