caso de uso: Gestión de contenidos, Gen AI
Industrias: Medios de comunicación, Telecomunicaciones
Productos y Herramientas: MongoDB Atlas, Búsquedavectorialde MongoDB Atlas
emparejar: Amazon Bedrock
Resumen de la solución
Los equipos de contenido enfrentan una presión cada vez mayor para producir contenidos atractivos y creíbles en un entorno de noticias de ritmo acelerado. Los métodos tradicionales a menudo conducen a una fatiga creativa y a la pérdida de oportunidades en lugar de la creación de contenido, debido al tiempo dedicado a la investigación manual, la verificación de fuentes y la gestión de herramientas. Con MongoDB, puedes combinar la IA generativa con la infraestructura de datos adaptable de MongoDB para optimizar las operaciones editoriales. Para ayudarte a probar estas capacidades, te proporcionamos la demo de Content Lab, una solución que puedes replicar.
La demostración de Content Lab agiliza los flujos de trabajo editoriales y te permite:
Ingesta y estructura contenido diverso: Esta demostración procesa eficientemente grandes volúmenes de contenido no estructurado y semiestructurado de diversas fuentes, organizándolo dinámicamente por tema, industria y metadatos de fuente.
Permite el descubrimiento y redacción respaldados por IA: los modelos de inserción y la Búsqueda vectorial de MongoDB Atlas transforman el contenido crudo en datos estructurados y recuperables. Esta combinación permite la recuperación semántica de temas de actualidad y automatiza la redacción de contenidos, reduciendo la fatiga creativa.
Aumentar la credibilidad del contenido: Este demo captura y almacena URLs de origen que luego se insertan directamente en las sugerencias de temas. La integración con agentes de búsqueda externos enriquece aún más las sugerencias de contenido con información contextual.
Facilita la personalización y mejora la eficiencia del flujo de trabajo: Esta demostración procesa el perfil del usuario para ofrecer sugerencias de escritura personalizadas y almacena borradores para el control de versiones y su reutilización. El esquema flexible de MongoDB hace esto posible al adaptarse sin esfuerzo a la evolución de los datos de perfil, formatos de borradores y nuevos tipos de contenido sin interrumpir el flujo de trabajo.
Figura 1. Diagrama de flujo del recorrido de usuario
Al ofrecer una solución de almacenamiento unificada, información en tiempo real y asistencia automatizada para el contenido, esta demostración muestra cómo MongoDB ayuda a los equipos editoriales a reducir la complejidad, mejorar la calidad del contenido y acelerar la producción. Ofrece a los editores una ruta clara desde la idea hasta la publicación.
Arquitectura de referencia
La demo de Content Lab proporciona una herramienta de publicación impulsada por IA que combina Gen AI con la infraestructura de datos flexibles de MongoDB para agilizar las operaciones editoriales. La arquitectura está diseñada como un microservicio para:
Gestiona la ingestión de contenido diversificado
Impulse el descubrimiento y la redacción basados en IA
Mejorar la credibilidad del contenido
Apoyar la personalización y la eficiencia del flujo de trabajo
Figura 2. Arquitectura de alto nivel de la demostración del Content Lab.
Esta arquitectura utiliza los siguientes componentes:
Interfaz de usuario (UI): Los usuarios interactúan con el sistema a través de una interfaz de usuario que proporciona funcionalidades como sugerencias de temas, herramientas de redacción y gestión de borradores.
Servicios de backend: estos microservicios manejan diferentes funciones de la demostración, entre ellas:
Análisis de contenido y sugerencias backend: este servicio procesa noticias y datos de Reddit, transformando el contenido en vectores semánticos a través de modelos de incrustación como Cohere-embedEstos vectores pueden procesarse con Atlas búsqueda vectorial para ofrecer sugerencias de temas en tiempo real. El microservicio tiene estos componentes principales:
Planificador y orquestación: este servicio automatiza a diario los flujos de trabajo de ingestión, generación de incrustaciones y sugerencia de temas.
Rol: Este servicio potencia la asistencia y personalización de escritura en sentido descendente para el microservicio de asistente de escritura mediante búsqueda y recuperación semántica.
A continuación puede encontrar un diagrama de descripción general de alto nivel de este microservicio.
haga clic para ampliarFigura 3. Arquitectura de alto nivel del backend de contenido y sugerencias
Backend del asistente de escritura: Este servicio proporciona herramientas para la publicación, que incluyen la estructuración de borradores, la corrección de textos, el perfeccionamiento del contenido y la finalización de chats. Estas herramientas usan LLM como Anthropic Claude a través de AWS Bedrock.
MongoDB Atlas: Atlas funciona como almacén de datos principal y proporciona capacidades de búsqueda semántica, almacenamiento de bases de datos y canales de agregación para un procesamiento y recuperación eficientes.
Enfoque de modelo de datos
Esta demostración utiliza el siguiente diseño de modelo orientado a documentos y colecciones para almacenar contenido.
Hay cinco colecciones principales en la demostración de Content Lab:
userProfilereddit_postsnewssuggestionsdrafts
La colección userProfile almacena preferencias específicas del usuario para ajustar sugerencias de IA personalizadas. Estas preferencias incluyen:
persona:El tipo de escritor que el usuario puede elegir.tone:El tono deseado lo puede elegir el usuario, por ejemplo, casual, formal o semiformal.styleTraits:Las características predefinidas del escritor.sampleText: Una oración de ejemplo de un escritor.
Este esquema sigue el principio de diseño de MongoDB de que los datos que se acceden con frecuencia juntos se almacenan juntos, lo que permite al asistente de redacción recuperar rápidamente las recomendaciones de los usuarios. Se muestra un documento de ejemplo a continuación.
{ "_id": { "$oid": "6862a8988c0f7bf43af995a8" }, "persona": "The Formal Expert", "userName": "Mark S.", "tone": "Polished, academic, appeals to professionals and older readers", "styleTraits": [ "Long, structured paragraphs", "Formal language with rich vocabulary", "Analytical, often includes references or citations" ], "sampleText": "This development represents..." }
Las colecciones reddit_posts y news almacenan datos sin procesar extraídos de sus respectivas API. Estos documentos se enriquecen aún más con embeddings, que son representaciones numéricas del significado del contenido que permiten la búsqueda semántica.
La colección suggestions contiene los temas sugeridos a partir del procesamiento de los datos de reddit_posts y news. La interfaz de usuario puede encontrar fácilmente estos documentos y utilizarlos para la selección de temas. Se muestra a continuación un documento de muestra.
{ "_id": { "$oid": "686fb23055303796c4f37b7e" }, "topic": "Backlash against generative AI", "keywords": [ "algorithmic bias", "data privacy", "AI regulation", "public trust" ], "description": "As generative AI tools like ChatGPT proliferate, a growing public backlash highlights concerns over their negative impacts and the need for stronger oversight.", "label": "technology", "url": "https://www.wired.com/story/generative-ai-backlash/", "type": "news_analysis", "analyzed_at": { "$date": "2025-07-10T12:29:36.277Z" }, "source_query": "Viral social media content" }
Por último, la colección drafts almacena los borradores de los usuarios. Cada borrador se asocia con un tema sugerido, lo que permite una fácil organización y recuperación. Este modelo garantiza la persistencia, el control de versiones y la reutilización de contenidos para los flujos editoriales.
Compilar la solución
Puede replicar esta demostración siguiendo estos pasos:
Bifurcar y clonar repositorios
Haga un fork y clone los repos Backend #1, Backend #2 y Frontend en tu cuenta de GitHub.
Provisiona MongoDB Atlas
Dentro de su cuenta de MongoDB Atlas, cree un clúster y una base de datos llamada contentlab con las siguientes colecciones:
drafts: Almacenar borradores de documentos creados por usuariosnews:Almacene artículos de noticias extraídos con incrustaciones.reddit_posts: Almacena publicaciones y comentarios de Reddit con incrustaciones.suggestions: Almacene sugerencias de temas generadas por IA.userProfiles: Almacenar información y preferencias del perfil de usuario.
Instala las dependencias y ejecuta los servicios
Instala e inicia ambos servicios de backend en los puertos 8000 y 8001. A continuación, instala las dependencias frontend e inicia el servidor de desarrollo en http://localhost:3000.
Lecciones clave
Adapte los modelos de datos con el esquema flexible de MongoDB: con MongoDB, puede agregar sin problemas nuevos campos o adaptar los existentes (como metadatos personalizados, resúmenes e historiales de versiones) en sus colecciones, sin tiempos de inactividad ni migraciones complejas.
Integre Atlas Vector Search para un descubrimiento significativo: con MongoDB, puede almacenar incrustaciones de varias API en sus respectivas colecciones y luego ejecutar consultas de similitud para descubrir temas relevantes en segundos.
Asegura la confianza editorial rastreando las fuentes del contenido: Con MongoDB, puedes almacenar las URL de las fuentes y los metadatos junto con las sugerencias, lo que facilita la verificación de los orígenes y preserva la credibilidad en los borradores.
Mantén un flujo constante de ideas automatizando tu pipeline: Con MongoDB, puedes programar trabajos diarios para extraer noticias, procesar embeddings y generar sugerencias que garanticen recomendaciones de temas actualizadas.
Autores
Aswin Subramanian Maheswaran, MongoDB
Felipe Trejos, MongoDB
Obtén más información
Para comprender cómo Atlas búsqueda vectorial impulsa la búsqueda semántica y permite el análisis en tiempo real, visita la página Atlas búsqueda vectorial.
Para aprender cómo MongoDB está transformando las operaciones de medios, lea el Artículo sobre personalización de medios impulsada por IA: MongoDB y búsqueda vectorial.
Para descubrir cómo MongoDB admite flujos de trabajo de medios modernos, visita la página MongoDB para medios y entretenimiento.