Paul Done

5 results

发挥 GenAI 的强大功能需要考虑的 4 个主要因素

人工智能正以前所未有的速度发展,而生成式 AI (GenAI) 处于这场变革的前沿。GenAI 拥有广泛的功能,涵盖文本生成以及音乐和艺术创作。但是,GenAI 的真正独特之处在于它能够深入理解上下文,生成的输出与人类输出极为相似。它不仅仅是与智能聊天机器人对话。GenAI 拥有改变行业的潜力,可提供更丰富的用户体验并解锁新的可能性。 在接下来的数月和数年内,我们将见证那些利用 GenAI 蕴藏的强大能力的应用程序崭露头角,这些应用程序可以提供前所未有的各种功能。与现在广受欢迎的聊天机器人(如 ChatGPT)不同,用户不一定会发现 GenAI 正在后台工作。但在后台,这些新应用程序将结合使用信息检索和文本生成,以实时提供真正个性化且与上下文有关的用户体验。此过程被称为检索增强生成,或简称 RAG。 那么,检索增强生成 (RAG) 是如何运作的,以及数据库在此过程中发挥着什么作用?下面我们将更深入地探讨 GenAI 领域及其数据库要求。 请查看我们的 AI 资源页面,来详细了解如何使用 MongoDB 构建采用 AI 技术的应用程序。 训练 AI 基础模型所面临的挑战 GenAI 面临的主要挑战之一是无法访问私有或专有数据。AI 基础模型( 大型语言模型 (LLM) 是其子集)通常针对公开可用的数据进行训练,但无法访问机密或专有信息。即使这些数据位于公共域中,也有可能已经过时且不太相关。LLM 在识别最近的事件或很新的知识方面也存在局限性。而且,如果没有适当的指导,LLM 可能会生成错误的信息,这在大多数情况下均不可接受。 数据库在应对这些挑战方面发挥着重要作用。应用程序可以使用数据库来检索相关数据并将其作为上下文包含在提示中,而不是直接向 LLM 发送提示。例如,银行应用程序可以从传统数据库中查询用户的交易数据,将该数据添加到提示中,然后将这一经过设计的提示发送至 LLM。此方法可确保 LLM 生成准确的最新回复,消除了数据丢失、过时以及不准确的问题。 针对 GenAI 应用程序选择数据库时需考虑的 4 个因素 当所有人都可以访问相同的工具和知识库时,企业想要利用 GenAI 实现真正的竞争优势就没那么容易了。相反,实现差异化的关键来自于在由基础模型和 LLM 提供支持的生成式 AI 的基础之上, 对您自己的独特专有数据进行分层 。在选择数据库以充分发挥由 GenAI 提供支持的应用程序的潜力时,组织应重点考虑四个主要因素: 可查询性:数据库需要能够支持丰富的表达式查询和二级索引,以提供实时、上下文感知的用户体验。无论查询的复杂性或数据库中存储的数据大小如何,此功能均可确保在数毫秒内完成数据检索。 灵活的数据模型:GenAI 应用程序通常需要不同类型和格式的数据,称为多模式数据。为了适应这些不断变化的数据集,数据库应具有灵活的数据模型,支持轻松载入新数据,而无需更改模式、修改代码或发布版本。对于关系数据库而言,使用多模式数据可能具有挑战性,因为关系数据库是设计用于按照严格的模式规则来处理结构化数据,其中的信息会被整理到包含行和列的表中。 集成向量搜索:GenAI 应用程序可能需要针对不同类型的数据(如自由形式文本、音频或图像)执行语义查询或相似性查询。向量数据库中的向量嵌入支持语义查询或相似性查询。向量嵌入会捕获数据的语义含义和上下文信息,使其适合用于处理各种任务,如文本分类、机器翻译和情感分析。数据库应提供集成的向量搜索索引,让两个单独的系统保持同步变得简单,并确保开发者使用统一的查询语言。 可扩展性:由于 GenAI 应用程序的用户群和数据规模在增长,数据库必须能够动态地横向扩展,以支持不断增长的数据量和请求率。对横向扩展分片提供原生支持可确保数据库存在的限制不会阻碍业务增长。 理想的数据库解决方案:MongoDB Atlas MongoDB Atlas 是一个功能强大的多用途平台,用于处理 GenAI 的独特需求。MongoDB 使用的强大查询 API 可轻松处理多模式数据,让开发者能够用更少的代码交付更多功能。MongoDB 被开发者评为最受欢迎的文档型数据库。对开发者而言,使用文档既简单又直观,因为文档会映射到面向对象的编程中的对象,与关系数据库中数不尽的行和表相比,开发者更熟悉前者。灵活的模式设计考虑到了数据模型的不断发展以满足 GenAI 用例的需求,这些用例本身就是多模式。通过使用分片,Atlas 可以横向扩展以支持由 GenAI 提供支持的应用程序所导致的数据量和请求量的大幅增长。 MongoDB Atlas Vector Search 能够以原生方式嵌入向量搜索索引,因此无需维护两个不同的系统。Atlas 会不断地使用源数据确保 Vector Search 索引为最新状态。开发者可以使用单个端点和查询语言来构建将常规数据库查询过滤器与向量搜索过滤器结合使用的查询。这样可以消除摩擦,为开发者提供了快速制作原型并交付 GenAI 解决方案的环境。 结语 GenAI 已准备好重塑行业,并为各个行业提供创新的解决方案。借助合适的数据库解决方案,GenAI 应用程序可以蓬勃发展,提供准确、上下文感知和动态的数据驱动型用户体验,来满足当今快节奏的数字环境日益增长的需求。使用 MongoDB Atlas,组织可以在敏捷性、生产力和业务增长方面释放潜能,在快速发展的生成式 AI 领域提供竞争优势。 要了解有关 Atlas 如何帮助组织集成并处理 GenAI 和 LLM 数据的更多信息,请下载我们的白皮书《 借助 MongoDB 将生成式 AI 和高级搜索嵌入到您的应用程序中 》。如果您有兴趣在贵组织中利用生成式 AI,请立即 联系我们 ,了解我们如何帮助您实现数字化转型。

February 8, 2024

생성형 AI의 위력을 활용하기 위한 4가지 주요 고려 사항

인공지능(Artificial intelligence, AI)는 전례 없는 속도로 진화하고 있으며 생성형 AI(Generative AI, GenAI)는 이 거대한 변화의 선두에 있습니다. GenAI의 기능은 텍스트 작성에서 음악과 예술 창작에 이르기까지 매우 광범위합니다. 하지만, GenAI의 가장 독특한 점은 상황(context)을 분명하게 이해하고, 인간과 매우 유사한 결과물을 만들어낸다는 것입니다. 이는 지능형 챗봇과의 대화만이 아닙니다. GenAI는 여러 산업을 획기적으로 변화시킬 수 있는 잠재력을 가지고 있으며, 보다 풍부한 사용자 경험을 제공하고 새로운 가능성을 열어줍니다. 앞으로 몇 개월, 몇 년 내에, GenAI의 위력을 활용하는 애플리케이션이 등장할 것이며, 이전에 볼 수 없었던 기능들을 제공할 것입니다. 널리 인기있는 챗봇인 챗GPT(ChatGPT)와 달리, 사용자들은 GenAI가 그 뒤에서 실행되고 있다는 사실을 반드시 인식하지는 않을 것입니다. 하지만, 그 뒤에서 이들 새로운 애플리케이션은 정보 검색과 텍스트 생성을 결합하여 진정한 의미의 개인화되고 상황(context)에 맞는 사용자 경험을 실시간으로 제공할 것입니다. 이러한 프로세스를 검색 증강 생성(Retrieval-Augmented Generation), 즉 RAG라고 부릅니다. 그렇다면, RAG가 어떻게 실행되며, 이 프로세스에서 데이터베이스는 어떤 역할을 하는 것일까요? GenAI의 세계와 그 데이터베이스 요구 사항에 대해 자세히 살펴보도록 하겠습니다. MongoDB의 AI 리소스 페이지에서 MongoDB를 이용해 AI 기반 앱을 개발하는 데 대한 자세한 내용을 확인해 보십시오. AI 기반 모델 훈련의 과제 GenAI이 가진 주요 과제 중 하나는 프라이빗(private) 또는 비공개(proprietary) 데이터에 액세스할 수 없다는 것입니다. AI 기반 모델은 일반적으로 공개적으로 이용 가능한 데이터를 기초로 훈련되지만, 기밀 또는 비공개 정보에는 액세스할 수 없으며, LLM(Large Language Model)도 여기에 포함됩니다. 데이터가 공개 영역에 있더라도, 오래되었거나 관련성이 낮을 수 있습니다. LLM도 가장 최근의 이벤트나 지식을 인식하는 데 한계가 있습니다. 뿐만 아니라, 적합한 지침이 없다면, LLM은 부정확한 정보를 생성할 수 있으며, 이는 대부분 상황에서 받아들여질 수 없습니다. 데이터베이스는 이러한 과제를 해결하는 데 중요한 역할을 수행합니다. 애플리케이션은 LLM로 직접 프롬프트를 보내는 것이 아니라, 데이터베이스를 사용해 관련 데이터를 검색하고 이를 컨텍스트로서 프롬프트에 포함시킬 수 있습니다. 예를 들어, 뱅킹 애플리케이션은 레거시 데이터베이스에 사용자의 거래 데이터를 쿼리하고, 이를 프롬프트에 추가한 다음, 이 엔지니어링된 프롬프트를 LLM로 전달합니다. 이러한 접근 방식으로 LLM가 정확한 최신 응답을 생성하도록 보장함으로써 데이터 누락, 기간 만료된(stale) 데이터 및 부정확성 등과 같은 문제를 없앨 수 있습니다. GenAI 애플리케이션을 위한 주요 4가지 데이터베이스 고려 사항 모든 이들이 동일한 툴과 지식 기반을 활용할 수 있는 상황에서 기업들이 GenAI를 활용해 확실한 경쟁 우위를 달성하는 것은 결코 쉬운 일이 아닙니다. 오히려 차별화를 위한 핵심 열쇠는 기반 모델과 LLM이 지원하는 생성형 AI 위에 자사가 보유한 독점 데이터 계층을 쌓아 올리는 데 있을 것입니다. GenAI 기반 애플리케이션이 가진 모든 잠재력을 활용하기 위해 데이터베이스를 선택할 때, 기업들은 다음과 같은 4가지 주요 고려 사항을 중점적으로 살펴봐야 할 것입니다. 쿼리 기능(Queryability:) 데이터베이스는 리치 표현식 쿼리와 보조 인덱스를 지원함으로써 실시간 상황 인식(context-aware) 사용자 경험을 제공할 수 있어야 합니다. 이 기능은 쿼리의 복잡성이나, 데이터베이스에 저장된 데이터의 크기 등에 관계없이 밀리초(millisecond) 단위로 데이터를 검색할 수 있도록 보장합니다. 유연한 데이터 모델: GenAI 애플리케이션은 많은 경우, 다양한 유형 및 포맷의 데이터, 일명 멀티 모달(multi-modal) 데이터를 요구합니다. 변화하는 데이터 세트를 수용하기 위해 데이터베이스는 스키마 변경, 코드 수정 또는 버전 릴리스 등을 수행하지 않고도 새로운 데이터를 쉽게 온보딩할 수 있는 유연한 데이터 모델을 가지고 있어야 합니다. 관계형 데이터베이스는 정형 데이터를 처리하도록 설계되었으며, 엄격한 스키마 규칙에 따라 정보가 열과 행으로 이루어진 표로 정리됩니다. 따라서, 멀티 모달 데이터를 다루기 어려울 수 있습니다. 통합 벡터 검색(Integrated vector search): GenAI 애플리케이션은 free-form 텍스트, 오디오 또는 이미지 등 다양한 유형의 데이터에 대해 시맨틱(semantic) 또는 유사성(similarity)쿼리를 실행해야 할 수도 있습니다. 벡터 데이터베이스 내 벡터 임베딩은 시맨틱 또는 유사성 쿼리를 가능하게 합니다. 벡터 임베딩은 데이터의 시맨틱 의미와 상황(contextual) 정보를 포착하여 텍스트 분류, 머신 번역 및 시맨틱 분석 등과 같은 다양한 작업에 적합하게 만듭니다. 데이터베이스는 통합 벡터 검색 인덱싱 기능을 제공함으로써 2개의 별도 시스템을 유지하고 동기화하는 데 따른 복잡성을 없애고, 개발자들을 위해 일원화된 쿼리 언어를 보장합니다. 확장성(Scalability): GenAI 애플리케이션들은 사용자수와 데이터 사이즈의 측면에서 증가하고 있기 때문에 데이터베이스는 증가하는 데이터 볼륨과 요청 처리율(request rates)을 지원하도록 동적으로 스케일 아웃(scale-out)할 수 있어야 합니다. 스케일 아웃 샤딩(sharding)을 기본적으로 지원함으로써 데이터베이스의 한계가 비즈니스 성장을 방해하지 않도록 보장합니다. 최적의 데이터베이스 솔루션: MongoDB Atlas MongoDB Atlas는 GenAI의 고유한 요구 사항들을 처리할 수 있는 강력한 다목적 플랫폼입니다. MongoDB는 멀티 모달 데이터를 손쉽게 처리할 수 있도록 강력한 쿼리 API를 사용함으로써 개발자들이 작성하는 코드 수는 줄이면서 더 많은 작업을 수행할 수 있도록 합니다. MongoDB는 개발자들에게 가장 인기있는 도큐먼트 데이터베이스입니다. 도큐먼트가 객체 지향적인 프로그래밍 내에서 객체를 매핑하며, 이는 관계형 데이터베이스의 끝없는 행과 테이블보다 친숙하기 때문에 개발자들은 도큐먼트를 이용해 쉽고 직관적으로 작업할 수 있습니다. 유연한 스키마 설계를 통해 본질적으로 멀티 모달인 GenAI 활용 사례의 요구에 맞게 이러한 데이터 모델을 발전시킬 수 있습니다. Atlas는 샤딩(sharding)을 활용함으로써 GenAI 기반 애플리케이션에서 생성된 데이터와 요청의 급격한 증가를 지원하도록 스케일 아웃할 수 있습니다. MongoDB Atlas Vector Search 는 기본적으로 벡터 검색 인덱싱 기능을 내장하고 있기 때문에 2개의 시스템을 유지할 필요가 없습니다. Atlas는 소스 데이터를 통해 Vector Search 인덱스가 지속적으로 업데이트되도록 합니다. 개발자들은 단일 엔드포인트와 쿼리 언어를 활용해 정규 데이터베이스 쿼리 필터와 벡터 검색 필터를 결합한 쿼리를 작성할 수 있습니다. 이를 통해 마찰을 없애고 개발자들이 신속하게 GenAI 솔루션의 프로토타입을 만들고 제공할 수 있는 환경을 제공합니다. 결론 GenAI는 이제 곧 산업들을 변화시키고 산업 전반에서 혁신적인 솔루션을 제공하게 될 것입니다. 최적의 데이터베이스 솔루션을 활용하는 GenAI 애플리케이션들은 성공을 거두게 될 것이며, 오늘날 빠르게 변화하는 디지털 환경의 요구를 충족하는 정확하고, 상황을 인식하는 동적 데이터 기반 사용자 경험을 제공할 수 있을 것입니다. MongoDB Atlas를 통해 기업들은 민첩성, 생산성 및 성장을 달성함으로써 빠르게 변화하는 생성형 AI의 세계에서 경쟁 우위를 확보하게 될 것입니다. Atlas가 어떻게 기업들이 GenAI와 LLM 데이터를 통합하고 운영할 수 있도록 돕는지를 자세히 알아보시려면, MongoDB의 백서, "MongoDB를 이용한 생성형 AI 및 고급 검색 기능을 앱에 임베딩하기( Embedding Generative AI and Advanced Search into your Apps with MongoDB )"를 다운로드하십시오. 귀사에서 생성형 AI를 활용하는 데 대해 관심이 있으시면, 지금 바로 연락 주십시오. MongoDB가 어떻게 귀사의 디지털 전환을 지원할 수 있는지 알려드릴 것입니다.

December 29, 2023

4 Key Considerations for Unlocking the Power of GenAI

Artificial intelligence is evolving at an unprecedented pace, and generative AI (GenAI) is at the forefront of the revolution. GenAI capabilities are vast, ranging from text generation to music and art creation. But what makes GenAI truly unique is its ability to deeply understand context, producing outputs that closely resemble that of humans. It's not just about conversing with intelligent chatbots. GenAI has the potential to transform industries, providing richer user experiences and unlocking new possibilities. In the coming months and years, we'll witness the emergence of applications that leverage GenAI's power behind the scenes, offering capabilities never before seen. Unlike now popular chatbots like ChatGPT, users won't necessarily realize that GenAI is working in the background. But behind the scenes, these new applications are combining information retrieval and text generation to deliver truly personalized and contextual user experiences in real-time. This process is called retrieval-augmented generation, or RAG for short. So, how does retrieval-augmented generation (RAG) work, and what role do databases play in this process? Let's delve deeper into the world of GenAI and its database requirements. Check out our AI resource page to learn more about building AI-powered apps with MongoDB. The challenge of training AI foundation models One of the primary challenges with GenAI is the lack of access to private or proprietary data. AI foundation models, of which large language models (LLMs) are a subset, are typically trained on publicly available data but do not have access to confidential or proprietary information. Even if the data were in the public domain, it might be outdated and irrelevant. LLMs also have limitations in recognizing very recent events or knowledge. Furthermore, without proper guidance, LLMs may produce inaccurate information, which is unacceptable in most situations. Databases play a crucial role in addressing these challenges. Instead of sending prompts directly to LLMs, applications can use databases to retrieve relevant data and include it in the prompt as context. For example, a banking application could query the user's transaction data from a legacy database, add it to the prompt, and then send this engineered prompt to the LLM. This approach ensures that the LLM generates accurate and up-to-date responses, eliminating the issues of missing data, stale data, and inaccuracies. Top 4 database considerations for GenAI applications It won't be easy for businesses to achieve real competitive advantage leveraging GenAI when everyone has access to the same tools and knowledge base. Rather, the key to differentiation will come from layering your own unique proprietary data on top of Generative AI powered by foundation models and LLMs. There are four key considerations organizations should focus on when choosing a database to leverage the full potential of GenAI-powered applications: Queryability: The database needs to be able to support rich, expressive queries and secondary indexes to enable real-time, context-aware user experiences. This capability ensures data can be retrieved in milliseconds, regardless of the complexity of the query or the size of data stored in the database. Flexible data model: GenAI applications often require different types and formats of data, referred to as multi-modal data. To accommodate these changing data sets, databases should have a flexible data model that allows for easy onboarding of new data without schema changes, code modifications, or version releases. Multi-modal data can be challenging for relational databases because they're designed to handle structured data, where information is organized into tables with rows and columns, with strict schema rules. Integrated vector search: GenAI applications may need to perform semantic or similarity queries on different types of data, such as free-form text, audio, or images. Vector embeddings in a vector database enable semantic or similarity queries. Vector embeddings capture the semantic meaning and contextual information of data making them suitable for various tasks like text classification, machine translation, and sentiment analysis. Databases should provide integrated vector search indexing to eliminate the complexity of keeping two separate systems synchronized and ensuring a unified query language for developers. Scalability: As GenAI applications grow in terms of user base and data size, databases must be able to scale out dynamically to support increasing data volumes and request rates. Native support for scale-out sharding ensures that database limitations aren't blockers to business growth. The ideal database solution: MongoDB Atlas MongoDB Atlas is a powerful and versatile platform for handling the unique demands of GenAI. MongoDB uses a powerful query API that makes it easy to work with multi-modal data, enabling developers to deliver more with less code. MongoDB is the most popular document database as rated by developers. Working with documents is easy and intuitive for developers because documents map to objects in object-oriented programming, which are more familiar than the endless rows and tables in relational databases. Flexible schema design allows for the data model to evolve to meet the needs of GenAI use cases, which are inherently multi-modal. By using sharding, Atlas scales out to support large increases in the volume of data and requests that come with GenAI-powered applications. MongoDB Atlas Vector Search embeds vector search indexing natively so there's no need to maintain two different systems. Atlas keeps Vector Search indexes up to date with the source data constantly. Developers can use a single endpoint and query language to construct queries that combine regular database query filters and vector search filters. This removes friction and provides an environment for developers to prototype and deliver GenAI solutions rapidly. Conclusion GenAI is poised to reshape industries and provide innovative solutions across sectors. With the right database solution, GenAI applications can thrive, delivering accurate, context-aware, and dynamic data-driven user experiences that meet the growing demands of today's fast-paced digital landscape. With MongoDB Atlas, organizations can unlock agility, productivity, and growth, providing a competitive edge in the rapidly evolving world of generative AI. To learn more about how Atlas helps organizations integrate and operationalize GenAI and LLM data, download our white paper, Embedding Generative AI and Advanced Search into your Apps with MongoDB . If you're interested in leveraging generative AI at your organization, reach out to us today and find out how we can help your digital transformation.

October 26, 2023

應用應用強大的生成式 AI 需考量的四大重點

現今人工智慧以前所未有的速度快速發展,而生成式 AI 就站在這股風潮的浪頭上。生成式 AI 能力可以應用的範圍非常廣泛,從文本生成到音樂和藝術創作。但生成式 AI 之所以與眾不同,是因為可以深度解讀文本,產出與人類所寫的文本相似的結果。這不只可以用在智慧聊天機器人上,生成式 AI 擁有的潛力足以撼動產業,提供更豐富的使用者體驗,開啟多樣的可能性。 在未來幾個月和幾年的時間,我們將會看到越來越多使用生成式 AI 的應用程式,展現過去未曾見過的能力。不像現在熱門的聊天機器人 ChatGPT,使用者可能根本不會發現自己互動的對象是生成式 AI。生成式 AI 隱身在這些新式應用程式的背後,進行資訊檢索和文本生成,即時提供真正量身定做和符合情境的使用者經驗,這個流程稱為檢索增強生成(RAG)。 那麼檢索增強生成(RAG)是怎麼運作的呢?資料庫在過程中扮演的角色是什麼?跟我們一起探索生成式 AI 的世界以及它對資料庫的要求吧! 造訪我們的 AI 資源頁面 ,進一步了解如何使用 MongoDB 建立 AI 驅動應用程式。 訓練 AI 基礎模型的挑戰 無法存取私人或專屬資料是生成式 AI 目前面臨的主要挑戰之一。AI 基礎模型中,像是 大型語言模型 (LLM)就是其中的子集,通常是使用公開資料訓練,沒有辦法取用機密或是專屬資訊。就算是放在公開主機的,通常也是過時和不相關的資料。而且 LLM 在辨識非常近期發生的事件或知識上也有所限制。另外沒有經過適當的指引,LLM 有可能會產出錯誤的資訊,這在許多情境下都是無法允許的。 資料庫在解決這些挑戰上,扮演了非常重要的角色。應用程式可以直接使用資料庫,檢索相關資料,並把內容以文本的方式放入指令之中,而非直接傳送指令到 LLM。像是金融應用程式可以先在傳統資料庫中,查詢使用者的交易資料,接著把內容加入指令中,再把調整過後的指令傳到 LLM。這個方法可以確保 LLM 生成正確且最新的回應,避免資料缺失、資料過時和資料錯誤所造成的問題。 為生成式 AI 應用程式選擇資料庫的四大考量 現今每個人都能存取同樣的工具及知識庫,因此對公司來說要透過生成式 AI 取得競爭優勢,不是一件容易的事。但是可以創造出差異化的關鍵就在於企業 獨有的專屬資料 ,將之分層放入由基礎模型和 LLM 支援的生成式 AI 之上。想要完全實現生成式 AI 強化應用程式潛力的組織,在選擇資料庫上有四點需要考量的面向: 可查詢性:資料庫必須有能力支援豐富且具表達性的查詢及二級索引,進而即時提供情境感知的使用者經驗。不論查詢的複雜性高低,或是存在資料庫中的資料大小,這項能力能確保可以在毫秒內檢索資料。 具彈性的資料模型:生成式 AI 應用程式通常需要不同類型和格式的資料,也就是多模態資料。為了適應資料集的變化,資料庫需要具備彈性的資料模型,才能輕鬆導入新資料,不需要改變資料表結構 、修改編碼或發行新版本。對關聯式 資料庫來說,多模態資料是一種挑戰,因為這種資料庫是為處理結構化資料而設計,會將資訊整理為以欄列表示的表格,並有著嚴格的資料表結構的 規則。 整合式向量搜尋:生成式應用程式需要針對不同類型的資料,像是無特定結構的文本、音檔或圖像,進行語意或相似性查詢。向量資料庫中的向量嵌入使得系統能進行語意或相似性查詢,向量嵌入捕捉資料中的語意及文本資訊,因此適合用於各種任務,例如文本分類、機器翻譯和情感分析。資料庫應該要提供整合向量搜尋索引編輯的功能,以避免需要使用兩個不同系統來同步資料的複雜性,並且確保開發人員使用統一的查詢語言。 可擴展性:隨著生成式 AI 應用程式使用者數量及資料規模不斷成長,資料庫需要持續進行擴展,以支援持續增加的資料量及請求率。資料庫可以支援擴展分片,就能確保容量限制不會成為公司發展的絆腳石。 最理想的資料庫解決方案:MongoDB Atlas 在處理生成式 AI 獨特的要求上,MongoDB Atlas 是非常強大且用途廣泛的平台。MongoDB 使用強大的查詢 API,可以輕鬆操作多模態資料,開發人員在過程中不需要寫這麼多的編碼。MongoDB 是最受開發人員歡迎的文件資料庫,操作文件對開發人員來說非常簡單直覺,因為文件可以比對物件導向程式中的物件,比關聯式資料庫中無限的欄列表格更讓人駕輕就熟。具彈性的資料表結構 設計可幫助資料模型持續演化,滿足本質上多模態的生成式 AI 案例 的需求。Atlas 透過使用分片進行擴展,支援大量增加的資料以及來自生成式 AI 應用程式的請求。 MongoDB Atlas Vector Search 直接嵌入了向量搜尋索引編輯,因此不需要維護兩個不同的系統。Atlas 透過來源資料,隨時更新 Vector Search 的索引。開發人員可以使用單一端點和查詢語言,建立結合一般資料庫查詢篩選和向量搜尋篩選的查詢。可避免在使用上造成適應問題,為開發人員提供快速原型化並產出生成式 AI 解決方案的環境。 結論 生成式 AI 已經準備好重塑產業,為各大公司部門提供創新解決方案。有了適合的資料庫解決方案,生成式 AI 應用程式就能蓬勃發展,提供正確、情境感知並應用動態資料驅動的使用者體驗,滿足現今變化快速的數位環境成長所需。有了 MongoDB Atlas,組織就能提升敏捷度、生產力和成長,在這個快速演化的生成式 AI 世界裡擁有競爭力。 進一步了解 Atlas 如何幫助組織整合並操作生成式 AI 和 LLM 資料,下載我們的白皮書 運用 MongoDB 將生成式 AI 及進階搜尋嵌入你的應用程式 。若你想在自家組織內應用生成式 AI,歡迎馬上 與我們聯繫 ,了解我們可以如何協助你進行數位轉型。

October 23, 2023

Why I Wrote the New MongoDB Aggregations Book

In early May 2021, I published my book, Practical MongoDB Aggregations, which I released electronically and free for anyone to read . I love the MongoDB database and the uniqueness and power of its aggregation framework to analyse and manipulate massive amounts of data intuitively and efficiently. The opportunity to share this passion with others spurred me to write the book, with which I aim to support developers, architects, data analysts, data engineers, and data scientists to better understand how to maximise their productivity and effectiveness when building aggregation pipelines, as well as how to optimise these pipelines. Like many people over the past year during the pandemic, I’ve struggled to keep myself occupied when not busy doing my day job. Hence, my book was born not just from a desire to improve people’s knowledge but as my pandemic project, written over many weekends, to stave off the boredom. I believe aggregation pipelines provide a powerful domain-specific language for data processing in a way I’ve not seen before in other data-oriented tools, languages, or standards. SQL is a good data query language that caters to some analytical use cases via “group-by/having” statements. However, it typically has to be paired with a procedural language (e.g., Oracle’s PL/SQL ) to encompass an ordered set of complex data transformation rules. In the big data world of Hadoop , I find the MapReduce approach is too complex to develop with efficiently. Higher-level tools like Spark help alleviate some of this. However, by the necessity of still having to be general-purpose and versatile, the amount of Spark code required to process data sitting in any type of database is still too high for my liking. Many ETL tools provide proprietary data transformation capabilities, but these have to cater to the lowest common denominator capabilities across all the different types of databases they interact with. For these reasons and from experience, I consider MongoDB Aggregations to be the best tool for processing large data sets because it combines performance with productivity. Nevertheless, I sense the aggregation framework is shrouded in mystery for many people, hence my desire to demystify it with this book. I believe I identified a knowledge gap that many users wanted to be filled. MongoDB Inc. provides excellent reference documentation about aggregations in the MongoDB Manual , and MongoDB University provides a tremendous free online training course on aggregations . What I felt was still to be addressed was an opinionated yet informed perspective on how best to assemble aggregation pipelines from the well-documented parts—something that points the way to achieve optimal productivity and performance, accompanied by fully formed example pipelines to help put these approaches into practice. I hope readers of my book will learn some new things of value and enjoy reading it. A good test of the relevance of my book, in time, will be if people come back to it repeatedly as they continue with their journey of developing aggregations. Read the book for free now!

May 25, 2021