Oliver Tree

5 results

Finance, Multi-Cloud, and The Elimination of Cloud Concentration Risk

Regardless of their size and business mix, most financial institutions have come to understand how cloud and multi-cloud computing services can benefit them. There is the cost-effective flexibility to scale, deploy new services, and innovate to stay aligned with rapidly changing customer expectations. There are security and resiliency benefits that can be difficult and expensive to replicate on-premises, especially for smaller institutions trying to keep pace with rapidly changing standards. And there is geographic access to new markets – from China to Canada – that require deployment of local, in-country systems under emerging sovereignty laws. As the industry continues to embrace cloud services, regulators are becoming more aware of the challenges associated with cloud computing, especially those that could expose financial institutions to systemic risks potentially undermining the stability of the financial system. Oversight bodies such as the Financial Stability Board (FSB) and the European Banking Authority have urged regulators worldwide to review their supervisory frameworks to ensure that different types of cloud computing activities are fully scoped into industry guidelines. At the same time, public cloud provider outages have disproved the “never fail” paradigm, and there are growing calls for heightened diligence around cybersecurity risks. Regulators are increasingly focused on cloud concentration risk , or the potential peril created when so much of the technology underpinning global financial services relies on so few large cloud services providers. An outage or cyberattack, they worry, could derail the global financial system. This article will tackle cloud concentration risk for financial services firms, examining how that risk came to be and how multi-cloud can be used to navigate this risk and prepare for future regulations. Part 1: What is cloud concentration risk for financial services? Part 2: Why financial services are evolving from hybrid to multi-cloud Part 3: Solve cloud concentration risk with cross-cloud redundancy Part 4: The limits of a single-vendor public cloud solution Part 5: Commercial and technical benefits of multi-cloud for financial services Read our guide to cloud concentration risk Part 1: What is cloud concentration risk for financial services? The concern over infrastructure concentration and consolidation is twofold. First is the systemic risk of having too many of the world’s banking services concentrated on so few public cloud platforms. Historically, this problem did not exist as each bank operated its own on-premises infrastructure. Failure in a data center was always limited to one single player in the market. Second is the vulnerability of individual institutions, including many smaller institutions, that outsource critical banking infrastructure and services to a few solution providers. These software-as-a-service “hyperscalers” also tend to run on a single cloud platform, creating cascading problems across thousands of institutions in the event of an outage. In both cases, performance, availability, and security-related concerns are motivating regulators who fear that a provider outage, caused either internally or by bad external actors, could cripple the financial systems under their authority. Such a service shock is much more than a hypothetical worry. In October 2021 Facebook suffered a huge global outage. More than 3.5 billion people who rely on the social network’s applications were without service for more than five hours after Facebook made changes to a single server component that coordinates its data center traffic. Like Facebook, the big three cloud service providers (CSPs), Microsoft Azure , AWS , and Google Cloud , have all suffered similar outages in recent years. For financial services companies, the stakes of a service interruption at a single CSP rise exponentially as they begin to run more of their critical functions in the public cloud. Regulators have so far offered financial institutions warnings and guidance rather than enacting new regulations, though they are increasingly focused on ensuring that the industry is considering plans, such as “cloud exit strategies,” to mitigate the risk of service interruptions and their knock-on effects across the financial system. The FSB first raised formal public concern about cloud concentration risk in an advisory published in 2019, and has since sought industry and public input to inform a policy approach. In June 2021, the Monetary Authority of Singapore issued a sweeping advisory on financial institutions’ cybersecurity risks related to cloud adoption. Meanwhile, authorities are exploring expanding regulations, which could mean action as early as 2022. The European Commission has published a legislative proposal on Digital Operational Resilience aimed at harmonizing existing digital governance rules in financial services including testing, information sharing, and information risk management standards. The European Securities & Markets Authority warned in September 2021 of the risks of “high concentration” in cloud computing services providers, suggesting that “requirements may need to be mandated” to ensure resiliency at firms and across the system. Likewise, the Bank of England’s Financial Policy Committee said it believes additional measures are needed “to mitigate the financial stability risks stemming from concentration in the provision of some third-party services.” Those measures could include the designation of certain third-party service providers as “critical,” introducing new oversight to public cloud providers; the establishment of resilience standards; and regular resilience testing. They are also exploring controls over employment and sub-contractors, much like energy and public utility companies do today. Hoping to get out ahead of regulators, the financial services industry and the hyperscalers are taking steps to address the underlying issues. Part 2: Why financial services are evolving from hybrid to multi-cloud Looking at the existing banking ecosystem, a full embrace of the cloud is extremely rare. While they would like to be able to act like challenger and neo banks, many of the largest and most technology-forward established banks and financial services firms have adopted a hybrid cloud architecture – linking on-premises data centers to cloud-based services – as the backbone of an overarching enterprise strategy. Smaller regional and national institutions, while not officially adopting a cloud-centric mindset, are beginning to explore the advantages of cloud services by working with cloud-based SaaS providers through their existing ISVs and systems integrators. Typically, financial institutions already pair multiple external cloud providers with on-premises infrastructure in an enterprise-wide hybrid cloud approach to IT. In these scenarios, some functions get executed in legacy, on-premises data centers and others, such as mobile banking or payment processing, are operated out of cloud environments, giving the benefits of speed and scalability. Moving to a hybrid approach has itself been an evolution. At first, financial institutions put non-core applications in a single public cloud provider to trial its capabilities. These included non-core systems running customer-facing websites and mobile apps, as well as new digital, data, and analytics capabilities. Some pursued deployments on multiple cloud vendors to handle different tasks, while maintaining robust on-premises primary systems, both to pair with public cloud deployments and to power core services. At MongoDB, we’re increasingly seeing customers, including many financial services companies, run independent workloads on different clouds. However, we believe the real power of multi-cloud applications is yet to be realized. While a hybrid approach utilizing one or two separate cloud providers works for now, the next logical step (taken by many fintech startups ) is to fully embrace the cloud and, eventually, a multi-cloud approach and move away from on-premises infrastructure entirely. Take Wells Fargo. The US-based bank recently announced a two-provider cloud infrastructure and data center strategy, adding that its long-term aspirations are to run most of its services in the public cloud, with an end goal of operating agnostically across providers and free of its own data centers. Are you really multi-cloud? Many large financial institutions will say they are already multi-cloud. For most, that means a hybrid cloud approach , using one or more public cloud service providers to handle distinct workloads while maintaining mission critical services on-premises. In a hybrid cloud deployment both public cloud and private, on-premises infrastructure function as a single unit, with orchestration tools used to deploy and manage workloads between the two components. In recent years, the line between the two cloud types has blurred, with significant advances in the strategy known as hybrid multi-cloud; “hybrid” referring to the presence of a private cloud in the mix, and “multi-cloud” indicating more than one public cloud from more than one service provider. As enterprises increasingly move in this direction, the hybrid multi-cloud (also known simply as hybrid cloud) looks to become the predominant IT environment, at least for larger organizations. The hybrid approach can be seen as a step on the way to harnessing the true potential of a multi-cloud deployment , where data and applications are distributed across multiple CSPs simultaneously, giving financial services firms the ability to: Use data from an application running in one cloud and analyze that data on another cloud without manually managing data movement Use data stored in different clouds to power a single application Easily migrate an application from one cloud provider to another With multi-cloud clusters on MongoDB Atlas, data and applications are free to move across multiple clouds with ease. For financial services firms, the multi-cloud journey is one worth serious consideration, both because it holds the potential to increase performance and meet customer expectations, and because it can reduce the risks of relying on one cloud vendor. Part 3: Solve cloud concentration risk with cross-cloud redundancy For an industry as tightly regulated and controlled as financial services, and with so much sensitive data being moved and stored, security and resilience are critical considerations. Recent service disruptions at the top public cloud providers remind us that no matter how many data centers they run, single cloud providers remain vulnerable to weaknesses created by their own network complexity and interconnectivity across sites. One might argue that even a single cloud provider has better uptime stats than an on-premise solution, but recent outages highlight the need for operational agility, given the high availability and performance requirements of critical applications. When an institution relies on a single provider for cloud services, it exposes its business to the risk of potential service shocks originating from that organization’s technical dependencies, cyberattacks, and vulnerabilities to natural disasters or even freak accidents . Cross-cloud redundancy solves cloud concentration risk Cloud disruptions vary in severity, from temporary capacity constraints to full-blown outages, and financial services companies need to mitigate as much risk as possible. By distributing data across multiple clouds, they can improve high availability and application resiliency without sacrificing latency. With multi-cloud clusters on MongoDB Atlas , financial services firms are able to distribute their data in a single cluster across Azure, AWS, and Google Cloud. MongoDB Atlas extends the number of locations available by allowing users to choose from any of over 80 regions available across major CSPs – the widest selection of any cloud database on the market. This is particularly relevant for financial services firms that must comply with data sovereignty requirements , but have limited deployment options due to sparse regional coverage on their primary cloud provider. In some cases, only one in-country region is available, leaving users especially vulnerable to disruptions in cloud service. For example, AWS has only one region in Canada and Google Cloud has two. With multi-cloud clusters, organizations can take advantage of all three regions, and add additional nodes in the Azure Toronto and Quebec City regions for extra fault tolerance. Several MongoDB customers in the financial services sector have already taken steps toward a true multi-cloud approach by building nodes in a second CSP using MongoDB Atlas. These MongoDB customers are using a 5-and-1 architecture, typically with one CSP as the primary, majority provider, coupled with a secondary backup CSP. In this scenario, the primary CSP holds most of the operations the bank or financial institution needs to run a specific solution, e.g. mobile banking, with the second CSP used for disaster recovery and regulatory compliance in case the first provider has a major outage or service interruption. Often this secondary CSP also acts as a primary for other services at the firm. How Bendigo and Adelaide Bank Simplified Their Architecture and Reached for the Cloud Bendigo and Adelaide Bank, one of Australia’s largest banks, are planning for a multi-cloud future. “As we work to accelerate the transformation of our business, we believe the benefits of cloud will help our business systems by reducing disruption, improving velocity and consistency, and enhancing our risk and vulnerability management position,” said Ash Austin, Bendigo and Adelaide Bank’s cloud platforms service owner . For simplification and cloud centricity, MongoDB Atlas , MongoDB’s cloud database service, was a logical next step. “The fact that MongoDB Atlas supported the three major hyperscalers [Google Cloud, AWS, Azure] helped with portability and supports a multi-cloud future for us,” added Dan Corboy, a Cloud Engineer at Bendigo and Adelaide bank. “It made it really easy for us to choose MongoDB because we didn’t have to then hedge our bets on a particular cloud provider or a particular process – we could be flexible.” Part 4: The limits of a single-vendor public-cloud solution In part 1 we explored the evolution of cloud adoption in the financial services sector and the growing attention on infrastructure concentration risk created from hybrid cloud approaches incorporating only one or two isolated or loosely connected public cloud service providers. Beyond the looming regulatory issues, there are a number of practical business and technology limitations of a single-cloud approach that the industry must address to truly future-proof their infrastructure. Drawbacks to a single-cloud or hybrid approach include: Geographic constraints Not all cloud service providers operate in every business region. Choosing a provider that satisfies today’s location needs seems sensible now, but could prove limiting in the future if an organization expands into new geographies that are underserved by their chosen cloud service provider. A multi-cloud strategy extends the geographic availability of data centers to a longer list of countries served by all the major providers. The availability of local cloud solutions grows increasingly important as more countries adopt data sovereignty and residency laws designed to govern how data is collected, stored and used locally. Sovereignty rules mandate that data collected and stored within a country be subject to the laws, regulations and best practices for data collection of that country. Data residency laws require that data about a country’s citizens be collected and stored inside the country, regardless of whether it ultimately gets replicated and sent abroad. For global financial services companies, this creates thorny technical, operational, and legal issues. Addressing those issues holistically through a single cloud provider is nearly impossible. The topic continues to draw the attention of lawmakers around the world, beyond the handful of countries such as Russia and Canada that drove initial action around these policies. The European Union, for one, is actively scoping a unified EU sovereignty policy and action plan to address its growing concerns about control over its data. Following the success of the General Data Protection Regulation , the Digital Markets Act is set to further shape data policy and regulation in the region. Vendor lock-in Aside from the technical risks of working with a single cloud provider, there is also commercial risk in placing all of an institution’s bets on one cloud provider. The more integrated an institution’s applications are within a single cloud provider, and the more it relies on the third-party services of that single provider, the harder it becomes to negotiate the cost of cloud services or to consider switching to another provider. Over time, as services are customized and adapted to a single cloud provider's protocols and data structures, it becomes operationally challenging to migrate to a different cloud environment. The more intertwined a company’s technical architecture is with a single cloud provider, the more difficult it is to design an exit strategy without putting the business at risk of performance lags, heavy “un-customization” work, or price gouging. By locking in, institutions also lose power to influence service quality should the vendor change the focus of its development, become less competitive, or run into operational problems. Eventually, innovation at the financial services firm slows to the speed of the chosen CSP. Even integrating external apps and services becomes a challenge, reminiscent of the monolithic architecture the new cloud environment was set to replace. Multi-cloud and a robust exit strategy In addition to data portability and high availability, multi-cloud clusters on MongoDB Atlas offer financial services companies a robust set of viable exit strategies when moving workloads to the cloud. While other database services lock clients tightly to one cloud provider and provide little to no leeway to quickly terminate a commercial relationship, MongoDB Atlas can transition database workloads, with zero downtime, from one cloud provider to another. An exit can be made without requiring any application changes, bringing peace of mind for financial services companies planning business continuity and cloud exit scenarios in which either a non-stressed or stressed exit from a cloud vendor might be required. Security homogeneity Cloud service providers invest heavily in security features and are generally considered among the most sophisticated leaders in cyber-security. They proactively manage threats through security measures deployed across customer connection points. For financial services, top cloud providers offer enhanced security to meet strict governance requirements. From a risk standpoint, monitoring and securing a single-cloud hybrid deployment is easier than managing threats across multiple clouds. From the perspective of a threat surface, a single cloud poses fewer risks because there are fewer pathways for would-be hackers. The challenge, though, is responding to an event in a single-cloud environment should an incident, intentional or otherwise, occur. In the event of an infrastructure meltdown or cyberattack, a multi-cloud environment can give organizations the ability to switch providers and to back up and protect their data. Feature limitations Cloud service providers develop new features asynchronously. Some excel in specific areas of functionality and constantly innovate, while others focus on a different set of core capabilities, including Google Cloud’s AI Platform, for instance, Microsoft Azure’s Cognitive Services, and the AWS Lambda platform which enables server-less, event-driven computing. By restricting deployments to one cloud services provider, institutions limit their access to best-of-breed features across the cloud. They’re locked in to using whatever is available on their platform, rather than being able to tap in to advances across clouds. Over time, this can limit innovation and put organizations at a competitive disadvantage. Part 5: Commercial and technical benefits of multi-cloud for financial services As the financial services industry accelerates its cloud-first mindset, more institutions find that a multi-cloud strategy can better position them to meet the rapidly changing commercial, technical, and compliance demands on their business. What’s more, a fully-formed multi-cloud strategy provides an opportunity to partner with the most sophisticated and well-resourced service providers, and to benefit from leading-edge innovation from all of them. The recognition that a single cloud provider is not only limiting them but may be a hindrance is dawning to the leadership of many banks. As the CEO of one large investment bank told MongoDB, “Multi-cloud is an opportunity for us to unlock the full value of each location, not water things down with abstractions and accept the lowest common denominator.” In addition to facilitating access to leading-edge innovations, a multi-cloud approach offers financial services firms multiple additional benefits. Optimize performance Rock-solid service availability and responsiveness are the cornerstones of performance planning in financial services. The goal of any architecture design is to limit downtime and minimize application lag while aligning processing resources to the specific needs of each application. While even single cloud providers log higher uptime than most on-prem solutions involving multiple data centers, a multi-cloud architecture offers additional resiliency and flexibility to meet internal and client performance SLAs that before only mainframe technology (so called Sysplex-cluster) could achieve with 99.9999% availability. In a multi-cloud environment, institutions can dynamically shift workloads among cloud providers to speed up tasks, respond to service disruptions, reduce latency by supporting traffic locally, and address regulatory concerns about one-cloud provider vulnerability. Optimizing for all of these factors yields the best customer experience and the most efficient and cost-effective approach to infrastructure. Scale dynamically for task and geography Scalability and locality is critical. Increasingly, customer demands on product experience are pushing financial services providers to meet new requirements that can sometimes be best delivered through geographic scaling and being close to the end user. It’s not just about who has the greatest amount of storage or the fastest CPU available anymore – it may mean maximizing application responsiveness by running computing resources close to the end-user. This is only becoming more relevant with the roll-out of 5G edge services and the growth in real-time edge computing it requires. Access to multiple clouds creates opportunities to dynamically balance task execution locally for maximum efficiency across geographies, be that California, New York, or Singapore. It also enables institutions to scale storage requirements up and down across providers based on need and cost. In a fast-paced commercial environment, financial institutions can quickly deploy applications at scale in the cloud. By running in multiple clouds, financial institutions have the opportunity to arbitrage cost and performance without compromising their business strategy. Adapt to business changes Financial services companies can stay nimble by building flexible multi-cloud capabilities that enable them to adapt quickly to new regulatory, competitive, and financial conditions. This is as true for challenger banks such as Illimity or Current as it is for established institutions such as Macquarie or NETS . An effective multi-cloud strategy can be a solution to managing regulatory, compliance and internal policy changes by replacing a patchwork of solutions with a common framework across cloud providers. The ability to move seamlessly among cloud providers gives institutions the capability to quickly address situations such as new data sovereignty laws or a merger by shifting workloads to a more advantageous provider. Avoid vendor lock-in With IT costs continuing to grow as a proportion of overall spending, running a multi-cloud strategy can help institutions better manage technology outlays to third-party providers by helping them to avoid vendor lock-in. Not all services are designed equally and switching services between providers can have a multi-million dollar impact on cloud provider bills. In any industry, overreliance on one supplier creates financial and operating risks. The more interconnected, or “sticky”, a single-cloud solution becomes, the more challenging it is to unwind it, should it no longer meet the institution’s needs. And by concentrating services with one provider, companies risk losing financial leverage to negotiate contract terms. By taking a multi-cloud approach, institutions can choose among providers competitively, without being locked in, either commercially by a technical dependency. A multi-cloud approach also allows financial institutions to push harder on providers to develop for their particular needs. Harness innovative features The ability to tap into cloud capabilities such as artificial intelligence and machine learning is a major benefit of working with cloud service providers. Through a multi-cloud approach, developers can select features from across cloud providers and deploy the technical building blocks that best suit their needs. They can run their workloads using different tools on the same data set, without having to do manual data replication. That means institutions can access popular services such as AWS Lambda, Google Tensorflow Cloud AI and Azure Cognitive Services without cumbersome data migrations. As consumers increasingly demand premium product experiences from financial services institutions, those institutions can gain competitive advantages by deploying best-of-breed applications into user services. Looking to learn more about how you can build a multicloud strategy, or what MongoDB can do for financial services? Take a look at the following resources: Get started with multi-cloud clusters on MongoDB Atlas How to create a multi-cloud cluster with MongoDB Atlas MongoDB’s financial services hub

February 25, 2022

금융, 멀티클라우드, 그리고 클라우드 집중 리스크의 제거

규모나 비즈니스 믹스와 관계 없이 대부분의 금융기관은 이제 클라우드와 멀티클라우드 컴퓨팅 서비스가 자사에 어떠한 이점을 제공하는지 이해하게 되었다. 우선, 빠르게 변화하는 고객 기대에 지속적으로 부응하기 위해 서비스를 확장하고 새로운 서비스를 배포하고 혁신을 수행할 때 비용 효율이 높은 유연성을 제공한다. 특히 급변하는 기준에 뒤쳐지지 않기 위해 애쓰는 소규모 기관들이 온-프레미스로 구현하기에는 비싸고 어려울 수 있는 보안 및 복원성 이점도 제공한다. 또한 중국에서부터 캐나다에 이르기까지 새로운 주권 법률에 따른 역내 시스템의 배포가 요구되는 새로운 시장에 대한 지리적 접근성도 있다. 금융 시장이 지속적으로 클라우드 서비스를 수용함에 따라 규제기관들은 클라우드 컴퓨팅과 관련된 문제들, 그 중에서도 금융 시스템 안전성을 해칠 수 있는 리스크에 금융기관을 노출시킬 위험이 있는 문제에 대한 인식을 제고하고 있다. 금융안정위원회(FSB)나 유럽은행감독청(EBA)과 같은 감독 기구들은 전 세계 규제기관에 다양한 유형의 클라우드 컴퓨팅 활동이 업계 가이드라인에 충분히 포함될 수 있도록 자사의 감독 체계를 검토할 것을 촉구해 왔다. 동시에 퍼블릭 클라우드 제공자들의 서비스 중단이 발생하면서 “절대로 장애는 없다”는 패러다임이 깨졌고, 이에 따라 사이버보안 리스크에 대한 경계를 강화해야 한다는 목소리가 커지고 있다. 규제기관들은 클라우드 집중 리스크 , 즉 글로벌 금융 서비스의 근간이 되는 기술이 소수의 대형 클라우드 서비스 제공자에만 지나치게 의존할 때 발생할 수 있는 위험에 대한 경각심을 촉구하면서 서비스 중단이나 사이버공격이 글로벌 금융 시스템의 탈선을 야기할 수 있다고 우려한다. 여기에서는 금융 서비스 기업에 대한 클라우드 집중 리스크에 대해 다루면서 이러한 리스크의 현황과 이러한 리스크를 탐색하고 향후 규제를 마련하는 데 멀티클라우드 의 역할이 무엇인지 살펴본다. 1부: 금융 서비스에 대한 클라우드 집중 리스크란 무엇인가? 2부: 금융 서비스가 하이브리드에서 멀티클라우드로 진화하고 있는 이유는 무엇인가? 3부: 크로스 클라우드 이중화를 통해 클라우드 집중 리스크를 해결하라 4부: 단일 벤더 퍼블릭 클라우드 솔루션의 한계 5부: 금융 서비스를 위한 멀티클라우드의 상업적, 기술적 이점** 전문 보기 1부: 금융 서비스에 대한 클라우드 집중 리스크란 무엇인가?? 인프라 집중 및 통합에 대한 우려는 크게 두 가지다. 첫 번째는 전 세계의 너무 많은 뱅킹 서비스가 소수의 퍼블릭 클라우드 플랫폼에 집중되는 리스크다. 과거에는 은행마다 자체 온-프레미스 인프라를 운영했기 때문에 이런 문제가 없었다. 데이터 센터에서 장애가 발생하더라도 해당 기업 한 곳으로 그 영향이 한정되었다. 두 번째는 중요한 뱅킹 인프라 및 서비스를 소수의 솔루션 제공자에게 위탁한 다수의 소규모 기관들을 포함한 개별 기관들의 취약성이다. 이러한 SaaS “하이퍼스케일러들”도 단일 클라우드 플랫폼에서 실행되어 서비스 중단 시 수많은 기관들에 연쇄적으로 문제를 일으키는 경향이 있다. 두 경우 모두 성능, 가용성 및 보안 관련 문제들이 내부적으로나 외부의 악의적 행위자에 의한 서비스 중단으로 자사의 감독 하에 있는 금융 시스템이 손상을 입는 것을 두려워하는 규제기관을 자극하고 있다. 이러한 서비스 충격은 가설적 우려보다 훨씬 더 큰 것이다. 2021년 10월, 페이스북은 엄청난 규모의 글로벌 서비스 중단을 겪었다. 페이스북이 자사의 데이터 센터 트래픽을 조정하는 단일 서버 구성요소 를 변경하고 나서 이 소셜 네트워크의 여러 애플리케이션에 의존하던 35억 명 이상의 사용자들이 5시간 넘게 서비스를 이용할 수 없었다. 페이스북과 마찬가지로 빅3 클라우드 서비스 제공자(CSP)인 Microsoft Azure , AWS , Google Cloud 도 모두 지난 수년간 유사한 서비스 중단을 경험했다. 금융 서비스 기업의 경우 더 많은 자사의 주요 기능들을 퍼블릭 클라우드에서 실행하기 시작하면서 단일 CSP에서 발생한 서비스 중단 리스크가 기하급수적으로 증가한다. 규제기관들은 금융기관들이 서비스 중단 리스크와 이러한 리스크가 금융 시스템 전반에 미치는 연쇄 효과를 완화하기 위한 “클라우드 출구 전략”과 같은 계획을 고려하도록 좀 더 노력을 기울이고 있으나 지금까지는 새로운 규제를 마련하기 보다 주로 금융기관에 경고와 안내를 제공하는 데 주력해 왔다. FSB는 2019년에 발표한 권고서에서 클라우드 집중 리스크에 관한 공식적인 우려 를 처음으로 제기한 이래 줄곧 정책 수립에 필요한 업계와 일반 대중의 의견을 들어왔다. 2021년 6월에는 싱가포르 금융관리국(MAS)이 클라우드 채택과 관련한 금융기관의 사이버공격 리스크에 관한 포괄적인 권고문 을 발행했다. 한편, 규제기관들은 이르면 2022년부터 시행될 규제 확대를 검토 중이다. 유럽 위원회는 검사, 정보 공유 및 정보 리스크 관리 기준을 포함한 기존의 금융 서비스 디지털 거버넌스 규칙의 국가 간 조화를 목표로 디지털 운용 탄력성(Digital Operational Resilience) 에 관한 입법 제안을 발표했다. 유럽증권시장감독청(ESMA)은 2021년 9월에 클라우드 컴퓨팅 서비스 제공자의 “과밀” 리스크를 경고하면서 기업과 시스템 전체의 탄력성을 위한 요구사항 의무화의 필요성을 제안했다. 마찬가지로 잉글랜드은행(Bank of England)의 금융정책위원회도 “일부 제3자 서비스 제공에 집중되는 데 따른 금융 안정성 리스크를 완화하기 위해” 추가적인 조치가 필요할 것으로 판단한다고 밝혔다. 이러한 조치로는 특정 제3자 서비스 제공자의 “중대” 지정을 통한 퍼블릭 클라우드 제공자에 대한 새로운 감독 기능 도입, 탄력성 기준 수립, 정기적인 탄력성 검사 등이 있을 수 있다. 또한 현재 에너지 및 공익 기업들이 시행하는 것과 같이 고용과 하청업체에 대한 관리도 모색하는 중이다. 규제기관보다 앞서 가기 위해 금융 서비스 기업들과 하이퍼스케일러들은 이러한 근본적인 문제들을 해결하기 위한 조치를 취하는 중이다. 2부: 금융 서비스가 하이브리드에서 멀티클라우드로 진화하고 있는 이유는 무엇인가? 기존의 뱅킹 생태계를 보면 클라우드를 전면적으로 수용하는 경우는 극히 드물다. 도전자나 네오뱅크처럼 행동하고 싶어하는 기술 지향적인 대형 은행 및 금융 서비스 기업들은 온-프레미스 데이터 센터를 클라우드 기반 서비스와 연동시키는 하이브리드 클라우드 아키텍처를 중요한 기업 전략의 근간으로 채택했다. 이들보다는 규모가 작은 지역 및 전국 금융기관들은 클라우드 중심적 마인드셋을 공식적으로 채택하지는 않았으나 자사의 기존 ISV 및 시스템 통합 사업자들을 통해 클라우드 기반 SaaS 제공자들과 협업함으로써 클라우드 서비스의 이점을 찾아보기 시작했다. 일반적으로 금융기관들은 이미 다수의 외부 클라우드 제공자를 온-프레미스 인프라와 IT에 대한 전사적 하이브리드 클라우드 접근법으로 페어링한다. 이러한 시나리오에서는 레거시, 온-프레미스 데이터 센터 등에서 실행되는 모바일 뱅킹이나 결제 처리와 같은 일부 기능들은 클라우드 환경 외부에서 운영되어 속도 및 확장성의 이점을 제공한다. 하이브리드 접근법으로의 이동은 그 자체로 큰 발전이었다. 금융기관들은 먼저 비핵심 애플리케이션들을 단일 퍼블릭 클라우드 제공자에게 투입하여 성능을 시험했다. 여기에는 고객이 이용하는 웹사이트 및 모바일 앱을 실행하는 비핵심 시스템과 새로운 디지털, 데이터 및 분석 기능 등이 포함되었다. 일부는 다양한 작업을 처리하기 위해 다수의 클라우드 벤더에서의 배포를 모색하는 한편 퍼블릭 클라우드 배포와 페어링하고 핵심 서비스를 운영하기 위한 탄탄하고 우수한 온-프레미스 기본 시스템을 유지했다. MongoDB는 여러 금융 서비스 기업을 포함한 고객들이 갈수록 더 많이 다양한 클라우드에서 독립적인 워크로드를 실행하는 것을 목격하고 있다. 그러나 우리는 멀티클라우드 애플리케이션의 진정한 힘은 아직 실현되지 않았다고 믿는다. 한두 곳의 개별 클라우드 제공자를 이용하는 하이브리드 접근법이 현재로서는 효과가 있으나 ( 다수의 핀테크 스타트업 이 채택) 논리적으로 타당한 다음 단계는 클라우드와 궁극적으로는 멀티클라우드 접근법을 전면적으로 수용하고 온-프레미스 인프라와 영구적으로 결별하는 것이 될 것이다. 웰스파고(Wells Fargo)를 예로 들어보자. 미국에 기반을 둔 이 은행은 최근 두 곳의 클라우드 서비스 제공자를 통한 클라우드 인프라 및 데이터 센터 전략을 발표 하면서 대부분의 자사 서비스를 퍼블릭 클라우드에서 실행하고 궁극적으로는 제공자를 가리지 않고 여러 제공자를 통해 자사의 자체 데이터 센터와 무관하게 운영하는 방향으로 간다는 장기적 목표를 제시했다. 진정한 의미의 멀티클라우드인가? 많은 대형 금융기관들이 이미 멀티클라우드를 운용 중이라고 말하지만 대부분에게 중요한 서비스는 온-프레미스에서 유지하면서 하나 이상의 퍼블릭 클라우드 서비스 제공자를 이용해 별개의 워크로드를 처리하는 하이브리드 클라우드 접근법을 의미 한다. 퍼블릭과 프라이빗 클라우드 모두 하이브리드 클라우드 배포에서 온-프레미스 인프라는 단일 유닛으로 기능하며, 이 두 구성요소 간 워크로드 배포 및 관리는 오케스트레이션 툴을 통해 이루어진다. 최근 수년간 이 두 클라우드 유형 간 경계는 모호해졌으며, 하이브리드 멀티클라우드라고 알려진 전략이 크게 발전했다. “하이브리드”는 프라이빗 클라우드가 포함된 것을 의미하고, “멀티클라우드”는 다수의 서비스 제공자로부터 제공되는 다수의 퍼블릭 클라우드를 나타낸다. 기업들이 점점 더 이러한 방향으로 이동함에 따라 하이브리드 멀티클라우드(또는 간단히 하이브리드 클라우드)는 적어도 대규모 조직들에 있어서는 지배적인 IT 환경이 되어가는 것으로 보인다. 하이브리드 접근법은 데이터와 애플리케이션이 동시에 다수의 CSP에 배포되어 금융 서비스 기업들에게 다음과 같은 이점을 제공하는 멀티클라우드 배포의 진정한 잠재력 을 활용하기 위한 과정 중 하나로 여겨질 수 있다. 데이터 이동을 수동으로 관리할 필요 없이 하나의 클라우드에서 실행되는 애플리케이션으로부터 데이터를 이용하고 또 다른 클라우드에서 해당 데이터를 분석 서로 다른 클라우드에 저장된 데이터를 이용하여 단일 애플리케이션을 운영 하나의 클라우드 제공자로부터 또 다른 제공자로 애플리케이션을 손쉽게 마이그레이션 MongoDB Atlas에서의 멀티클라우드 클러스터를 통해 데이터와 애플리케이션을 다수의 클라우드 사이에서 손쉽고 자유롭게 이동시킬 수 있다. 금융 서비스 기업에게 멀티클라우드를 향한 여정은 성능을 개선하고 고객 기대를 만족할 수 있는 잠재력이 있고 단일 클라우드 벤더에 대한 의존도를 낮출 수 있다는 점에서 진지하게 고려해 볼 가치가 있다. 3부: 크로스 클라우드 이중화를 통해 클라우드 집중 리스크를 해결하라 금융 서비스업과 같이 엄격한 규제와 관리가 적용되고 중요한 데이터의 이동 및 저장이 빈번한 분야에서는 보안과 복원력이 매우 중요하다. 최근 유수의 퍼블릭 클라우드 제공자들에서 발생한 서비스 중단 사태를 보면서 이들이 아무리 많은 데이터 센터를 운영하더라도 단일 클라우드 제공자들은 자사의 네트워크 복잡성과 사이트 간 상호연결성에서 기인하는 취약점에서 자유로울 수 없음을 새삼 깨닫게 된다. 혹자는 설령 하나의 단일 클라우드 제공자라 해도 온-프레미스 솔루션보다는 더 나은 업타임 통계를 보여준다고 주장할 수도 있겠으나 최근의 서비스 중단 사태를 보면 중요한 애플리케이션들의 고가용성 및 성능 요건을 고려할 때 운영 민첩성에 대한 필요성을 강조하지 않을 수 없다. 단일 제공자에 의존하여 클라우드 서비스를 이용하는 기관은 자사의 기술적 의존성, 사이버공격, 자연 재해에 대한 취약성 또는 심지어 황당한 사고 등에서 기인하는 잠재적 서비스 충격의 리스크에 노출될 수밖에 없다. 크로스 클라우드 이중화를 통해 클라우드 집중 리스크를 해결하라 클라우드 서비스 중단은 일시적인 용량 제약에서부터 전체 서비스 중단에 이르기까지 그 정도가 다양하며, 금융 서비스 기업들은 가능한 한 많은 리스크를 줄일 필요가 있다. 데이터를 다수의 클라우드에 배포함으로써 지연시간은 그대로 유지한 채 고가용성 과 애플리케이션 복원성을 개선할 수 있다. MongoDB Atlas에서의 멀티클라우드 클러스터 를 통해 금융 서비스 기업들은 Azure, AWS, Google Cloud에 걸친 단일 클러스터에 자사의 데이터를 배포할 수 있다. MongoDB Atlas는 주요 CSP를 통해 클라우드 데이터베이스 중 가장 많은 80개 이상의 지역을 지원하는 등 지역 선택의 폭을 넓혔다. 이는 데이터 주권 요구사항 을 준수해야 하면서도 자사의 기본 클라우드 제공자의 밀도가 낮은 지역 커버리지 때문에 제한된 배포 옵션만을 이용할 수밖에 없는 금융 서비스 기업에 특히 적합하다. 일부의 경우 겨우 하나의 국내 지역만 이용이 가능하기 때문에 사용자들이 클라우드 서비스 중단에 특히 취약할 수밖에 없다. 예를 들어, AWS는 캐나다에 하나의 지역만 있고, Google Cloud도 두 지역밖에 없다. 멀티클라우드 클러스터의 경우 조직들은 세 지역을 모두 활용할 수 있고, Azure Toronto 및 Quebec City 지역에서 추가적인 노드를 통해 더 높은 내고장성을 얻을 수 있다. 금융 서비스 분야의 몇몇 MongoDB 고객은 이미 MongoDB Atlas를 통해 두 번째 CSP에 노드를 구축함으로써 진정한 멀티클라우드 접근법으로 나아가고 있다. 이 고객들은 주로 하나의 기본 CSP와 하나의 보조 백업 CSP로 조합을 이룬 5&1 아키텍처를 이용하고 있다. 이 시나리오에서 기본 CSP는 해당 은행 또는 금융기관이 모바일 뱅킹과 같은 특정 솔루션을 실행하기 위해 필요로 하는 작업의 대부분을 담당하고 보조 CSP는 기본 제공자가 서비스 중단을 겪는 경우 재해 복구 및 컴플라이언스를 목적으로 사용된다. 동일한 기업의 다른 서비스에 대해서는 이러한 보조 CSP가 기본 CSP의 역할을 하는 경우도 많다. Bendigo and Adelaide Bank는 어떻게 자사의 아키텍처를 간소화하고 클라우드를 채택했나 호주의 대형 은행 중 하나인 Bendigo and Adelaide Bank는 멀티클라우드 미래를 준비 중이다.  Bendigo and Adelaide Bank의 클라우드 플랫폼 서비스 책임자 Ash Austin은 “비즈니스 혁신을 가속화하기 위해 노력하는 과정에서 클라우드의 다양한 이점들이 서비스 중단을 줄이고, 속도와 일관성을 제고하고, 리스크 및 취약점 관리를 강화하는 데 도움이 될 것이라고 생각한다”고 말했다. 간소화와 클라우드 중심성을 위해서는 MongoDB의 클라우드 데이터베이스 서비스인  MongoDB Atlas 가 타당한 다음 단계였다. Bendigo and Adelaide Bank의 클라우드 엔지니어 Dan Corboy는 “MongoDB Atlas가 세 주요 하이퍼스케일러(Google Cloud, AWS, Azure)를 모두 지원한다는 점은 이식성과 우리가 생각하는 멀티클라우드 미래에 도움이 된다”고 덧붙였다. “특정 클라우드 제공자나 특정 프로세스에만 의존할 필요 없이 유연하게 대처할 수 있음을 의미했기 때문에 우리는 망설임 없이 MongoDB를 선택할 수 있었다.” 4부: 단일 벤더 퍼블릭 클라우드 솔루션의 한계 1부에서 우리는 금융 서비스 기업들의 클라우드 채택이 어떻게 변화해 왔는지 살펴보고, 한두 곳의 분리되거나 느슨하게 연결된 퍼블릭 클라우드 서비스 제공자만을 포함하는 하이브리드 클라우드 접근법에서 발생하는 인프라 집중 리스크에 대한 증가하는 우려에 대해서도 살펴보았다. 곧 닥칠 규제 문제는 차치하고, 기업들이 자사 인프라의 미래를 제대로 대비하기 위해서 반드시 해결해야 할 단일 클라우드 접근법의 몇 가지 비즈니스적 기술적 한계가 있다. 단일 클라우드 또는 하이브리드 접근법은 다음과 같은 약점을 가진다. 지리적 제약 모든 클라우드 서비스 제공자가 모든 비즈니스 지역에서 서비스를 제공하는 것은 아니다. 고객이 원하는 지역에서 서비스를 제공하는 제공자를 선택하는 것은 그 당시에는 합리적으로 보일 수 있으나 향후 해당 고객이 해당 서비스 제공자가 제대로 커버할 수 없는 지역으로 진출할 경우 문제가 될 수 있다. 멀티클라우드 전략은 데이터 센터의 지리적 가용성을 모든 주요 클라우드 서비스 제공자가 서비스를 제공하는 수많은 국가로 확장시켜 준다. 해당 지역에서 데이터가 수집되고 저장되고 이용되는 방법을 통제하기 위한 데이터 주권 및 거주 법률을 채택하는 국가가 늘어나면서 지역 클라우드 솔루션의 가용성이 갈수록 중요해지고 있다. 주권 규칙은 한 국가에서 수집되고 저장된 데이터는 해당 국가의 데이터 수집에 대한 법규 및 베스트 프랙티스를 따르도록 의무화한다. 데이터 거주 법률은 한 국가의 국민에 관한 데이터는 비록 해당 데이터가 최종적으로는 복제되어 해외로 전송되더라도 해당 국가 내에서 수집되고 저장되도록 요구한다. 이러한 요구사항은 글로벌 금융 서비스 기업들에게 골치 아픈 기술적, 운영적, 법적 문제다. 단일 클라우드 제공자를 통해 이러한 문제들을 전체적으로 다루는 것은 거의 불가능하다. 이 문제는 관련 정책들을 조기에 추진한 러시아나 캐나다와 같은 일부 국가의 국회의원들뿐만 아니라 지속적으로 전 세계 국회의원들의 관심을 끌고 있다. 유럽연합은 역내 데이터 통제에 관한 증가하는 우려를 해결하기 위해 통합 EU 주권 정책과 실행 계획을 적극적으로 검토 중이다. 일반 데이터 보호 규칙(General Data Protection Regulation) 의 성공 이후 역내 데이터 정책 및 규정을 더 가다듬기 위해 디지털 시장법(Digital Markets Act) 도 제정했다. 벤더 락인(lock-in) 단일 클라우드 제공자 이용의 기술적 리스크 외에도 기관의 모든 서비스를 단일 클라우드 제공자를 통해 실행하는 것에 따른 상업적 리스크도 고려해야 한다. 기관의 애플리케이션들이 단일 클라우드 제공자에 집중되고 해당 제공자의 제3자 서비스에 대한 의존도가 높아질 수록 해당 기관은 클라우드 서비스 비용을 협상하거나 다른 제공자로의 변경을 고려하는 것이 더 어려워진다. 시간이 경과하면서 서비스들이 단일 클라우드 제공자의 프로토콜과 데이터 구조에 적응하기 때문에 다른 클라우드 환경으로 이전하기가 운영상 더 힘들어진다. 기업의 기술적 아키텍처가 하나의 단일 클라우드 제공자와 엮이면 엮일수록 성능 지연, 과중한 커스터마이징 해제 작업 또는 비합리적인 가격 상승과 같은 리스크 없이 출구 전략을 계획하기가 더욱 힘들어진다. 이러한 락인(lock-in) 상태에 있는 기관들은 해당 벤더가 개발 초점을 변경하거나 경쟁력을 잃거나 운영 문제에 봉착할 경우 서비스 품질에 대한 영향력까지 잃게 된다. 결국 금융 서비스 기업이 추진하는 혁신은 해당 CSP의 속도로 감속된다. 심지어 외부 앱 및 서비스의 통합조차 어려워지면서 이 새로운 클라우드 환경이 대체했던 기존의 단일 아키텍처로 돌아간 느낌마저 들게 된다. 멀티클라우드와 탄탄한 출구 전략 데이터 이식성 및 고가용성 외에도 MongoDB Atlas에서의 멀티클라우드 클러스터 는 워크로드를 클라우드로 옮길 때 필요한 탄탄하고 실행 가능한 출구 전략을 금융 서비스 기업들에게 제공한다. 다른 데이터베이스 서비스들은 단일 클라우드 제공자에게 고객을 락인시켜 상업적 관계를 빠르게 정리할 재량을 거의 주지 않는 반면, MongoDB Atlas는 데이터베이스 워크로드를 하나의 클라우드 제공자에서 다른 제공자로 다운타임 없이 이전할 수 있다. 이러한 출구 전략은 애플리케이션을 변경할 필요가 전혀 없기 때문에 비즈니스 연속성, 그리고 클라우드 벤더로부터의 탈출이 쉽거나 어려울 수 있는 클라우드 출구 시나리오를 계획하는 금융 서비스 기업들을 안심시킬 수 있다. 보안 균일성 클라우드 서비스 제공자들은 보안 기능에 상당한 투자를 하고 있으며, 일반적으로 사이버보안 분야의 리더로 인식된다. 이들은 모든 고객 연결점에 배포된 보안 기능을 통해 위협을 선제적으로 관리한다. 금융 서비스의 경우 주요 클라우드 제공자들은 엄격한 거버넌스 요구사항을 만족할 수 있는 향상된 보안을 제공한다. 리스크 관점에서 볼 때 단일 클라우드 하이브리드 배포를 모니터링하고 보호하는 것은 다수의 클라우드에서 위협을 관리하는 것보다 더 쉽다. 위협면의 관점에서 보면 단일 클라우드는 해커들이 노릴 수 있는 경로가 많지 않기 때문에 리스크가 줄어든다. 그러나 문제는 의도와 상관없이 어떠한 사고가 발생했을 때 단일 클라우드 환경에서 이벤트에 대응하는 것이다. 인프라 붕괴 또는 사이버공격 발생 시 멀티클라우드 환경은 조직에게 서비스 제공자를 변경하고 자사 데이터를 백업 및 보호할 수 있는 능력을 제공한다. 기능적 한계 클라우드 서비스 제공자는 새로운 기능들을 비동기적으로 개발한다. 일부는 특정 기능 영역에서 뛰어나며 지속적으로 혁신하는 반면, 다른 제공자들은 예컨대 Google Cloud의 AI 플랫폼이나 Azure의 Cognitive Services, 서버리스 이벤트 기반 컴퓨팅을 지원하는 AWS의 Lambda 플랫폼과 같이 서로 다른 핵심 기능 집합에 집중하기도 한다. 하나의 클라우드 서비스 제공자로 배포를 제한함으로써 기관은 전체 클라우드 중에서 동종 최고의 기능들을 쓸 수 없게 된다. 여러 클라우드 중에서 가장 좋은 기능을 이용하는 대신 해당 플랫폼 내에서 이용 가능한 기능만 사용할 수 밖에 없다. 시간이 경과하면서 이는 혁신을 제한하고 조직은 자사의 경쟁 우위를 잃을 수 있다. 5부: 금융 서비스를 위한 멀티클라우드의 상업적, 기술적 이점 금융 서비스 산업이 클라우드 퍼스트 마인드셋을 가속화함에 따라 더 많은 금융기관이 멀티클라우드 전략을 통해 빠르게 변화하는 상업적, 기술적 및 컴플라이언스 요구에 보다 효과적으로 대응할 수 있음을 깨닫고 있다. 뿐만 아니라 완전하게 갖춰진 멀티클라우드 전략은 가장 기술적으로 발전하고 자원이 풍부한 서비스 제공자들과 협업하고 이를 통한 최고의 혁신으로부터 이점을 얻을 기회를 제공한다. 다수의 은행 경영진 사이에서는 단일 클라우드 제공자가 단순히 제한 요인일 뿐만 아니라 저해 요인이 될 수도 있다는 인식이 늘고 있다. 한 대형 투자은행의 CEO는 MongoDB에게 “멀티클라우드는 각 지역의 가치를 최대한 발휘할 기회를 제공하는 것이지 추상화로 사물을 희석하고 최소공통분모를 수용하는 것이 아니다”라고 말했다. 첨단 혁신에 대한 접근을 용이하게 하는 것 외에도 멀티클라우드 접근법은 금융 서비스 기업에게 여러 추가적인 이점을 제공한다. 성능 최적화 견고한 서비스 가용성 및 응답성은 금융 서비스 성능 계획의 초석이다. 모든 아키텍처 설계의 목표는 다운타임을 제한하고 애플리케이션 지연을 최소화하고 동시에 각 애플리케이션의 특정 니즈에 맞춰 처리 리소스를 조정하는 것이다. 단일 클라우드 제공자만 해도 다수의 데이터 센터가 포함된 대부분의 온-프레미스 솔루션보다 더 높은 업타임을 기록하고 있으며, 멀티클라우드 아키텍처는 추가적인 복원성과 유연성을 제공하여 99.9999%의 가용성으로 이전에는 메인프레임 기술(이른바 시스플렉스 클러스터)만이 달성하던 내부 및 외부의 성능 SLA를 만족하도록 지원한다. 멀티클라우드 환경에서 기관들은 클라우드 제공자들 사이에서 워크로드를 동적으로 이동시켜 작업 속도를 향상시키고 서비스 중단에 대응하고 로컬로 트래픽을 지원하여 지연시간을 줄이고 단일 클라우드 제공자가 가진 취약점에 관한 규제 문제를 해결할 수 있다. 이 모든 요소들을 최적화하면 최고의 고객 경험을 창출하고 인프라에 대한 가장 효율적이고 경제적인 접근법을 얻을 수 있다. 작업과 지역에 따라 동적으로 확장하고 축소하라 확장성과 지역성은 매우 중요하다. 제품 경험에 대한 고객 요구가 갈수록 증가하면서 금융 서비스 제공자들은 새로운 요구사항을 만족해야 하는 부담이 늘고 있으며, 이러한 문제는 때로는 지역 확장을 통해 사용자와 가까워지는 방법으로 효과적으로 해결할 수 있다. 이는 누가 가장 큰 저장 용량 또는 가장 빠른 CPU를 보유하고 있는지의 문제일 뿐만 아니라 사용자와 보다 가까운 곳에서 컴퓨팅 리소스를 실행함으로써 애플리케이션 응답성을 극대화하는 문제이기도 하다. 이러한 문제는 5G 에지 서비스의 등장 과 그에 따른 실시간 에지 컴퓨팅의 성장으로 더욱 중요해지고 있다. 멀티클라우드는 예컨대 캘리포니아, 뉴욕, 싱가포르 등 여러 지역에서 효율을 극대화하기 위해 작업 실행에 대한 동적 밸런싱을 로컬로 실행할 기회를 제공한다. 또한 멀티클라우드를 채택한 기관은 수요와 비용에 따라 여러 제공자들 사이에서 스토리지 요구사항을 확장하고 축소할 수 있다. 빠르게 변화하는 비즈니스 환경에서 금융기관들은 애플리케이션을 필요한 규모로 빠르게 클라우드에 배포할 수 있다. 또한 자사의 비즈니스 전략은 그대로 유지하면서 여러 클라우드 사이에서 비용과 성능을 옮기며 유리하게 조정할 수 있다. 비즈니스 변화에 적응 금융 서비스 기업들은 새로운 규제, 경쟁 및 금융 환경에 빠르게 적응할 수 있도록 유연한 멀티클라우드 기능을 구축함으로써 민첩함을 유지할 수 있다. 이는 Macquarie 나 NETS 와 같은 대형 은행뿐만 아니라 Illimity 나 Current 와 같은 도전자들에게도 마찬가지다. 효과적인 멀티클라우드 전략은 여러 솔루션들의 조각 모음을 클라우드 제공자 간 공통 프레임워크로 대체함으로써 규제, 컴플라이언스 및 내부 정책의 변화를 관리하기 위한 해결책이 될 수 있다. 서로 다른 클라우드 제공자 사이를 원활하게 이동할 수 있기 때문에 기관들은 새로운 데이터 주권 법률의 제정이나 합병과 같은 상황이 발생하더라도 워크로드를 보다 유리한 제공자에게 옮김으로써 빠르게 대처할 수 있다. 벤더 락인을 피하라 전체 지출에서 IT 비용의 비중이 지속적으로 증가하고 있다. 멀티클라우드 전략을 실행하는 금융기관들은 벤더 락인을 피함으로써 제3자 제공자에게 나가는 기술 비용을 보다 잘 관리할 수 있다. 모든 서비스가 똑같이 설계되는 것이 아닌 만큼 제공자들 사이에서 서비스를 변경함으로써 수백만 달러의 클라우드 비용을 절감할 수 있을 것이다. 어떤 분야에서든 단일 공급자에 대한 과도한 의존은 금전적, 운영적 리스크를 야기한다. 단일 클라우드 솔루션과 더 “끈끈하게” 얽힐 수록 해당 솔루션이 고객의 니즈를 더 이상 만족할 수 없을 때 그 얽힘을 푸는 일은 더 어렵기 마련이다. 서비스를 단일 제공자에 집중시킴으로써 기업은 해당 제공자와의 계약 협상에서도 재무 레버리지를 잃는 리스크가 생긴다. 멀티클라우드 접근법을 취함으로써 기관은 상업적 또는 기술적 의존성에 따른 락인의 위험 없이 경쟁하는 여러 제공자들 사이에서 선택이 가능한 위치에 설 수 있다. 멀티클라우드 접근법을 채택한 금융기관들은 제공자들에게 자사의 특정 니즈에 맞는 개발을 진행하도록 압력을 행사할 수도 있다. 혁신 기능을 이용하라 인공지능이나 머신러닝과 같은 클라우드 기능은 클라우드 서비스 제공자와의 협업에서 얻는 주요 이점이다. 멀티클라우드 접근법을 통해 개발자들은 여러 클라우드 제공자들이 제공하는 기능들을 선택하고 자사의 니즈에 가장 부합하는 기술적 빌딩 블록을 배포할 수 있다. 개발자들은 수동으로 데이터를 복제할 필요 없이 동일한 데이터셋에서 다양한 툴을 이용하여 워크로드를 실행할 수 있다. 즉, 기관들은 성가신 데이터 마이그레이션 과정 없이 AWS Lambda, Google Tensorflow Cloud AI, Azure Cognitive Services와 같은 유명한 서비스를 이용할 수 있다. 갈수록 높은 수준의 제품 경험을 요구하는 소비자가 늘면서 금융 서비스 기관들은 동급 최고의 애플리케이션을 사용자 서비스에 배포하여 경쟁 우위를 얻을 수 있다. 멀티클라우드 전략 구축 방법 또는 금융 서비스 분야에서의 MongoDB의 이점에 대해 더 많이 알고 싶으십니까? 다음 링크를 확인해 보시기 바랍니다. MongoDB Atlas에서 멀티클라우드 클러스터 시작하기 MongoDB Atlas로 멀티클라우드 클러스터를 생성하는 방법 MongoDB의 금융 서비스 허브

February 25, 2022

What is MACH Architecture for ecommerce?

In the past, retailers faced the looming battle of brick and mortar vs. digital buying experiences. While most in the retail industry accepted the inevitability of needing some kind of digital experience, COVID-19 forced retailers to refocus efforts to digital-first, or at the very least, hybrid digital and in-person buying options. What customers expect (and why legacy systems don't hold up) Which leads us to one of the underlying problems for modern retailers: legacy architecture. The digital solutions many depend on aren’t able to meet consumers’ digital-first (or at the very least digital-friendly) ecommerce expectations. Today’s customers expect: Mobile-friendly architecture - People shop from their phones. If your ecommerce experience was designed with web-first in mind, only retrofitting a mobile component to meet buyer demand, you may need to rethink your mobile offering. Omnichannel experience - Beyond having a mobile-friendly buying experience, consumers want to carry their purchasing power from channel to channel and even into the physical store. Think buying online and picking up in store (BOPIS), or starting an order from your phone and completing it in store, or vice versa. Dynamic product catalogues - Consumers want ample choice and a smooth search experience. Can your systems hold up with thousands of products all displayed, searchable, managed, updated, and dynamically enriched with discounts, product offerings, and more? They also expect real-time stock availability, both in store and online. They want to know you really have an item in stock at their local store before venturing out to buy it. Personalization - Personalization is so ingrained in the online retail experience now that consumers have come to expect it. They want real-time recommendations for the items they’re interested in, with predictions based on past online purchases and searches, items in their cart, and in-person buying experiences. Why is it difficult to live up to these expectations? For many in ecommerce, they’re still running monolithic applications built as a single, autonomous unit. This means even the smallest changes, like altering a single line of code or adding a new feature, could require refactoring the entire software stack, leading to downtime and lost business. In addition, the long-term opportunity cost of having your development team waste time simply maintaining and patching such a brittle ecommerce system is a constant drain, or Innovation Tax , on your business. So retailers face a unique challenge. The thought of overhauling their current systems lead to fears like downtime, expensive investments in new solutions, and ultimately, massive loss of profit. But providing an e-commerce experience that lives up to consumer expectations isn’t optional anymore; it’s how your business thrives. That’s where the MACH Approach comes in. MACH Approach: ecommerce modernization with flexibility in mind So, what’s the MACH approach and, to put it bluntly, why should the retail industry care? The MACH approach, championed by the MACH Alliance , an industry body of which MongoDB is a member, is focused on facilitating the transition from monolithic, legacy ecommerce architectures to modern, streamlined e-commerce applications. Microservices - Microservices break down specific business functionalities into smaller, self-contained services. Instead of taking your whole application offline to add new shopping cart features, you update specific elements of your architecture without disrupting the entire application. This affords developers a level of flexibility that monolithic systems can’t compete with. Greater developer flexibility means minimal downtime, faster updates, an improved experience for consumers, and ultimately faster time to value for your business. API-first - APIs, the pieces of code allowing communication between separate applications or microservices, should be at the forefront of solution development, instead of an afterthought. An API-first approach to development is just that — APIs are built first and all other actions are developed to preserve the original API for greater consistency and reusability. This approach ensures planning revolves around the end product being consumed by different devices (like mobile) and APIs will be consumed by client applications. Cloud-native - At this point, to say “the cloud is the future of app development” is cliche; we’re already there. Building and running applications exclusively in the cloud, whether public or private, allows you to reap all the benefits of cloud development from the start. There are also some cost-cutting benefits to cloud-native environments. You avoid the investment that often comes with on-prem equipment. Most cloud SaaS options have pay-as-you-go cost structures, ensuring you only pay for what you use and leading to most predictable monthly expenses. Using managed cloud solutions, like MongoDB Atlas , also frees up your development team to focus their efforts on where they’re needed most — actually developing your application — instead of sinking valuable time into burdensome administrative tasks. Headless - If your application is down, even for a minute, you run the risk of the consumer simply moving on to another retail option. Downtime equates to lost profits, so to avoid the dreaded disruption to your revenue stream, take a headless approach to application development. With headless, changes to the front end (web store layout, UX, frameworks, design, etc.) can be made without interruption to back end (products, business logic, payments , etc.) operations and vice versa. What's the upside for ecommerce? The four elements of the MACH approach come together to help ecommerce businesses reframe operations, avoid downtime, preserve revenue, provide the best user experience possible, and ultimately ensure your solutions are able to develop and evolve. To maintain a competitive advantage in a growingly competitive commerce market, your application needs to keep up. The MACH approach to ecommerce could be the ideal way to set your application and your business apart. Want to learn more about the MACH Approach and the role cloud-native database solutions like MongoDB Atlas play in the evolving world of digital retail? Get your free copy of Ecommerce at MACH Speed with MongoDB and Commercetools today.

November 30, 2021

The Four Data Platform Must Haves for Personalized Retail

Even before the events of 2020, consumers were increasingly embracing a hybrid shopping experience that mixed the digital and the physical. Rather than making a binary choice between “bricks” or “clicks”, the customer journey can start online, before moving to a physical store for an in person demo, and then back online for the final purchase. As if that wasn’t hard enough for retailers to handle, consumers are also expecting the same personalized treatment they’re used to online to follow them in store too. Personalized store greetings, location-based offers on nearby products, and the hyper-customization of products, services, and special offers are quickly becoming table stakes experiences. With in-store beacons, electronic shelf labels, smart mirrors, AI, and a host of other connected technologies, the next frontier of personalization is the seamless connection, and blurring, of the digital and physical retail experience. The future of retail, therefore, belongs to those able to differentiate themselves with a better omnichannel, personalized experience than the competition. Talk data to me For personalized retail to work, in real time and on every channel, retailers need to master the collection, analysis, and deployment of data. Specifically, retailers need a data platform built for the following: Data privacy: The more data you collect, and the more personalized you get, the greater your responsibility to be a good steward of that data. Every aspect of data privacy, from the latest in authentication and authorization to auditing, encryption, and compliance, should be at the heart of your data strategy and a core capability of your data platform. In addition, customers expect more than just complete data privacy; they also demand that retailers allow them to take control of their data when requested. Agility: Retailing today means ingesting many different types of data from many different sources. Whereas yesterday’s retailers built their infrastructure using relational databases, with a rigid schema defined by tables, tomorrow’s retail leaders will choose a data platform based on a flexible data model, such as the document model. This flexibility can be particularly helpful for modeling data where structures can change between each record, such as polymorphic data. It also makes it easier to evolve an application during its life cycle, such as by adding new fields or enriching application-generated data with third-party data sources to provide an even fuller picture of the customer. Real-time data: While many retailers use operational analytics and intelligence in decision making, the data they’re working from is often days old, at best. The need now is for real-time data to influence real-time, real-world customer behavior. To get there, retailers must have a data platform that is capable of concurrently supporting both operational and analytical workloads without sacrificing performance. Developer and DevOps enablement: The speed at which retailers can bring new applications and services to market has never been more important. A modern data platform enabled through a database-as-a-service capability, like MongoDB Atlas, gives developers the freedom and flexibility to work seamlessly with data wherever their applications and users need it. Understand More with the MongoDB Guide to Personalized Retail The digital differentiation With the database foundations in place, retailers can begin to differentiate themselves digitally by using technology in unexpected ways. Think loyalty programs activated by in-store facial recognition sensors, beacon technology connecting with apps to guide customers through stores, chat bots to help with customer questions, and augmented reality apps to help shoppers try out products at home. Strategically and successfully implementing and combining these digital capabilities will drive more customers to your products, be it online or in-store. Take a look how OTTO reinvented their ecommerce personalization for more than 2 million users per day . They were able to slash catalog update times from 12 hours to 15 minutes. Retailers can also build omnichannel experiences that blur the boundaries between the online and in-store spheres. This could take the form of scanning QR codes on in-store items for deals or information, ordering out-of-stock items to be sent to a specific store for pickup, returning online purchases to physical outlets, or redeeming loyalty points on an app for in-person purchases. Building a comprehensive picture of consumers is vital for understanding how you can create this experience. Are your consumers using smart speakers to order products? Are they active on your mobile app instead of going in-store? Can you gather data on in-store behavior — and provide online recommendations for shoppers to continue their journeys via other channels? By having this view, you can create the seamless, personalized experience your consumers desire — through any channel. Find out how AO.com turned to MongoDB to build a single view to leverage real-time data to build modern applications for everything from personalization to delivery tracking. Lastly, retailers must build a resilient supply chain to ensure a consistent flow of inventory from factory to warehouse to stores and customer homes in both directions — for purchases and returns (reverse logistics). Organizations can utilize RFID tags, GPS tracking, IoT devices, and sensors to locate, mobilize, and manage inventory across large areas and different branches and warehouses, oversee returns and exchanges, and even forecast demand based on historical trends. By unifying data from disparate sources, retailers can streamline and strengthen the supply chain, improving inventory management and enhancing customer relationships. Now, shoppers are much less likely to be blindsided by product shortages or shipping delays. Further, when these events do occur, retailers can communicate with buyers in a timely and open manner. Boxed, a leading wholesale club in the United States, who needs to deliver its products according to a strict schedule built its entire digital environment from scratch and on MongoDB Atlas, including supply chain management infrastructure, enterprise resource planning systems, warehouse management, robotics, and more. Learn how they managed to cope with a traffic spike of 30 to 35 times normal levels . Understand More with the MongoDB Guide to Personalized Retail

June 24, 2021

Data in 2021: Four Predictions For an Uncertain Future

What a year it’s been. A global pandemic, a recession, and a U.S. presidential election unlike any in living memory made 2020 a tragic and tumultuous 12 months many want to forget, but can’t. Despite the uncertainty, looking back we can be sure of at least one thing: we’ve seen several years of digital disruption in a matter of months. The race to digitize as fast as possible, our “next normal”, has cut across all industries, accelerating several ancillary trends like cloud adoption, AI, and IoT. Ironically, one of the lasting effects of 2020’s profound unpredictability is just how certain we now are of the growing centrality of digitization, and therefore data, as the primary driver of business success, consumer demand, and even societal change in 2021 and beyond. As such, we asked several of MongoDB’s brightest minds to look ahead to the coming year and share their insights into how these trends in data management may play out. Petabyte-Scale Goes Mainstream The idea of “big data” isn’t new, and many firms have been working with petabyte, and even exabyte, sized data sets for some time. 2021, however, may just be the year that data finally goes “big” for everyone else. For many organizations, particularly those mid-sized and smaller, data management has until now been confined to the realm of terabytes. However, trends like the explosion of connected devices, the roll out of 5G, and the continuation of 2020’s headlong rush to digitize every aspect of business mean petabyte-scale data management is likely to become a reality for many more. And to paraphrase a famous saying: “Mo data, mo problems.” Keeping petabytes of data accessible and safe, while at the same time using it to meaningfully enrich a business, is an order of magnitude more difficult and complex than what many mid-sized enterprises are used to. Petabyte-scale data management demands stricter tolerances for uptime, scalability, and performance. In addition, the data is likely to be more distributed — on prem, in the cloud, and even across different clouds. Real-time analytics becomes a business necessity, as does taking advantage of features like automated tiering. The security and data privacy implications of holding that much data, and making it accessible to more people and connected “things,” mean petabyte-scale data management is also a business opportunity tinged with considerable financial and reputational risk. Data Privacy Continues to Be a Hot Button The coming year will further define the relationship between consumers and their data. In November, California voters approved the California Privacy Rights Act (CPRA). Along with enhancements to the already enacted CCPA (the California Consumer Privacy Act), the CPRA establishes an independent watchdog, the California Privacy Protection Agency, to enforce the CCPA now, and the CPRA when it comes into effect on January 1, 2023. There’s growing expectation that 2021 will also be the year the U.S. Federal government begins drafting a nationwide privacy law. With more states likely to follow California and enact their own CCPA-inspired privacy laws, and a new administration headed to Pennsylvania Avenue on January 20th, a national answer to the patchwork of state-based data privacy laws might finally see the light of day. An online ad for one of Apple's latest releases, a credit card Elsewhere, China and Canada are just two of several major world economies set to introduce new data privacy statutes, or overhaul existing laws over the coming 12 months. For businesses, 2021 is also set to be a landmark year for the emergence of data privacy as a competitive advantage. The latest indicator of this trend came in the closing weeks of 2020. In December, simmering tension between two of the largest and most influential companies on the planet spilled into open conflict when Facebook took out full-page advertisements in the New York Times, Wall Street Journal, and Washington Post declaring, “We’re Standing Up To Apple For Small Businesses Everywhere.” A full page ad Facebook took out in several national publications The ads were a response to changes in Apple’s iOS 14, which will prompt users to grant apps permission to gather data and track them as they move across other apps on their iPhone or iPad. That move will “break” parts of Facebook’s ad targeting system, among other things. Apple CEO Tim Cook has staked the company’s brand on becoming known as the big tech company that respects user privacy, in direct contrast to Facebook and other companies that rely heavily on customer data for their advertising-based business models. “You are not our product,” Cook said in an interview with ABC’s Diane Sawyer in 2019 . “Our products are iPhones and iPads. We treasure your data. We want to help you keep it private and keep it safe.” Make no mistake, Facebook vs. Apple is just one battle in a much larger conflict over data privacy and brand equity. No longer just a compliance challenge, the sanctity of customer data is now a business and brand burnishing advantage too. Real-time Analytics Becomes a Differentiator It’s one thing to ingest a lot of data, and quite another to put that data to use. As 2020’s digitization stampede continues, the next frontier for enterprises is to mine the information they collect for insights that drive personalized customer experiences—at scale and in real time. And to achieve this level of near-instantaneous insight and response, 2021 will be the year businesses focus their attention on moving to converged data platforms. Unlike the siloed databases of yesteryear, converged data platforms (otherwise known as translytical data platforms, like MongoDB !), combine transactional (System of Record), operational (System of Engagement), and analytical (System of Insight) workloads onto a single, unified data platform. A converged data platform allows businesses to exploit their mountains of data at the speed and efficiency consumers now demand, and all with lower complexity and risk. As business leaders seek an edge over their competition, those that prioritize real-time analytics, and move to a converged data platform, will pull further away from their peers. Not Every Cloud Has a Silver Lining From retail to recreation, hospitality to healthcare, moving data and operations to the cloud was already a right of passage on the way to digital transformation. The COVID-19 pandemic simply accelerated this move. But with speed, comes even greater risk , and embracing the cloud on an accelerated timeline is fraught with danger. Do it without proper planning—as in a simple “lift and shift” of your existing setup—and you may find the on-premise issues that currently hamper developer velocity and business agility simply follow you to the cloud. The COVID-19 pandemic has heightened the need for companies to adopt digital business models—and only cloud platforms can provide the agility, scalability, and innovation required for this transition. McKinsey, The Next-Normal Recovery Will be Digital Additionally, all the advantages the cloud affords, such as the ease of scaling your infrastructure, can quickly lead to more architectural silos and technical complexity if handled incorrectly. Our warning is that, with so many companies rushing their move to the cloud in 2021, many will fail to seize on its transformational benefits, and spend 2022 (and beyond) undoing bad architectural decisions.

December 31, 2020