BLOGAnnounced at MongoDB.local NYC 2024: A recap of all announcements and updates — Learn more >

Was ist generative KI?

Im Laufe des Jahres 2023 hat unsere Welt mit dem Aufkommen der generativen KI (oft einfach als GenAI bezeichnet) einen transformativen Wandel erlebt. In dem Maße, wie revolutionäre Anwendungen für KI-generierte Inhalte entstanden sind, hat sich auch die Meinung durchgesetzt, dass generative KI radikale Auswirkungen auf alle Branchen und Bereiche der Gesellschaft haben wird.

Unternehmen liefern sich ein Wettrennen darum, das Potenzial der generativen KI zu nutzen. Wenn das auch auf Ihr Unternehmen zutrifft, sollten Sie sich zunächst mit den Komplexitäten der generativen KI vertraut machen. In diesem Beitrag gehen wir auf die folgenden Schlüsselfragen (und mehr) ein, um Ihnen die Orientierung zu erleichtern:

Nachdem wir diese Fragen geklärt haben, werden wir uns ansehen, wie MongoDB Unternehmen helfen kann, die Anwendungen mit generativer KI entwickeln möchten.

Beginnen wir mit den Grundlagen.

Was ist generative KI und wie funktioniert sie?

Generative KI bezieht sich auf den Zweig der künstlichen Intelligenz, der sich auf die Erstellung neuer, einzigartiger Inhalte konzentriert – wie Text, visuelle Kunst, Musik, Softwarecode und mehr. Im Gegensatz zur prädiktiven (oder analytischen) KI, bei der maschinelles Lernen eingesetzt wird, um historische Daten zu analysieren, Muster oder Trends zu erkennen und dann Vorhersagen zu treffen, geht die generative KI einen Schritt weiter als die bloße Analyse und Vorhersage; generative KI ist schöpferisch tätig.

Nehmen wir zum Beispiel ein prädiktives KI-Tool, das auf Daten von Millionen von Gemälden und ihren Künstlern trainiert wurde. Bei einem Gemälde, das es noch nie zuvor gesehen hat, kann das prädiktive KI-Tool in der Lage sein, den Künstler zu bestimmen. Ein generatives KI-System kann jedoch ein neues Gemälde im Stil des jeweiligen Künstlers generieren.

Ein von der KI generiertes Bild, das Ergebnis der Eingabe der Aufforderung „ein Gemälde eines Computers im Stil von Mondrian“ an DALL-E

Ein von der KI generiertes Bild, das Ergebnis der Eingabe der Aufforderung „ein Gemälde eines Computers im Stil von Mondrian“ an DALL-E

Generative KI ist oft so konzipiert, dass sie die menschliche Intelligenz und Kreativität nachahmt. Das bedeutet, dass die generierten Inhalte kontextbezogen und kohärent sind. Die völlig neuen Inhalte stimmen mit menschlichen Denk- und Ausdrucksmustern überein. Es kann sich dabei um visuelle Elemente und KI-Kunst handeln, die von menschengemachten Inhalten fast nicht zu unterscheiden sind. Die Ergebnisse eines generativen KI-Tools können Text- oder Spracherzeugung sein. In jedem Fall sind die Ergebnisse vertraut, aber dennoch originell, innovativ und authentisch.

Durch die Erstellung kontextbezogener Inhalte durch Schlussfolgerungen können generative KI-Funktionen auf Geschäftsaufgaben wie strategische Planung und Prognosen, Problemlösungen und Was-wäre-wenn-Analysen angewendet werden.

Arten von generativen KI-Modellen

Bei KI-Modellen handelt es sich um eine Reihe von KI-Algorithmen, die mithilfe von maschinellem Lernen Muster in Daten erkennen und so Vorhersagen treffen oder neue Daten generieren können, die die Struktur und den Stil der Originaldaten nachahmen. Im Bereich der KI gibt es viele verschiedene Arten von Modellen, wobei das bekannteste Modell in der generativen KI heute das Foundational Model ist.

Foundation Models werden anhand großer Datenmengen vorab trainiert. Das Modell dient als „Foundation“, die für spezielle Aufgaben angepasst werden kann. Das macht ein Foundation Model unglaublich vielseitig und ermöglicht es, sich vielen verschiedenen Aufgaben zu widmen. Ein Beispiel für ein Foundation Model ist das Large Language Model (LLM). GPT von OpenAI (Generative Pre-trained Transformer) ist ein Large Language Model, das für die Arbeit mit menschlicher Sprache entwickelt wurde. Large Language Models konzentrieren sich auf die Verarbeitung natürlicher Sprache und können Konversationsaufgaben wie die Beantwortung von Fragen, Chatbots, Transkription, Übersetzung und mehr übernehmen.

Andere Arten von Foundation Models befassen sich mit nicht-textlichen Inhalten. Dazu gehören visuelle Grundlagenmodelle, die Bilder erzeugen, wie z. B Flamingo DALL-E von OpenAI oder Audio Foundation Models wie UniAudio oder LLark.

Was ist Retrieval Augmented Generation (RAG)?

Ein LLM ist auf die Informationen beschränkt, die bis zu seiner letzten Aktualisierung verfügbar waren. Es weiß also nichts über Ereignisse oder Entwicklungen, die seitdem eingetreten sind. Wie können wir also Large Language Models so nutzen, dass neue Daten berücksichtigt werden?

Eine Möglichkeit besteht darin, generative Modelle mit neuen Daten neu zu trainieren oder fein abzustimmen. Dies kann jedoch zeit- und ressourcenintensiv sein. Eine bessere Option ist RAG (Retrieval Augmented Generation). RAG ermöglicht es einem LLM, während der Inhaltserstellung dynamisch externe Echtzeit-Informationen einzuholen. Mit RAG fragt ein generatives KI-System eine Informationsdatenbank in Echtzeit ab und produziert so genauere, fundiertere und kontextrelevante Ergebnisse – selbst wenn das benötigte Wissen nicht Teil der ursprünglich für das Training verwendeten Daten war.

Damit RAG jedoch relevante, semantisch ähnliche Informationen aus einem großen Datenkorpus effizient abrufen kann, ist es auf Vektoreinbettungen angewiesen – numerische Repräsentationen von Daten in einem hochdimensionalen Raum. Der optimale Weg zum Speichern und Abfragen dieser Einbettungen ist die Verwendung einer Vektordatenbank.

Foto von Alina Grubnyak auf Unsplash

Foto von Alina Grubnyak auf Unsplash

RAG erweitert die Fähigkeit eines LLMs, aktuell und vielseitig zu bleiben und qualitativ hochwertige Inhalte zu erstellen. Ein Zitat aus diesem Beitrag fasst RAG gut zusammen:

RAG füllt die Wissenslücken, auf die das LLM nicht trainiert wurde, und verwandelt die Frage-Antwort-Aufgabe im Wesentlichen in ein „Open-Book-Quiz“, das einfacher und weniger komplex ist als eine offene und ungebundene Frage-Antwort-Aufgabe.

Die Bedeutung der generativen KI im KI-Bereich

Die Rolle der generativen KI bei der Erstellung neuartiger Inhalte birgt ein transformatives Potenzial für alles, was mit KI zu tun hat. Generative KI-Modelle können in allen Branchen Anwendung finden, von der Unterhaltung bis zum Gesundheitswesen. Innovationen in der KI-Forschung und KI-Technologie erweitern ständig die Möglichkeiten und Anwendungen generativer KI-Modelle. Schon bald werden generative KI-Funktionen ein wesentlicher Bestandteil des modernen KI-Toolkits sein.

Die Verwendung generativer KI für die Bilderzeugung wird durch GPT in Verbindung mit Diffusionsmodellen wie der stabilen Streuung ermöglicht. Infolgedessen hat sich die KI-Kunst zu einem riesigen Markt entwickelt. Künstler nutzen generative KI, um realistische Bilder zu schaffen, die von natürlichen Bildern kaum zu unterscheiden sind.

In der Zwischenzeit verwenden Marketingexperten generative KI, um 180-Zeichen-Tweets über Verkaufsveranstaltungen zu erstellen, und Designer verwenden generative KI, um neue Produktdesigns zu entwerfen. Sogar Pharmaunternehmen setzen generative KI ein, um bei der Entdeckung von Medikamenten zu helfen.

Ein Bild von Büchern in einem Bücherregal.

Foto von CHUTTERSNAP auf Unsplash

Die Rolle der Daten bei der generativen KI

Die Effektivität und Vielseitigkeit eines jeden KI-Systems, einschließlich generativer KI-Systeme, hängt von der Qualität, der Menge und der Vielfalt der Daten ab, die zum Trainieren der Modelle verwendet werden. Lassen Sie uns einige Schlüsselaspekte der Beziehung zwischen Daten und dem generativen KI-Modell betrachten.

Trainingsdaten

Generative KI-Modelle werden anhand großer Datenmengen trainiert. Ein Modell, das für Texte entwickelt wurde, kann auf Milliarden von Artikeln trainiert werden, während ein anderes Modell, das für Bilder entwickelt wurde, auf Millionen von Bildern trainiert werden kann. Large Language Models benötigen große Mengen an Trainingsdaten für maschinelles Lernen, wenn sie kohärente und kontextbezogene Inhalte erzeugen sollen. Je vielfältiger und umfassender die Daten sind, desto besser ist das Modell in der Lage, eine breite Palette von Inhalten zu verstehen und zu generieren.

Generell gilt, dass mehr Daten zu besseren Modellergebnissen führen. Mit einem größeren Datensatz können generative KI-Modelle feinere Muster erkennen, was zu genaueren und differenzierteren Ergebnissen führt. Aber auch die Qualität der Daten ist extrem wichtig. Oftmals ist ein kleinerer, hochwertiger Datensatz leistungsfähiger als ein größerer, weniger relevanter Datensatz.

Rohe und komplexe Daten

Rohdaten, insbesondere wenn sie komplex und unstrukturiert sind, müssen möglicherweise in den frühen Phasen der Datenpipeline vorverarbeitet werden, bevor sie für das Training verwendet werden können. Dies ist auch der Zeitpunkt, an dem die Daten validiert werden, um sicherzustellen, dass sie angemessen repräsentativ und frei von Verzerrungen sind. Dieser Validierungsschritt ist entscheidend, um verzerrte oder verfälschte Ergebnisse zu vermeiden.

„Gekennzeichnete Daten“ versus „nicht gekennzeichnete Daten“

Gekennzeichnete Daten enthalten spezifische Informationen zu jedem Datenpunkt (z. B. eine textliche Beschreibung zu einem Bild), während nicht gekennzeichnete Daten keine derartigen Anmerkungen enthalten. Generative Modelle arbeiten oft gut mit nicht gekennzeichneten Daten, da sie immer noch in der Lage sind, zu lernen, wie man Inhalte generiert, indem sie inhärente Strukturen und Muster verstehen.

Proprietäre Daten

Einige Daten sind einzigartig für ein bestimmtes Unternehmen. Beispiele hierfür sind die Bestellhistorie von Kunden, Leistungskennzahlen von Mitarbeitern und Geschäftsprozesse. Viele Unternehmen sammeln diese Daten, anonymisieren sie, um zu verhindern, dass sensible personenbezogene Daten (PII oder PHI) nach unten durchsickern, und führen dann eine herkömmliche Datenanalyse durch. Diese Daten enthalten eine Fülle von Informationen, die noch tiefer gehend ausgewertet werden könnten, wenn sie zum Trainieren eines generativen Modells verwendet würden. Die daraus resultierenden Ergebnisse würden auf die spezifischen Bedürfnisse und Merkmale des jeweiligen Unternehmens zugeschnitten sein.

Die Rolle von Daten in RAG

Wie bereits erwähnt, kombiniert RAG die Leistungsfähigkeit eines LLM mit dem Abruf von Daten in Echtzeit. Mit RAG verlassen Sie sich nicht mehr ausschließlich auf vorab trainierte Daten. Stattdessen können Sie einen Just-in-Time-Pull von relevanten Informationen aus externen Datenbanken durchführen. Dadurch wird sichergestellt, dass die generierten Inhalte aktuell und korrekt sind.

Ergänzung von generativen KI-Modellen mit eigenen Daten

Bei der Arbeit mit generativen Modellen ist das Prompt-Engineering eine Technik, bei der spezifische Eingabeabfragen oder Anweisungen erstellt werden, um das Modell zu steuern und die Ergebnisse oder Antworten besser anzupassen. Mit RAG können wir Prompts mit unternehmenseigenen Daten ergänzen und das KI-Modell so ausstatten, dass es unter Berücksichtigung dieser Unternehmensdaten relevante und genaue Antworten generiert. Dieser Ansatz ist auch dem zeitraubenden und ressourcenintensiven Ansatz vorzuziehen, ein LLM mit diesen Daten neu zu trainieren oder fein abzustimmen.

Herausforderungen und Überlegungen

Natürlich kommt die Arbeit mit generativer KI nicht ohne Herausforderungen. Wenn Ihr Unternehmen das Potenzial von generativer KI nutzen möchte, sollten Sie die folgenden Kernpunkte berücksichtigen.

Bedarf an Datenkompetenz und massiver Rechenleistung

Generative Modelle erfordern erhebliche Ressourcen. Zunächst benötigen Sie das Fachwissen ausgebildeter Datenwissenschaftler und Ingenieure. Mit Ausnahme von Datenorganisationen verfügen die meisten Unternehmen nicht über Teams mit den speziellen Fähigkeiten, die für die Schulung oder Feinabstimmung von LLMs erforderlich wären.

Wenn es um Rechenressourcen geht, kann das Training eines Modells auf umfassenden Daten Wochen oder Monate dauern – selbst wenn Sie leistungsstarke GPUs oder TPUs verwenden. Und obwohl die Feinabstimmung eines LLM nicht so viel Rechenleistung erfordert wie das Trainieren eines LLM von Grund auf, werden dennoch erhebliche Ressourcen benötigt.

Das ressourcenintensive Training und die Feinabstimmung eines LLM macht RAG zu einer attraktiven alternativen Technik, um aktuelle (und eigene) Daten mit den vorhandenen Daten zu verbinden, die einem vortrainierten LLM zur Verfügung stehen.

Ethische Überlegungen

Der Aufstieg der generativen KI hat auch eine intensive Diskussion über die ethischen Überlegungen ausgelöst, die mit ihrer Entwicklung und Nutzung einhergehen. In dem Maße, wie generative KI-Anwendungen sich durchsetzen und für die Öffentlichkeit zugänglich werden, dreht sich die Diskussion um die Frage, wie man sie einsetzen kann:

  • Sorgen Sie für gerechte und vorurteilsfreie Modelle
  • Schutz vor Angriffen wie Modellvergiftung oder Modellmanipulationen
  • Schützen Sie sich vor dem Missbrauch generativer KI ( z. B. Deepfakes oder die Erzeugung irreführender Informationen)
  • Preserve attribution
  • Fördern Sie die Transparenz gegenüber den Endnutzern, damit diese wissen, wann sie mit einem generativen KI-Chatbot und nicht mit einem Menschen interagieren
Vergleich mit anderen KI-Tools und Systemen

Der Hype und die Neuartigkeit der generativen KI-Tools haben die breitere KI-Landschaft der Tools und Systeme in den Schatten gestellt. Viele gehen fälschlicherweise davon aus, dass generative KI das KI-Tool ist, das alle ihre Probleme löst. Während sich generative KI jedoch bei der Erstellung neuer Inhalte auszeichnet, sind andere KI-Tools für bestimmte Geschäftsaufgaben möglicherweise besser geeignet. Die Vorteile der generativen KI sollten – wie bei jedem anderen Tool in Ihrem Stack – gegen die Vorteile anderer Tools abgewogen werden.

RAG-spezifische Herausforderungen

Der RAG-Ansatz zur Nutzung eines LLMs ist leistungsstark, aber er bringt auch eine Reihe von Herausforderungen mit sich.

  • Auswahl von Vektordatenbanken und Suchtechnologien: Letztlich hängt die Effizienz des RAG-Ansatzes von seiner Fähigkeit ab, relevante Daten schnell abzurufen. Daher ist die Auswahl einer Vektordatenbank und einer Suchtechnologie eine wichtige Entscheidung, die sich auf die Leistung der RAG auswirkt.
  • Datenkonsistenz: Da RAG Daten in Echtzeit abruft, ist es wichtig, dass die Vektordatenbank aktuell und konsistent ist.
  • Komplexität der Integration: Die Integration von RAG mit einem LLM fügt Ihren Systemen eine zusätzliche Ebene der Komplexität hinzu. Die effektive Implementierung generativer KI mit RAG erfordert möglicherweise spezielles Fachwissen.

Ungeachtet dieser Herausforderungen bietet RAG Unternehmen eine einfache und leistungsstarke Möglichkeit, ihre Betriebs- und Anwendungsdaten zu nutzen, um umfangreiche Erkenntnisse zu gewinnen und wichtige Geschäftsentscheidungen zu treffen.

MongoDB Atlas für GenAI-gestützte Apps

Wir haben das transformative Potenzial der generativen KI angesprochen und die leistungsstarke Verbesserung von Echtzeitdaten gesehen, die mit RAG einhergeht. Um diese Technologien zusammenzubringen, bedarf es einer flexiblen Datenplattform, die eine Reihe von Funktionen bietet, die auf GenAI-gestützte Anwendungen zugeschnitten sind. Für Unternehmen, die den Einstieg in die Welt der generativen KI und RAG wagen, wird MongoDB Atlas den entscheidenden Unterschied ausmachen.

Die wichtigsten Funktionen von MongoDB Atlas umfassen:

  • Native Vektorsuchfunktionen: Native Vektorspeicherung und -suche sind in MongoDB Atlas integriert und gewährleisten einen schnellen und effizienten Datenabruf für RAG, ohne dass eine zusätzliche Datenbank für die Verarbeitung von Vektoren erforderlich ist.
  • Einheitliche API und flexibles Dokumentenmodell: Die einheitliche API von MongoDB Atlas ermöglicht es Entwicklern, die Vektorsuche mit anderen Abfragefunktionen wie der strukturierten Suche oder der Textsuche zu kombinieren. In Verbindung mit dem Dokumentdatenmodell von MongoDB bietet dies eine unglaubliche Flexibilität für Ihre Projekte.
  • Skalierbarkeit, Zuverlässigkeit und Sicherheit: MongoDB Atlas bietet horizontale Skalierung, damit Sie (und Ihre Daten) problemlos mitwachsen können. Mit Fehlertoleranz und einfacher horizontaler und vertikaler Skalierung gewährleistet MongoDB Atlas einen unterbrechungsfreien Service, unabhängig von den Anforderungen Ihrer Arbeitslast. Und natürlich zeigt MongoDB, dass es die Sicherheit in den Vordergrund stellt, indem es eine branchenführende Datenverschlüsselung ermöglicht, die abgefragt werden kann.
Ein Bild von MongoDB Atlas, das mehrere Aufgaben erfüllt, um generative KI-gestützte Apps zu unterstützen.

MongoDB Atlas ist entscheidend für die Vereinfachung der Implementierung eines RAG-erweiterten LLM-Systems. Indem MongoDB Ihre generativen KI-Datendienste verwaltet, rationalisiert MongoDB Ihren Prozess der Entwicklung unternehmensfähiger, GenAI-gestützter Anwendungen. Unabhängig davon, ob es sich bei den Daten, die Sie einbeziehen möchten, um proprietäre Daten oder aktuelle Ereignisdaten handelt, macht MongoDB den RAG-Ansatz realisierbar. In einer kürzlich durchgeführten Umfrage zum Stand der KI, an der 1.500 Personen teilnahmen, erzielte MongoDB Atlas Vector Search die höchste Entwicklerzufriedenheit unter allen Vektorlösungen.

Fazit

Als Teilbereich der künstlichen Intelligenz stellt die generative KI – die Modelle verwendet, die auf großen Mengen bestehender Inhalte trainiert wurden, um neue, einzigartige Inhalte zu erstellen – einen transformativen Sprung in der modernen Technologie dar. Damit die generative KI jedoch ihr Versprechen einlösen kann, menschliche Intelligenz und Kreativität nachzuahmen, muss sie auf großen Mengen hochwertiger Daten trainiert werden. Die Effektivität eines generativen KI-Modells hängt von der Qualität, Menge und Vielfalt seiner Schulungsdaten ab.

Die Daten, die für ein LLM verfügbar sind, sind durch das letzte Trainingsupdate für diesen LLM begrenzt. Die Einbeziehung aktueller Daten kann nicht durch ein erneutes Training oder eine Feinabstimmung des Modells erreicht werden, denn sobald diese Prozesse abgeschlossen sind, sind die Daten nicht mehr aktuell. Die Lösung ist Retrieval Augmented Generation (RAG), das im Rahmen der prompten Planung aktuelle Daten aus einer Vektordatenbank abfragt. RAG verbessert LLMs, indem es ihnen die Möglichkeit gibt, auf aktuelle, relevante Informationen zuzugreifen – die auch geschützte Informationen eines Unternehmens enthalten können – ohne den Ressourcenaufwand für Schulungen oder Feinabstimmungen.

Um dies zu ermöglichen, setzen Unternehmen auf MongoDB Atlas. Die nativen Vektorsuchfunktionen in Verbindung mit der einheitlichen API und dem flexiblen Dokumentenmodell machen es zu einer attraktiven Option für Unternehmen, die ein LLM mit dem RAG-Ansatz erweitern möchten, um proprietäre Daten einzuholen.

Erste Schritte mit MongoDB Atlas

Kostenlos testen