Une nouvelle vague d’IA a émergé, modifiant la manière dont les entreprises utilisent les données internes et externes dans les workflows existants. La combinaison de grands modèles de langage (LLM) et de modèles de représentations vectorielles (modèles capables de créer des vecteurs de grande dimension à partir de données non structurées) vous permet désormais de donner du sens aux données de tout type.
Avec plus de 80 % d’informations non structurées (texte, documents, images, fichiers vidéo, etc.), la recherche va au-delà du simple mot-clé. En effet, les représentations vectorielles aident à contextualiser toutes ces données, même lorsque les utilisateurs finaux ne savent pas ce qu’ils recherchent. Dans ce cadre, comment votre entreprise peut-elle utiliser la recherche vectorielle et la puissance des LLM pour étendre votre propre ensemble de connaissances d’entreprise et augmenter les résultats de valeur ?
Ce webinaire réunit Stephen O’Grady, analyste principal et cofondateur de RedMonk, et Benjamin Flast, responsable de la gestion des produits chez MongoDB, pour discuter de ces tendances tectoniques, notamment :
- Qu'est-ce que la recherche vectorielle et comment l'IA joue un rôle dans l'interprétation des données non structurées.
- Comment créer des vector embeddings pour améliorer la pertinence en exploitant la puissance des LLM.
- Différentes approches de stockage et de récupération des vecteurs.
- Exemples concrets de cas d'utilisation de vecteurs, d'intégrations de l'IA et de résultats.