Qu'est-ce que la génération augmentée de récupération (RAG) ?
Découvrez comment faire passer les prompts d'IA générative au niveau supérieur grâce à la génération augmentée de récupération, ou RAG.
Ari Bendersky
Découvrez comment faire passer les prompts d'IA générative au niveau supérieur grâce à la génération augmentée de récupération, ou RAG.
Ari Bendersky
En 2023, l'entreprise canadienne Algo Communications s'est retrouvée confrontée à un défi. Face à la croissance rapide qui s'annonçait, elle ne parvenait pas à former ses représentants de service client (CSR) assez rapidement pour suivre le rythme de son expansion. Soucieuse de relever ce défi, elle s'est alors tournée vers une solution innovante : l'IA générative.
Algo a adopté un grand modèle de langage (« Large Language Model », ou LLM) pour aider à intégrer plus rapidement ses nouveaux CSR. Afin de les former à répondre avec précision et aisance aux questions complexes des clients, l'entreprise savait qu'il lui fallait quelque chose de plus robuste qu'un LLM standard, généralement entraîné à partir de l'Internet public et ne disposant pas du contexte métier spécifique requis pour offrir des réponses précises. C'est là qu'entre en jeu la génération augmentée de récupération, mieux connue sous le nom de RAG (« Retrieval-Augmented Generation ».
Nous sommes aujourd'hui nombreux à avoir déjà utilisé un LLM d'IA générative par le biais d'applications de chat comme ChatGPT d'OpenAI ou Gemini de Google (anciennement Bard) pour obtenir de l'aide dans la rédaction d'un e-mail ou la formulation d'un post en vue de sa publication sur les réseaux sociaux. Pourtant, il n'est pas toujours facile d'obtenir les meilleurs résultats, surtout si on ne maîtrise pas l'art et la science de la rédaction d'un bon prompt.
Et la raison est simple : l'efficacité d'un modèle d'IA dépend de ce qu'on lui apprend. Pour être précis, il a besoin du bon contexte et d'une multitude de données factuelles, plutôt que d'informations génériques. Non seulement un LLM standard n'est pas toujours à jour, mais il ne disposera pas non plus d'un accès fiable à vos données et ne comprendra pas vos relations avec vos clients. C'est en cela que la RAG peut être utile.
La RAG est une technique d'IA qui permet aux entreprises d'intégrer automatiquement leurs données propriétaires les plus récentes et les plus pertinentes directement dans leur prompt de LLM. Et il n'est pas uniquement question de données structurées comme celles d'une feuille de calcul ou d'une base de données relationnelle. Le but est de récupérer toutes les données disponibles, données non structurées comprises : e-mails, PDF, journaux de messagerie instantanée, posts sur les réseaux sociaux et autres types d'informations susceptibles d'améliorer les résultats de l'IA.
Découvrez combien de temps et d'argent vous pourrez économiser en associant une équipe d'agents alimentés par l'IA à vos collaborateurs. Répondez simplement à quatre questions et découvrez tout ce qu'Agentforce permet de faire.
En bref, la RAG aide les entreprises à récupérer et à utiliser leurs données issues de diverses sources internes en vue d'améliorer les résultats de leur solution d'IA générative. Le matériel source provenant de données de confiance, cela permet de réduire, voire d'éliminer les hallucinations et autres résultats incorrects. En résumé : vous pouvez vous fier à la pertinence et à la précision des réponses.
Pour parvenir à cette précision accrue, la RAG travaille de concert avec un type de base de données spécialisé appelé base de données vectorielle, en vue de stocker les données dans un format numérique qui a du sens pour l'IA, et de les récupérer lors de l'envoi d'un prompt.
« La RAG ne peut pas faire son travail si la base de données vectorielle ne fait pas le sien », indique Ryan Schellack, directeur marketing des produits d'IA chez Salesforce. « Les deux vont de pair. Quand une entreprise affirme prendre en charge la génération augmentée de récupération, elle prend en charge au minimum deux choses : un magasin vectoriel pour le stockage des informations, puis un mécanisme de recherche basé sur l'apprentissage automatique conçu pour fonctionner avec ce type de données. »
Associée à une base de données vectorielle, la RAG peut être un outil puissant pour permettre aux LLM de générer de meilleurs résultats. Mais ce n'est pas une solution miracle, car les utilisateurs doivent tout de même comprendre les principes fondamentaux de la rédaction d'un prompt clair.
Entrez en contact avec des Agentblazers du monde entier et familiarisez-vous avec l'IA, découvrez des cas d'usage et témoignages d'experts en produits, et bien plus encore. Développez votre expertise en matière d'IA et faites décoller votre carrière.
Après avoir ajouté à sa base de données vectorielle une vaste quantité de données non structurées, parmi lesquelles des journaux de messagerie instantanée et deux ans d'historique d'e-mails, Algo Communications a commencé à tester cette technologie en décembre 2023 auprès de quelques-uns de ses CSR. Travaillant sur un petit échantillon d'à peu près 10 % de la base de produits de l'entreprise, ceux-ci ont eu besoin d'environ deux mois pour se sentir à l'aise avec l'outil. Capables de répondre à des questions complexes avec l'aide de la RAG, ils ont gagné en confiance tout au long de cette mise en œuvre, suscitant l'enthousiasme de la direction qui a alors décidé de déployer la solution à l'échelle de l'ensemble de l'entreprise.
« En explorant la RAG, nous avons compris que nous allions être en mesure d'incorporer beaucoup plus de données », indique Ryan Zoehner, vice-président des opérations commerciales d'Algo Communications. « Elle allait nous permettre de décomposer un grand nombre de ces réponses très complexes pour offrir des réponses en cinq ou six parties offrant aux clients l'assurance que la personne qui leur répond est quelqu'un de compétent sur le plan technique. »
Deux mois seulement après l'ajout de la RAG, l'équipe de service client d'Algo était capable de traiter plus vite et plus efficacement les requêtes, et ainsi de passer aux nouvelles demandes 67 % plus rapidement. Aujourd'hui appliqué à 60 % des produits de l'entreprise, le déploiement de la RAG doit se poursuivre. Algo a également commencé à ajouter à sa base de données de nouveaux journaux et conversations de messagerie instantanée, renforçant ainsi sa solution au moyen de données contextualisées encore plus pertinentes. L'utilisation de la RAG lui a également permis de réduire de moitié ses délais d'intégration, pour une croissance encore plus rapide.
« La RAG nous rend plus efficaces", affirme M. Zoehner. « Nos collaborateurs trouvent plus de satisfaction dans leur travail, ce qui accélère tout le travail d'intégration. Ce qui la distingue de toutes nos autres tentatives en matière de LLM, c'est qu'elle nous a permis de conserver notre marque, notre identité et notre philosophie en tant qu'entreprise. »
En bénéficiant grâce à la RAG d'une assistance basée sur l'IA, l'équipe de CSR d'Algo a pu davantage se concentrer sur le fait d'apporter une touche humaine aux interactions clients.
« Notre équipe peut alors faire ce petit effort supplémentaire pour s'assurer que la réponse est transmise de la bonne manière », déclare Ryan Zoehner. « C'est cette touche d'humanité qui nous permet de renforcer la visibilité de notre marque. Et elle nous offre aussi la garantie d'une assurance qualité systématique. »
Découvrez comment fonctionne la construction d'un agent dans notre bibliothèque.
Travaillez avec les experts de Professional Services pour créer rapidement des agents et voir la valeur ajoutée.
Faites-nous part des besoins de votre entreprise et nous vous aiderons à trouver des réponses.