Console de service client affichant une fenêtre de chat avec Einstein aidant à répondre aux questions

Qu'est-ce qu'un moteur de raisonnement ?

Explorez un peu plus encore l'univers des LLM et tirez le meilleur de votre copilote conversationnel.

Shipra Gupta

Et si l'IA pouvait vous permettre d'automatiser certaines tâches de routine répétitives comme la rédaction d'e-mails, la création de briefs de campagne ou de pages web, la veille concurrentielle, l'analyse de données ou la synthèse d'appels ? Le gain de temps et d'effort humain serait alors considérable et vous pourriez vous consacrer à des activités plus complexes et créatives telles que la stratégie commerciale et le développement de la relation client.

Pour automatiser ces tâches routinières, il faut simuler l'intelligence humaine en utilisant l'IA comme moteur de raisonnement. Ce qui implique de faire passer l'IA générative au niveau supérieur. En plus de communiquer en langage naturel, l'IA contribuera aussi aux processus de résolution de problèmes et de prise de décision. Elle apprendra des informations qui lui seront fournies, évaluera les avantages et inconvénients, prédira les résultats et prendra des décisions logiques. Les avancées technologiques récentes nous rapprochent plus que jamais d'une telle fonctionnalité d'IA, suscitant déjà l'engouement de nombre des acteurs de la communauté scientifique et du monde des affaires.

IA d'entreprise intégrée à un CRM pour les entreprises

Intelligence artificielle Salesforce

L'IA de Salesforce est une solution d'IA fiable et évolutive intégrée à la structure de notre Salesforce Platform. Utilisez notre IA pour exploiter vos données clients afin de proposer des solutions d'IA personnalisables, prédictives et génératives répondant à tous les besoins de votre entreprise dans les meilleures conditions. Avec Einstein, l'IA conversationnelle est mise au service de tous les workflows, utilisateurs, départements et secteurs d'activité.

Qu'est-ce qu'un moteur de raisonnement ?

Un moteur de raisonnement est un système d'IA imitant les capacités humaines de prise de décision et de résolution de problèmes en se basant sur certaines règles, données et logiques. Les moteurs de raisonnement tendent à reproduire trois types de mécanismes de raisonnement ou d'inférence humains :

  1. Raisonnement déductif : l'inférence s'appuie sur des faits universels et généralement acceptés. Par exemple : « Tous les oiseaux pondent des œufs. Un pigeon est un oiseau. Par conséquent, les pigeons pondent des œufs. »
  2. Raisonnement inductif : une conclusion est tirée sur la base d'exemples ou d'échantillons spécifiques. Par exemple : « Tous les chiens que je rencontre sont dociles. Par conséquent, tous les chiens sont dociles ! »
  3. Raisonnement abductif : une conclusion probable est tirée à partir d'informations incomplètes (et souvent ambiguës). Par exemple : « Le sol est jonché de papiers déchirés et notre chien était seul dans l'appartement. Par conséquent, le chien a dû déchirer les papiers. »

Il n'échappe plus à personne, de nos jours, que les grands modèles de langage (« Large Language Models », ou LLM) sont des modèles d'apprentissage automatique spéciaux capables de générer un nouveau contenu utile à partir des données sur lesquelles ils ont été entraînés. Outre ces capacités, les LLM actuels peuvent comprendre le contexte, tirer des conclusions logiques à partir des données et faire le lien entre différents éléments d'information en vue de résoudre un problème. Autant de caractéristiques leur permettant de faire office de moteur de raisonnement.

Dès lors, comment un LLM peut-il résoudre une problématique métier courante d'ordre mathématique en évaluant les informations, en élaborant un plan et en appliquant un ensemble de règles connues ?

Supposons que la propriétaire d'un café veuille savoir combien de cafés elle doit vendre par mois pour atteindre son seuil de rentabilité. Elle facture 3,95 $ par tasse, ses coûts fixes mensuels sont de 2 500 $ et ses coûts variables par unité sont de 1,40 $.

Le LLM applique un ensemble connu de règles mathématiques pour obtenir systématiquement la réponse :

Étape 1

Identifier les valeurs pertinentes.

Étape 2

Calculer la marge sur coût variable par café. La marge sur coût variable correspond au prix de vente moins le coût variable.
Elle est ici de : 3,95 $ - 1,40 $ = 2,55 $

Étape 3

Appliquer la formule de rentabilité. Le seuil de rentabilité correspond aux coûts fixes divisés par la marge sur coût variable.
Donc : 2 500 $ / 2,55 $ = 980,39

Étape 4 :

Arrondir au nombre entier supérieur.
Seuil de rentabilité = 981 cafés

Un message de bienvenue, avec Astro brandissant le logo Einstein.

L'IA au service des entreprises

Une IA d'entreprise intégrée directement à votre CRM. Optimisez la productivité de l'ensemble de votre organisation en offrant l'IA d'entreprise à chaque application, utilisateur et workflow. Aidez les utilisateurs à proposer des expériences clients améliorées dans les ventes, les services, le commerce et bien plus encore, grâce à une assistance IA personnalisée.

Comment faire des LLM des moteurs de raisonnement efficaces ?

Si la popularité des grands modèles de langage a explosé à l'automne 2022, cela fait longtemps que les scientifiques s'emploient à expérimenter avec ces modèles à l'aide de divers prompts. Connaissant aujourd'hui un essor fulgurant, le domaine de l'ingénierie de prompt consiste à envoyer un ensemble soigneusement formulé d'instructions d'entrée (prompts) au LLM afin qu'il génère les résultats souhaités. Utilisés pour élaborer une succession d'étapes logiques visant un objectif précis, ces prompts sont également qualifiés de « stratégies de raisonnement ». Examinons ensemble quelques-unes des stratégies de raisonnement les plus courantes :

  • Chaîne de pensée (« Chain-of-Thought », ou CoT) : comptant parmi les stratégies de raisonnement les plus populaires, cette approche imite la prise de décision humaine en amenant le LLM à décomposer un problème complexe en une séquence d'étapes. On parle alors également de « planificateur séquentiel ». Le raisonnement par chaîne de penséeS'ouvre dans une nouvelle fenêtre permet de résoudre des problèmes mathématiques, d'appliquer un raisonnement de bon sens et d'accomplir des tâches qu'un humain résoudrait par le langage. La stratégie de CoT a pour avantage, entre autres, de permettre aux ingénieurs d'observer le processus et, le cas échéant, d'identifier tout problème afin d'y remédier.
  • Raisonnement et action (« Reasoning and Acting », ou ReAct) : outre les données ayant servi à entraîner le LLM, cette stratégie base le raisonnement sur des informations concrètes. Volontiers présenté comme un processus de résolution de problèmes quasi humain, le raisonnement basé sur ReActS'ouvre dans une nouvelle fenêtre implique une prise de décision interactive et un raisonnement verbal qui permettent une meilleure gestion des erreurs et des taux d'hallucination plus faibles. Il crée une synergie entre raisonnement et action via les actions qu'effectue l'utilisateur, augmentant ainsi l'interprétabilité et la fiabilité des réponses. On qualifie également cette stratégie de « planificateur par étapes » en ce qu'elle adopte une approche progressive de la résolution de problèmes et sollicite un feedback de l'utilisateur à chaque étape.
  • Arbre de pensées (« Tree of Thoughts », ou ToT) : cette variante de l'approche de la chaîne de pensée génère plusieurs pensées à chaque étape intermédiaire. Plutôt que de choisir un seul cheminement, elle explore et évalue à chaque étape l'état actuel de l'environnement afin de pousser plus avant son raisonnement ou de revenir en arrière pour prendre des décisions plus réfléchies. Appliquée à des tâches complexes telles que des jeux mathématiques, des exercices d'écriture créative et des mini-mots croisés, elle s'avère nettement plus performante que la stratégie de CoT. Le raisonnement par ToTS'ouvre dans une nouvelle fenêtre est considéré comme plus proche encore du paradigme de prise de décision humain au sens où il explore plusieurs options et pèse le pour et le contre pour choisir la meilleure réponse.
  • Raisonnement par la planification (« Reasoning via Planning », ou RAP) : cette stratégie utilise des LLM à la fois comme moteur de raisonnement et modèle concret pour prédire l'état de l'environnement et simuler l'impact à long terme des actions. Intégrant divers concepts tels que l'exploration de cheminements alternatifs, l'anticipation des états futurs et des mécanismes de récompense, elle affine de manière itérative les étapes de raisonnement existantes afin d'améliorer ses performances de raisonnement. Comparé à différents systèmes de référence, le RAPS'ouvre dans une nouvelle fenêtre affiche des performances supérieures sur les tâches impliquant une planification, un raisonnement mathématique et une inférence logique.

Ce ne sont là que quelques exemples des stratégies les plus prometteuses à l'heure actuelle. Leur application à une fonctionnalité d'IA concrète constitue un processus itératif impliquant un ajustement et la combinaison de diverses stratégies pour des performances optimales.

Comment intégrer des moteurs de raisonnement à des applications concrètes ?

Si l'idée d'utiliser des LLM comme moteurs de raisonnement peut être passionnante, comment rendre la chose utile sur le plan concret ? Pour faire une analogie, si les LLM sont comparables au cerveau humain doté de capacités de raisonnement, de planification et de prise de décision, nous avons tout de même besoin de nos mains et de nos jambes pour agir. C'est là qu'entre en scène l'« agent d'IA », un système d'IA pouvant à la fois raisonner et prendre des mesures. Cette capacité à prendre des mesures est alors le plus souvent décrite par des termes comme « outils », « plug-ins » et « actions ».

Il existe deux types d'agents d'IA : les agents entièrement autonomes et les agents semi-autonomes. Les agents entièrement autonomes peuvent prendre des décisions en toute autonomie sans aucune intervention humaine et prendre des mesures en conséquence. Ces types d'agents sont à l'heure actuelle en phase d'expérimentation. Les agents semi-autonomes sont ceux pour lesquels le déclenchement des requêtes implique la présence d'un « humain dans la boucle ». Les premières intégrations d'agents semi-autonomes auxquelles nous assistons aujourd'hui concernent principalement des applications d'IA telles que les chatbots conversationnels, notamment Einstein Copilot, ChatGPT et Duet AI.

Un agent d'IA se compose de quatre éléments clés :

  1. Objectif : la tâche ou l'objectif principal de l'agent.
  2. Environnement : les informations contextuelles, telles que l'objectif, la saisie initiale de l'utilisateur, l'historique d'activités ou de conversations, l'ancrage contextuel des données à des fins de pertinence, le feedback utilisateur et les données sur lesquelles le LLM a été entraîné.
  3. Raisonnement : la capacité intrinsèque du LLM à faire des observations, à planifier les actions suivantes et à se recalibrer afin d'optimiser la réalisation de l'objectif visé.
  4. Action : généralement des outils externes permettant à un agent d'atteindre l'objectif. La récupération d'informations, la recherche, la génération de code, l'interprétation de code et la génération de dialogues sont des exemples courants d'actions.

Comment Einstein Copilot utilise-t-il des LLM comme moteur de raisonnement ?

Einstein Copilotde Salesforce est un assistant conversationnel avancé alimenté par l'IA qui interagit en langage naturel avec les collaborateurs et clients d'une entreprise. Il contribue à améliorer la productivité à grande échelle en permettant aux collaborateurs d'automatiser l'exécution de diverses tâches dans le cadre de leur travail. Côté consommateurs, il permet d'échanger avec les marques et d'obtenir des réponses immédiates à toute question, augmentant ainsi la satisfaction et la fidélisation client. Einstein Copilot met à profit les LLM pour des compétences linguistiques telles que la compréhension et la génération de contenu, mais aussi en tant que moteur de raisonnement à des fins de planification de tâches complexes. Il en résulte alors une réduction de la charge cognitive pour les utilisateurs.

Voilà comment cela fonctionne :

  1. L'utilisateur saisit l'objectif qu'il souhaite atteindre, par exemple : « Construire une page web ».
  2. Einstein Copilot crée à partir de la saisie de l'utilisateur un prompt édité qu'il envoie à un LLM sécurisé en vue d'inférer l'intention de l'utilisateur.
  3. Selon l'intention, Einstein Copilot envoie un autre prompt édité pour demander au LLM de générer un plan qui permette de satisfaire cette intention.
  4. Il en résulte un plan constitué d'une succession d'actions suivant une séquence logique. Afin de s'assurer de la fiabilité de Einstein Copilot, le LLM a pour instruction de générer des plans exclusivement à partir des actions qui lui sont communiquées.
  5. Une fois le plan renvoyé par le LLM, Einstein Copilot exécute les actions de la séquence prescrite afin de générer un résultat souhaité, lequel est ensuite communiqué à l'utilisateur.

Voilà à quoi cela peut ressembler visuellement :

Visuel Einstein Copilot et moteur de raisonnement

Quels avantages Einstein Copilot présente-t-il pour votre entreprise ?

Grâce à Einstein Copilot, les entreprises peuvent utiliser les LLM comme moteurs de raisonnement et ainsi mettre à profit l'IA pour accomplir un certain nombre de tâches qui n'étaient pas réalistes il y a encore quelques mois.

  • Face à un pipeline peu fourni, une équipe de vente peut utiliser Einstein Copilot pour analyser les bases de données à la recherche de leads de qualité valant la peine d'être contactés.
  • Copilot analyse les ventes potentielles afin d'identifier celles qui présentent un risque, et peut également, sur demande, résumer les enregistrements pour les gestionnaires.
  • Il peut collecter les bonnes informations sur un client afin d'aider les agents de service client à résoudre tout problème de surfacturation.
  • Il est capable d'analyser le sentiment actuel d'un client vis-à-vis d'une vente potentielle et de recommander des actions qui permettront de conclure l'affaire sous trois mois.

Dans ces cas d'usage comme dans nombre d'autres, Einstein Copilot se comporte en substance comme un agent semi-autonome, utilisant les LLM comme moteurs de raisonnement et prenant les mesures nécessaires pour accomplir les tâches que lui demandent les utilisateurs. Mais ce n'est qu'un début : l'objectif est de faire en sorte que Einstein Copilot devienne à terme totalement autonome et omniprésent et abandonne son statut de simple assistant au profit d'un rôle proactif. Si l'IA laisse entrevoir un avenir prometteur, les perspectives d'amélioration de l'efficacité à l'échelle mondiale s'annoncent encore plus captivantes.