Console de service client affichant une fenêtre de chat avec Einstein aidant à répondre aux questions

Comment le moteur Atlas Reasoning Engine alimente Agentforce

Des agents d'IA autonomes et proactifs sont au cœur de Agentforce. Mais comment fonctionnent-ils ? Regardons-y d'un peu plus près.

Shipra Gupta

Dans le monde de l'IA, et plus particulièrement de l'IA générative, l'innovation se poursuit à un rythme effréné. Le degré de sophistication technique aujourd'hui disponible permet une évolution rapide du secteur, de l'automatisation conversationnelle à des fins d'assistance vers une automatisation basée sur les rôles renforçant les compétences des effectifs. Pour que l'IA soit en mesure de reproduire les performances humaines, il est essentiel de comprendre que ce qui rend les humains plus efficaces dans l'accomplissement de leurs tâches, c'est leur capacité à agir. Ils sont capables d'assimiler des données, de raisonner sur les différentes voies possibles et de prendre des mesures. Doter l'IA de ce type de capacité d'action requiert un niveau d'intelligence et de prise de décision extrêmement élevé.

Chez Salesforce, nous avons exploité les dernières avancées dans le domaine des grands modèles de langage (« Large Language Models », ou LLM) et des techniques de raisonnement afin de lancer Agentforce. Agentforce est une suite composée d'agents d'IA prêts à l'emploi (des applications autonomes et proactives conçues pour exécuter des tâches spécialisées) et d'un ensemble d'outils permettant de les construire et de les personnaliser. Ces agents d'IA autonomes sont capables de penser, de raisonner, de planifier et d'orchestrer à un niveau de sophistication élevé. Agentforce représente un pas de géant dans l'automatisation de l'IA pour le service client, les ventes, le marketing, le commerce et bien d'autres.

Cet article présente les innovations ayant mené à la conception du moteur Atlas Reasoning Engine, cerveau derrière le fonctionnement d'Agentforce. Développé au sein du centre de recherche en IA de SalesforceS'ouvre dans une nouvelle fenêtre, Atlas orchestre les actions de manière intelligente et autonome pour apporter aux entreprises une solution de niveau professionnel en matière d'agents.

Calculez votre retour sur investissement avec Agentforce.

Découvrez combien de temps et d'argent vous pourrez économiser en associant une équipe d'agents alimentés par l'IA à vos collaborateurs. Répondez simplement à quatre questions et découvrez tout ce qu'Agentforce permet de faire.

L'évolution de Einstein Copilot à Agentforce

Nous avons lancé dans le courant de l'année Einstein Copilot, qui est depuis devenu un agent Agentforce dédié à la gestion de la relation client (« Customer relationship management », ou CRM). Einstein Copilot était un assistant conversationnel alimenté par une IA générative qui tirait son intelligence d'un mécanisme appelé raisonnement par chaîne de penséeS'ouvre dans une nouvelle fenêtre (« Chain of Thought », ou CoT). Dans ce mécanisme, le système d'IA reproduit une prise de décision humaine en générant un plan contenant une séquence d'étapes visant à atteindre un objectif.

Grâce au raisonnement par CoT, Einstein Copilot était en mesure de co-créer et de collaborer dans le cadre des workflows. S'il constituait en cela un outil relativement avancé par rapport aux bots traditionnels, il ne parvenait pas réellement à imiter une intelligence humaine. Il générait un plan contenant une séquence d'actions en réponse à des tâches, puis exécutait ces actions une par une. Or si le plan était incorrect, il n'avait aucun moyen de demander à l'utilisateur de le réorienter. Il en résultait donc une expérience d'IA non adaptative, au sens où les utilisateurs ne pouvaient pas fournir d'informations nouvelles et utiles au fur et à mesure de la conversation.

En soumettant Einstein Copilot à des tests rigoureux auprès de milliers de vendeurs de notre propre organisation commerciale (Org 62), nous avons pu identifier certaines tendances :

  • L'expérience conversationnelle en langage naturel qu'offrait Copilot était, comme prévu, bien meilleure que celle des bots traditionnels, mais n'atteignait pas encore notre objectif ultime d'interaction quasi humaine. Elle devait être plus conversationnelle.
  • Copilot faisait de l'excellent travail pour ce qui était de répondre aux attentes des utilisateurs à l'aide des actions configurées, mais ne parvenait pas à gérer les demandes de suivi portant sur les informations qui existaient déjà dans la conversation. Il devait mieux utiliser le contexte afin de répondre à davantage de demandes d'utilisateurs.
  • À mesure que nous avons ajouté des actions pour automatiser plus de cas d'usage, les performances de Copilot ont commencé à se dégrader, tant en termes de latence (temps de réponse) que de qualité de réponse. Il devait pouvoir s'adapter efficacement aux milliers de cas d'usage et applications susceptibles d'en bénéficier.

Nous nous sommes mis en quête d'une solution à ces problèmes, et c'est ainsi qu'est né Agentforce.

Personnages de la communauté Agentblazer

Rejoignez la communauté Agentblazer.

Entrez en contact avec des Agentblazers du monde entier et familiarisez-vous avec l'IA, découvrez des cas d'usage et témoignages d'experts en produits, et bien plus encore. Développez votre expertise en matière d'IA et faites décoller votre carrière.

Agentforce : un pas de géant en termes de raisonnement

Toute première solution d'automatisation conversationnelle de niveau professionnel du marché, Agentforce est capable de prendre des décisions proactives et intelligentes à grande échelle avec peu ou pas d'intervention humaine. Plusieurs avancées ont rendu cela possible.

  • Orchestration basée sur l'ingénierie de prompt ReAct plutôt que sur un raisonnement par CoT. Des expériences et des tests approfondis ont montré que la création de prompts via une stratégie de raisonnement et action (« Reasoning and Acting », ou ReAct) donnait de bien meilleurs résultats que l'approche par CoT. Dans le mécanisme ReAct, le système passe par une boucle de raisonnement, d'action et d'observation jusqu'à atteindre l'objectif de l'utilisateur. Grâce à ce type d'approche en boucle, le système peut prendre en compte toute nouvelle information et poser des questions de clarification ou de confirmation de sorte que l'objectif de l'utilisateur soit atteint de la manière la plus précise possible. Cela permet également d'obtenir une expérience conversationnelle bien plus fluide et proche du langage naturel.
  • Classification par thèmes. Nous avons introduit un nouveau concept de thèmes, renvoyant à une intention de l'utilisateur ou à une tâche à accomplir. Lorsqu'un utilisateur soumet une entrée, celle-ci est mise en correspondance avec un thème contenant l'ensemble des instructions, politiques commerciales et actions nécessaires pour satisfaire cette requête. Ce mécanisme aide à définir l'étendue de la tâche et l'espace de solution correspondant pour le LLM, permettant ainsi au système de s'adapter sans effort. Les instructions en langage naturel intégrées aux thèmes fournissent des orientations et des garde-fous supplémentaires pour le LLM. Dès lors, si certaines actions doivent être exécutées dans un ordre précis, il est possible de passer par une instruction thématique en langage naturel. S'il existe des politiques commerciales telles que « retours gratuits sous 30 jours », celles-ci peuvent être spécifiées en tant qu'instruction et transmises au LLM, qui pourra alors les prendre en compte et informer l'interaction utilisateur en conséquence. Grâce à ces concepts, les agents peuvent s'adapter à des milliers d'actions en toute sécurité.
  • Utilisation des LLM pour les réponses. Nous limitions auparavant la réponse du système aux seules actions, ce qui restreignait considérablement sa capacité à répondre à partir des informations disponibles dans la conversation. En élargissant le système pour permettre au LLM de répondre sur la base du contexte de l'historique de conversation, nous rendons possible une expérience conversationnelle beaucoup plus riche. Les utilisateurs pouvant désormais demander des clarifications et poser des questions de suivi sur des résultats antérieurs, il en résulte un taux de réalisation des objectifs globalement plus élevé.
  • Réflexions/raisonnement. Le fait de donner aux LLM l'instruction de partager leurs réflexions ou d'expliquer les raisons pour lesquelles ils choisissent certaines actions réduit considérablement le risque d'hallucinations. Cette démarche présente aussi l'avantage d'offrir une visibilité sur le comportement du LLM, et de permettre ainsi aux administrateurs et développeurs de procéder à un réglage fin de l'agent en fonction des besoins. Le raisonnement est disponible par défaut dans l'interface Agent Builder et les utilisateurs peuvent également poser des questions de suivi à l'agent afin qu'il explique son cheminement de pensée. En plus d'éviter les hallucinations, cela permet aussi d'instaurer un climat de confiance.

Caractéristiques supplémentaires d'Agentforce

Le moteur Atlas Reasoning Engine n'est pas la seule caractéristique remarquable permettant à Agentforce de se démarquer.

  • Action proactive. Si les entrées des utilisateurs constituent l'un des déclencheurs des agents, il est également possible de déclencher les agents Agentforce à l'aide d'opérations de données sur le CRM, ou encore de processus et de règles métiers tels que la mise à jour du statut d'un dossier, la réception d'un e-mail par une marque ou le fait qu'une réunion soit prévue d'ici cinq minutes. Ces mécanismes confèrent aux agents un niveau de proactivité qui les rend utiles et déployables au sein de divers environnements commerciaux dynamiques, étendant ainsi leur utilité à la fois pour le front et le back office.
  • Récupération dynamique d'informations. La plupart des cas d'usage commerciaux impliquent de récupérer des informations ou de prendre des mesures. L'un des mécanismes les plus courants pour ce qui est d'alimenter les agents en informations statiques est l'ancrage contextuel. Toutefois, seule la capacité des agents à exploiter des informations dynamiques permet de tirer le plein potentiel des cas d'usage et des applications.

    Agentforce prend en charge plusieurs mécanismes permettant de mettre à profit des informations dynamiques. Le premier correspond à la génération augmentée de récupération ou RAG (« Retrieval-Augmented Generation »). Le recours à la recherche sémantique sur les données structurées et non structurées dans Data Cloud via la RAG permet aux agents de récupérer toute information pertinente à partir de sources et de bases de données externes.

    Deuxièmement, l'introduction d'outils génériques de récupération d'informations tels que la recherche sur le Web et les fonctionnalités de questions-réponses et de base de connaissances nous ont permis de renforcer la capacité des agents à gérer des tâches complexes. Par exemple, imaginez que vous fassiez des recherches en ligne sur une entreprise ou un produit à l'aide d'un moteur de recherche, que vous combiniez ces recherches avec des connaissances internes sur les règles et politiques de l'entreprise, et que vous preniez ensuite une mesure sous la forme de l'envoi d'un résumé par e-mail à un contact. En combinant des données issues de sources multiples, vous permettez alors à l'agent de gérer les tâches de manière beaucoup plus efficace et rentable.

    Enfin, les agents peuvent être déployés au sein de flux, d'API et de classes Apex. Ce faisant, il devient possible de transmettre à l'agent toutes les informations contextuelles d'un workflow de même que les informations relatives aux différents scénarios, vous évitant ainsi de devoir élaborer des solutions personnalisées et traiter chaque scénario séparément. Grâce à tous ces mécanismes offrant un accès à des informations dynamiques, les agents comprennent mieux leur environnement et sont alors beaucoup plus interactifs.
  • Transfert à un agent humain. L'IA étant non déterministe, elle peut être sujette aux hallucinations. C'est la raison pour laquelle nous avons été les premiers à mettre au point la Einstein Trust Layer, un système robuste offrant des fonctionnalités de détection de la toxicité, des contrats sans conservation de données ou une défense contre l'injection de prompts, entre autres mécanismes. Nous avons intégré des règles à nos prompts système afin d'empêcher toute dérive et hallucination des LLM. Pourtant, malgré tous ces mécanismes, les LLM n'affichent toujours pas une précision de 100 %. Pour les scénarios commerciaux critiques appliquant une tolérance zéro à l'erreur, le transfert à l'humain en toute transparence est essentiel, et nativement pris en charge par Agentforce. Agentforce traite le « transfert à un agent humain » comme une action supplémentaire, permettant ainsi le transfert d'une conversation à des humains en toute sécurité et en toute transparence, quel que soit le scénario commercial désiré.

Quelles sont les prochaines étapes pour Agentforce ?

Bien qu'il en soit encore à ses débuts, Agentforce change véritablement la donne pour nos clients. Pour certains d'entre eux tels que Wiley et Saks Fifth Avenue, l'utilisation de l'agent de service Agentforce a déjà un impact exponentiel sur les KPI métiers. À mesure que l'innovation et les progrès technologiques se succèdent à une cadence soutenue au sein du centre de recherche Salesforce et à l'échelle du secteur, nous poursuivons notre route au même rythme et exploitons diverses innovations afin de rendre les agents encore plus robustes et intelligents. Voici quelques-unes des avancées auxquelles les clients peuvent s'attendre dans un avenir proche :

  • Un cadre de test et d'évaluation des agents. L'introduction au sein des entreprises d'un système d'agents complexe tel que Agentforce nécessite une quantité phénoménale de tests et de validations. Dès lors, nous avons élaboré un cadre d'évaluation robuste permettant de tester les résultats des actions, les entrées, les sorties, la précision de la planification, la classification des thèmes et l'état du planificateur. Ce cadre nous sert à optimiser les agents sur des métriques telles que la précision, la latence, le coût du service et la confiance. Contrairement à la majorité des cadres et référentiels généralement disponibles, qui se concentrent principalement sur l'évaluation des performances d'un LLM sur des tâches d'ordre mathématique, scientifique ou de connaissances générales, notre cadre d'évaluation est spécifiquement axé sur les cas d'usage liés à la CRM. Nous avons également publié le premier référentiel de LLMS'ouvre dans une nouvelle fenêtre au monde et travaillons actuellement à mettre notre cadre d'évaluation des agents à disposition de nos clients et partenaires.
  • Prise en charge des intentions multiples. Il s'agit là d'un élément essentiel à la reproduction d'un mécanisme de conversation semblable aux échanges humains. Un grand nombre d'expressions du quotidien comportent plusieurs objectifs sans aucun lien les uns avec les autres, tels que « mettre à jour ma commande et trouver une chemise en taille M », « mettre à jour le statut du dossier et envoyer au client un e-mail résumant les étapes du dépannage », ou encore « réserver un vol et prendre une chambre d'hôtel ». Combiner les capacités de compréhension du langage naturel des LLM, la prise en charge des fenêtres de contexte étendues et certains concepts innovants tels que les thèmes, nous permet de poursuivre nos expérimentations en vue de créer une solution fiable, évolutive et sécurisée pour nos clients.
  • Prise en charge multimodale. Si la majorité des interactions digitales sont basées sur le texte, celles reposant sur la voix et la vision offrent des expériences bien plus riches dans la mesure où elles représentent le mode d'interaction humaine le plus naturel. En réalité, du fait de certaines avancées telles que le traitement simultané d'entrées multimodales, l'accélération des temps de réponse, les fenêtres de contexte étendues et les capacités de raisonnement sophistiqué, le marché de l'IA multimodale devrait connaître une croissance d'environ 36 % d'ici à 2031S'ouvre dans une nouvelle fenêtre. Plusieurs cas d'usage en entreprise sont susceptibles de bénéficier directement de cette prise en charge de la multimodalité :
    • Cas d'usage basés sur la voix. Remplacement des serveurs vocaux interactifs (SVI) par une assistance vocale alimentée par l'IA générative accompagnée d'un coaching, d'une formation et d'une intégration des collaborateurs.
    • Cas d'usage basés sur la vision. Recherche et comparaison de produits, navigation dans l'interface utilisateur (web, mobile), dépannage et résolution de problèmes pour le service client de terrain.
  • Prise en charge multi-agents. Les interactions entre agents représentent l'une des avancées les plus transformatrices de notre époque sur le plan commercial. La capacité des systèmes multi-agents à récupérer, compiler et traiter simultanément les informations leur permet de réduire considérablement les délais de traitement des workflows longs et complexes qui sont à l'heure actuelle traités de manière séquentielle du fait des transmissions d'humain à humain. Les agents digitaux peuvent être insérés dans ces workflows de tâches de traitement de données répétitives, et peuvent également améliorer l'efficacité des personnes impliquées dans ces processus.

    Nous appliquons déjà ce type de paradigme multi-agents au processus de vente, où un agent peut faire office de chargé de développement commercial afin d'alimenter le pipeline, ou agir en tant que coach de vente afin de conseiller un représentant sur la meilleure façon de négocier une affaire. Les agents spécialisés peuvent aussi prendre en charge d'autres aspects du processus de vente, tels que la qualification des leads, la préparation des propositions ou le suivi après-vente. Dans le même ordre d'idées, un workflow de service client peut être constitué d'agents chargés du dépannage, du suivi et de l'attribution des tickets, ainsi que d'autres chargés de répondre aux questions des clients et d'aider les représentants humains.

Préparez-vous à la troisième vague de l'IA

Après l'IA prédictive et les copilotes, Agentforce représente la troisième vague de l'IA. L'utilisation d'Agentforce permet aux clients de créer des agents qui, non contents de répondre aux prompts conversationnels leur demandant d'agir, sont capables d'anticiper, de planifier et de raisonner avec un minimum d'aide. Ils peuvent ainsi automatiser des workflows ou des processus entiers, prendre des décisions et s'adapter à de nouvelles informations, le tout sans intervention humaine. En parallèle, ils sont capables de passer la main aux collaborateurs humains en toute transparence, facilitant ainsi la collaboration dans tous les secteurs d'activité. Alimentés par le moteur Atlas Reasoning Engine, ces agents sont déployables en quelques clics seulement afin de renforcer et de transformer n'importe quelle fonction ou équipe au sein de votre entreprise.