Agentforce Leitfaden für zuverlässiges Verhalten von Agenten
Ein Framework für 5 Ebenen des Determinismus
Ein Framework für 5 Ebenen des Determinismus
Olfa Kharrat, Director of Product Management – Agentforce
Reinier van Leuken, Senior Director of Product Management – Agentforce
Agenten im Vergleich zu Chatbots
Agentforce Bausteine und agentenbasierte Inferenz
Definition der Ebenen der agentenbasierten Kontrolle
Agentenbasierte Kontrolle der Stufe 1: Inferenz mit anweisungsfreiem Thema und Prompt-Aktionsauswahl
Agentenbasierte Kontrolle der Stufe 2: Anweisungen
Agentenbasierte Kontrolle der Stufe 3: Kontextbildung
Agentenbasierte Kontrolle der Stufe 4: Variablen
Agentenbasierte Kontrolle der Stufe 5: deterministische Aktionen
Zusammenfassung der Methoden zur Erreichung eines geleiteten Determinismus
Vertrauen ist seit der Gründung von Salesforce im Jahr 1999 der wichtigste Wert des Unternehmens, das Pionierarbeit bei der Entwicklung eines neuen Technologiemodells für Cloud Computing und SaaS geleistet hat. Unternehmen schenken Salesforce ihr Vertrauen, indem sie wertvolle Unternehmensdaten in der Cloud speichern. Sie wissen, dass diese Daten sicher sind und durch geeignete Zugriffskontrollen geschützt werden. Das ist auch heute noch ein entscheidender Faktor, aber im Zeitalter der agentenbasierten KI ist die Definition von Vertrauen noch weiter gefasst. Angesichts der Tatsache, dass Unternehmen zunehmend auf autonome Agenten zurückgreifen, um wichtige Geschäftsfunktionen auszuführen, müssen diese Agenten zu vertrauenswürdigen Geschäftspartnern werden, deren Arbeit präzise, relevant und vor allem zuverlässig ist.
Wie erstellt man also einen zuverlässigen Agenten? Zuverlässigkeit bedeutet in der Regel, dass bei gleicher Eingabe immer das gleiche Ergebnis herauskommt. Allerdings funktioniert das Agenten nicht unbedingt so, da sie auf großen Sprachmodellen (LLMs) basieren, die von Natur aus nicht deterministisch sind. Das gibt den Agenten die Flexibilität, kreative Lösungen zu entwickeln, die auf bestimmte Umstände zugeschnitten sind, ohne dass sie jede Bedingung oder Situation, mit der sie konfrontiert werden, explizit programmieren müssen. Agenten benötigen jedoch auch Governance, damit sie die geschäftlichen Anforderungen erfüllen und die betrieblichen Richtlinien einhalten können. Bei der Ausführung von Geschäftsprozessen müssen sie Zuverlässigkeit unter Beweis stellen und Geschäftsergebnisse erzielen, die deterministischen Einschränkungen entsprechen. Der Determinismus erzwingt eine Starrheit und Disziplin, die im Widerspruch zur Autonomie und Fluidität steht, die Agenten bieten. Daher liegt der Schlüssel zur erfolgreichen Erstellung von Agenten darin, das richtige Gleichgewicht zwischen kreativer Flexibilität und Unternehmenskontrolle zu finden.
In diesem Dokument werden zentrale Aspekte für die Entwicklung zuverlässiger agentenbasierter Systeme erörtert. Es definiert fünf Ebenen der agentenbasierten Kontrolle und zeigt Best Practices auf, um für jede dieser Ebenen die Kontrolle über das agentenbasierte Verhalten zu erlangen und zu behalten. Die Anleitung beschreibt die Funktionsweise der Agentforce-Inferenzmaschine. Dieses Dokument wird im Zuge der Weiterentwicklung von Agentforce aktualisiert, damit es den neuesten Best Practices Rechnung trägt.
Dieses Dokument setzt grundlegende Kenntnisse im Entwerfen und Erstellen von Agentforce-Agenten voraus. Für eine Einführung in Agentforce empfehlen wir Folgendes:
Zum besseren Verständnis des agentenbasierten Verhaltens vergleichen wir zunächst Agenten mit ihren starren Gegenstücken: Chatbots.
Chatbots: Strenge Regelbefolger
Chatbots folgen vorgegebenen Entscheidungsbäumen, die die Dialoge strukturieren, an denen sie teilnehmen können. Die Durchquerung dieser Entscheidungsbäume basiert auf den Antworten der Nutzer:innen. Diese Antwort kann eine Auswahl aus einer vorgegebenen Reihe von Optionen sein oder eine Freitextantwort. Im Fall einer Freitextantwort wird ein Vorhersagemodell für die Klassifizierung des Intents verwendet. Diese Bäume stellen alle möglichen Unterhaltungsverläufe dar und legen die Antworten des Chatbots bei jedem Schritt fest. Das Verhalten des Chatbots wird streng durch voreingestellte Regeln bestimmt. Wenn die Eingabe Von Nutzer:innen nicht mit einem erkannten Pfad übereinstimmt oder wenn das Vorhersagemodell nicht darauf trainiert wurde, eine bestimmte Absicht zu erkennen, kann der Chatbot nicht angemessen reagieren.
Agenten: Adaptiv und intuitiv
Im Gegensatz dazu nutzen Agenten die Leistungsfähigkeit von LLMs und deren fortschrittliche Fähigkeiten in der natürlichen Sprachverarbeitung (NLP). LLMs ermöglichen es Agenten, die Absicht hinter der Eingabe von Nutzer:innen zu verstehen, selbst wenn diese auf unerwartete Weise formuliert ist. Basierend auf seinem Verständnis des Intents kann der Agent aus einer Reihe von Möglichkeiten die am besten geeignete Aktion auswählen. Ein Agent kann sogar völlig neue Antworten formulieren. Diese Flexibilität und Anpassungsfähigkeit unterscheidet Agenten von ihren Chatbot-Kollegen.
Eine kulinarische Analogie
Der Unterschied zwischen Chatbots und Agenten lässt sich mit dem Kontrast zwischen einem Kochanfänger und einem erfahrenen Koch vergleichen.
Ein Agent kann seine Vorgehensweise entsprechend dem Kontext und des Intents der Eingabe von Nutzer:innen anpassen, was zu einer erfolgreichen Interaktion führt.
Eine Besonderheit der Intelligenz eines Agenten liegt in seiner Fähigkeit, die am besten geeigneten Aktionen zum richtigen Zeitpunkt zu koordinieren und auszulösen. Diese Flexibilität macht es überflüssig, jede mögliche Interaktion von Nutzer:innen ausführlich zu programmieren.
In Agentforce umfasst die Erstellung eines agentenbasierten Systems Themen, Aktionen sowie Anweisungen und Beschreibungen in natürlicher Sprache.
Themen sind die „zu erledigenden Aufgaben“ für den Agenten. Themen haben Attribute wie eine Klassifizierungsbeschreibung, einen Umfang und Anweisungen, die jede Aufgabe und deren Ausführung definieren. Themen enthalten Aktionen, die der Agent ausführen kann, sowie Anweisungen, die regeln, wie diese Aktionen ausgeführt werden.
Aktion ist eine vordefinierte Aufgabe, die der Agent ausführen kann, um seine Arbeit zu erledigen. Es gibt fünf verschiedene Arten von Aktionen:
Die Definition eines Agenten enthält Anweisungen in natürlicher Sprache, die die Ressourcen des Agenten beschreiben und die Richtlinien festlegen, innerhalb derer er arbeiten muss. Anweisungen werden für Aktionen und Themen geschrieben.
Diese verschiedenen Bausteine helfen einem Agenten, wenn sie korrekt aufgebaut sind, seinen beabsichtigten Zweck zu erfüllen und dabei innerhalb der entsprechenden Grenzen zu operieren.
Die Agentforce-Inferenzmaschine koordiniert diese Bausteine zu einem korrekten agentenbasierten Verhalten. Sie nutzt die in Themen und Aktionen definierten Anweisungen und Beschreibungen in natürlicher Sprache. Sie basiert auf ReAct, einer neuen Inferenz für LLMs, die 2022 von Yao et al eingeführt wurde. Dieses Paradigma ahmt das menschliche Aufgabenmanagement nach, indem es über ein Problem eine Inferenz zieht, Aktion ergreift, die Ergebnisse der Aktion beobachtet und den Zyklus bis zur Fertigstellung der Aufgabe wiederholt.
Salesforce-Agenten folgen diesem Paradigma:
Die Inferenzmaschine verwendet LLMs bei jedem Inferenz- und Beobachtungsschritt. Je nach Aktion können auch LLMs im Schritt „Handeln“ verwendet werden.
In diesem Abschnitt wird ein mehrschichtiger Ansatz zur Verbesserung des Determinismus von Agenten beschrieben. Jede Stufe baut auf der vorherigen auf, wobei die Komplexität und die Fähigkeiten zunehmen, wodurch mehr Kontrolle über das Verhalten des Agenten erreicht wird.
In der ersten Stufe geht es darum, Agenten in die Lage zu versetzen, relevante Themen selbstständig zu identifizieren und dann anhand von Zielen statt expliziten Anweisungen geeignete Aktionen auszuwählen. Der Kernmechanismus besteht darin, ein kontextbezogenes Verständnis zu nutzen, um auf Eingabe von Nutzer:innen zu reagieren. Auch wenn technisch gesehen jede Art von Aktion hinzugefügt werden kann, gehen wir auf dieser Ebene davon aus, dass es sich um Prompt-Aktion handelt. Anweisungsfreie Themen mit Prompt-Aktionen bieten eine schnelle und effiziente Möglichkeit, häufig gestellte Fragen zu bearbeiten.
Auf dieser Stufe liegt der Schwerpunkt darauf, durch dynamisches Verständnis ein Grundniveau an Reaktionsfähigkeit und Autonomie der Agenten zu etablieren.
Aufbauend auf der Grundlage der anweisungsfreien Aktionsauswahl werden in dieser Stufe explizite Anweisungen eingeführt, um das Verhalten des Agenten zu steuern. Durch das Hinzufügen präziser Anweisungen lässt sich besser steuern, wie Agenten auf verschiedene Situationen reagieren. Anweisungen an Agenten können in Form von Regeln, Richtlinien, Leitlinien und Beispielen formuliert werden. Diese geben dem Agenten konkrete Anweisungen, wie er mit verschiedenen Themen umgehen, Aktionen ausführen und deren Ergebnisse verarbeiten soll. Das Ziel dieser Stufe ist es, den Agenten klare Anweisungen zu geben, um die Konsistenz zu erhöhen und die Einhaltung der Unternehmensrichtlinien und -prozesse zu verbessern.
Kontextbildung beinhaltet die Verknüpfung des Verständnisses und der Reaktionen des Agenten mit externen Wissensquellen. Durch die Kontextbildung wird sichergestellt, dass die vom Agenten bereitgestellten Informationen genauer, aktueller und relevanter sind. Diese Ebene integriert den Zugriff auf Datenbanken, Knowledge Bases und andere Informationsspeicher. Die Kontextbildung der Antworten des Agenten anhand verifizierter Daten erhöht dessen Zuverlässigkeit und Vertrauenswürdigkeit.
Diese Ebene erweitert die Fähigkeit für Agenten, mit Variablen zu arbeiten. Dank Variablen können Agenten Interaktionen personalisieren, den Kontext über mehrere Interaktionen hinweg beibehalten und ihr Verhalten dynamisch anpassen, basierend auf spezifischen Datenpunkten, die während der Agentensitzung gespeichert werden. Beispielsweise könnte ein Agent die Präferenzen von Nutzer:innen, Bestelldetails und andere relevante Informationen erfassen und diese Daten dann zur individuellen Gestaltung der Interaktion nutzen. Mit Variablen sind Agenten besser in der Lage, komplexere, stärker vorgegebene und personalisiertere Interaktionen zu bewältigen.
Der letzte Schritt integriert den Agenten in die Kernfunktionen von Salesforce: APEX, APIs und Flow. Mithilfe der Integration kann der Agent komplexe Aktionen innerhalb des Salesforce-Ökosystems ausführen, beispielsweise auf Daten zugreifen und diese bearbeiten, Workflows auslösen und mit anderen Systemen interagieren.
Diese Stufe verwandelt den Agenten in ein leistungsstarkes Tool, das komplexe Aufgaben ausführen und direkt zu den Geschäftsergebnissen beitragen kann.
Ausgehend von einer Grundlinie der Reaktionsfähigkeit und Autonomie eines Agenten betrachten wir einen Agenten, der nur aus Themen und Aktionen mit den entsprechenden Beschreibungen besteht. Anhand dieses Beispielagenten können wir die verschiedenen Schritte der Inferenzmaschine vorstellen und zeigen, wie sie diese Beschreibungen nutzt, um die richtigen Themen und anschließend die auszuführenden Aktionen auszuwählen. Wenn wir die Themenanweisungen aus diesem Beispiel weglassen, können wir beobachten, dass die Agenten dieser ersten Ebene im Vergleich zu den Agenten auf höheren Ebenen den größten Freiheitsgrad haben. In Stufe eins kann der Agent völlig frei die Aktion auswählen, die er für angemessen hält, und zwar ausschließlich auf der Grundlage der laufenden Unterhaltung.
Aktivität | Schritte | Description |
---|---|---|
Agentenaufruf | 1 | Agent wird aufgerufen. |
Klassifizierung von Themen. | 2–3 | Die Engine analysiert die Nachricht der Kund:innen und ordnet sie anhand des Themensnamens und der Klassifizierungsbeschreibung dem am besten passenden Thema zu. |
Kontext-Assemblierung: | 4–5 | Sobald ein Thema ausgewählt wurde, sammelt die Engine den Geltungsbereich des Themas, Anweisungen und verfügbare Aktionen zusammen mit dem Unterhaltungsverlauf. (Hinweis: Die Anweisungen werden in Stufe zwei, „Agentenbasierte Kontrolle“, behandelt. |
Entscheidungsfindung |
Anhand all dieser Informationen entscheidet die Engine, ob sie: • eine Aktion zum Abrufen oder Aktualisieren von Informationen ausführt, • die Kund:innen um weitere Details bittet oder • direkt mit einer Antwort reagiert. |
|
Ausführung von Aktionen | 6–8 | Wenn eine Aktion erforderlich ist, führt die Engine sie aus und sammelt die Ergebnisse. |
Aktionsschleife | Der Motor wertet die neuen Informationen aus und entscheidet erneut, was als Nächstes zu tun ist – ob eine weitere Aktion ausgeführt, weitere Informationen angefordert oder eine Antwort gegeben werden soll. | |
Prüfung der Kontextbildung | Bevor eine endgültige Antwort gesendet wird, überprüft die Engine, ob die Antwort: • auf genauen Informationen aus Aktionen oder Anweisungen basiert • den in den Anweisungen zum Thema angegebenen Richtlinien entspricht • innerhalb der durch den Umfang des Themas festgelegten Grenzen bleibt |
|
Senden der Antwort | Die auf der Kontextbildung basierende Antwort wird an die Kund:innen gesendet. |
Überdenken Sie die folgenden Überlegungen zur Inferenzmaschine:
Die Inferenz umfasst vier Hauptschritte:
Die Themen sind darauf ausgelegt, die Genauigkeit zu verbessern, mit der Agenten die richtige Aktion oder Abfolge von Aktionen klassifizieren. Jedes Thema sollte aus semantisch eindeutigen Aktionen bestehen, die alle zu einer prägnanten Themenbeschreibung gehören können und somit zu einer ähnlichen Agentenfunktion gehören.
Das richtige Thema wird vom Inferenzmaschinen-LLM ausgewählt (Schritt 2–3 des Diagramms). Es wählt das Thema aus, dessen Klassifizierungsbeschreibung am ehesten mit der letzten Äußerung übereinstimmt, wobei ein Themen-Prompt verwendet wird. Dieser Themen-Prompt enthält die Klassifizierungsbeschreibungen aller Themen und den Unterhaltungsverlauf. Neben Äußerungen und Antworten von Agenten umfasst der Unterhaltungsverlauf auch ausgeführte Aktionen und deren Ergebnisse. Darüber hinaus enthält der Prompt wichtige Anweisungen, die eine Analyse im Kontext des Unterhaltungsverlaufs vorschreiben und vom LLM verlangen, seinen Denkprozess offenzulegen.
Weitere Überlegungen:
Themen haben zwei Ziele:
Durch die sorgfältige Organisation der Fähigkeiten des Agenten in klar definierte Themenbereiche, die aus miteinander verbundenen Aktionen bestehen, arbeitet der Agent effektiver und vorhersehbarer, und es ist einfacher, ihn zu aktualisieren und zu erweitern. Es gibt zwei mögliche Ansätze für das Themendesign: Top-down und Bottom-up.
Beide Ansätze führen zu guten Ergebnissen, wenn sie richtig befolgt werden.
Beginnen Sie damit, alle spezifischen Aktionen aufzulisten, die der Agent ausführen können sollte. In dieser Phase ist es besser, sehr konkret zu sein, als zu allgemein. Vermeiden Sie es, Aktionen vorzeitig zu gruppieren oder zu vereinfachen. Das Ziel ist es, einen umfassenden und detaillierten Überblick über die Möglichkeiten des Agenten zu schaffen.
Bei einem Serviceagent könnte die erste Liste beispielsweise Folgendes enthalten:
Beachten Sie, dass eine Aktion wie „Kundenbeschwerden lösen“ zu weit gefasst ist. Aktion sollte die feinste Granularität im Verhalten eines Agenten darstellen. Beschwerden können vielfältig sein, und verschiedene Aktionen decken sie bereits ab:
Markieren Sie Aktionen, die sich in ihrer Art ähneln, da sie zu Verwirrung für die Inferenzmaschine führen können. Ihre Beschreibungen unterscheiden sich semantisch nicht ausreichend, sodass die Infernzmaschine nicht weiß, welche Aktion in Schritt 5 ausgewählt werden soll.
Beispielsweise haben „Fehlerbehebung bei technischen Problemen“ und „Frage mit Wissen beantworten“ ähnliche Beschreibungen, aber ihre Funktionalität kann erheblich voneinander abweichen. Wenn Sie solche semantischen Überschneidungen markieren, können Sie erkennen, welche Aktionen Sie über mehrere Themen hinweg trennen sollten.
Sobald Aktionen klar definiert und ihre semantischen Überschneidungen identifiziert sind, können Aktionen in vorläufige Themen zusammengefasst werden. Ein Thema ist eine logische Kategorie von Funktionen – eine Gruppierung von Aktionen, die zusammen eine kohärente Fähigkeit oder Kompetenz des Agenten darstellen.
Beim Erstellen dieser Gruppierungen gilt Folgendes:
Hier ist ein Beispiel für eine erste Gruppierung für einen Serviceagent:
Thema 1:
Thema 2:
Sobald Sie die erste Gruppierung vorgenommen haben, schreiben Sie Klassifizierungsbeschreibungen für die einzelnen Themen.
Nach der Verfeinerung erhalten wir:
Zusammenfassend lässt sich sagen: Erstellen Sie zunächst eine umfassende Liste aller möglichen Aktionen und markieren Sie dann semantische Überschneidungen zwischen diesen Aktionen. Als Nächstes erstellen Sie eine Reihe von Themen, die mindestens alle semantischen Überschneidungen lösen (damit die Inferenzmaschine innerhalb der Grenzen eines Themas nicht verwirrt wird). Schreiben Sie anschließend die Klassifizierungsbeschreibung für jedes Thema. Wenn die Themen zu weit gefasst sind, unterteilen Sie sie in detailliertere Themen. Durch die Umsetzung dieser Leitlinien können Sie einen Agent entwickeln, der nicht nur gute Leistungen erbringt, sondern auch leicht zu warten und zu erweitern ist.
Diese Struktur bietet Support für eine bessere Inferenz, eine genauere Ausführung und klarere Entscheidungsgrenzen innerhalb des Verhaltens des Agenten. Darüber hinaus stützt sie sich auf die Zusammenarbeit zwischen Designern, Ingenieuren und Fachexperten, um die Fähigkeiten des Agenten transparenter und modularer zu gestalten.
Weitere Überlegungen zur effektiven Erstellung von Themen
Stellen Sie sich vor, ein Serviceagent erhält eine Garantieanfrage für eine Uhr. Das Garantieproblem scheint nicht mit dem Produktumtausch oder dem Support in Zusammenhang zu stehen. Die Bestellungsverwaltung scheint das am besten geeignete Thema zu sein, um diese Anfrage zu bearbeiten. Daher wird das letztere Thema von der Inferenzmaschine als dasjenige ausgewählt, das die Anfrage am wahrscheinlichsten zur Erfüllung führt.
Nach der Themenauswahl wählt die Inferenzmaschine die richtigen Aktionen aus, die aus dem ausgewählten Thema ausgeführt werden sollen. Auch hierfür ist das Inferenzmaschinen-LLM verantwortlich, die einen weiteren Prompt namens „Beobachtungs-Prompt” verwendet. Der Zweck des Beobachtungs-Prompts besteht darin, den nächsten Inferenz-Schritt zu ermitteln. Der nächste Schritt kann einer der folgenden sein:
Die Eingabe für den Beobachtungs-Prompt setzt sich aus allen Beschreibungen aller Aktionen aus dem Thema sowie aus dem Unterhaltungsverlauf zusammen.
Aktion ist eine vordefinierte Aufgabe, die der Agent ausführen kann, um seine Arbeit zu erledigen. Aktion ist die feinkörnigste Definition von Arbeit. Es gibt fünf verschiedene Arten von Agentenaktionen: (1) Apex-Code ausführen, (2) eine API aufrufen, (3) einen Flow ausführen, (4) eine LLM-Antwort auf eine Eingabeaufforderungsvorlage erhalten und (5) ein Vorhersagemodell aufrufen. Die meisten dieser Aktionen können deterministisch sein. Eine Ausnahme besteht darin, eine Antwort auf eine Prompt-Vorlage zu erhalten (vorausgesetzt, dass das externe System, die Flow- oder die Apex-Aktion keine probabilistischen Elemente wie Prompt-Aufrufe enthält). Wir behandeln diese Probleme auf der fünften Ebene der agentenbasierten Kontrolle.
Fahren wir mit dem vorherigen Beispiel fort, in dem ein Serviceagent eine Frage zur Garantieregelung für eine Uhr erhalten hat. Nach Auswahl des Themas Auftragsverwaltung wird die wahrscheinlichste Aktion ausgewählt. Da es sich um das Thema Auftragsverwaltung handelt, ist der erste logische Schritt, die Bestellung nachzuschlagen (wozu sollte man sonst Garantieinformationen abrufen?), indem die Aktion „Bestellung suchen” gestartet wird.
Eine Nutzeräußerung kann die Ausführung mehrerer Aktionen auslösen, bevor eine Antwort an die Nutzer:innen zurückgesendet wird. Dies ist auf die Agenten-basierte Schleife zurückzuführen, die so lange die nächstbeste Aktion auswählt und ausführt, bis eine der folgenden Bedingungen erfüllt ist:
Aktionen unterliegen keinem bestimmten Timeout. So vermeiden Sie Unterbrechungen, wenn die Ausführungszeiten von Aktionen je nach Komplexität variieren. Einige Aktionen sind einfach komplexer auszuführen als andere.
Nach dem Start einer Auftragssuche wertet die Inferenzmaschine die bisher generierte Antwort aus und entscheidet dann, dass weitere Schritte erforderlich sind, bevor eine Antwort an die Nutzer:innen zurückgesendet werden kann. Es geht darum, die Garantiebestimmungen nachzuschlagen, da die Bestellung nun im Unterhaltungsverlauf vorhanden ist.
Dabei stellt der Agent jedoch fest, dass der/die Kund:in tatsächlich zwei Uhren gekauft hat, die durch die Aktion „Bestellsuche“ abgerufen wurden. Daher entscheidet die Inferenzmaschine in der Agenten-basierten Schleife nun, die Kund:innen zu bitten, anzugeben, für welche Uhr er Garantieinformationen benötigt.
Die Zuverlässigkeit des Agenten wird durch eine sorgfältige Verteilung der Aktionen auf verschiedene Themenbereiche und durch gut beschriebene Aktionen und Themenbereiche erhöht. Diese Methoden erlauben jedoch nicht die Formulierung von Geschäftsregeln, Richtlinien und Leitplanken innerhalb der Inferenzmaschine. Anweisungen stellen eine zusätzliche wichtige Ebene der agentenbasierten Kontrolle dar. Anweisungen bieten der Inferenzmaschine weitere Hilfestellung, wenn verschiedene Aktionen zusammen verwendet werden. Dies ermöglicht einen differenzierteren und richtlinienbasierten Ansatz für das Verhalten von Agenten. Mit Anweisungen können Agent Builder sicherstellen, dass Agenten nicht nur zuverlässig funktionieren, sondern auch festgelegte Geschäftsregeln und Best Practices einhalten.
Die Anweisungen, die auf Themenebene geschrieben sind, werden Teil des Beobachtungs-Prompts. Themenanweisungen leiten die Inferenzmaschine bei der Auswahl geeigneter Aktionen. Sie können Anleitungen dazu geben, wann welche Aktion ausgewählt werden soll, und sie können zur Definition von Aktionsabhängigkeiten verwendet werden. Unter bestimmten Umständen können sie auch sequentielle Kontrollen durchsetzen. Es gibt jedoch Alternativen dafür, und die Anweisungen sollten für diese Anforderung sorgfältig befolgt werden. Themenanweisungen werden einzeln hinzugefügt und erscheinen in separaten Feldern in der Benutzeroberfläche. Sie werden jedoch immer gemeinsam an den Beobachtungs-Prompt gesendet. Das Hinzufügen von Anweisungen in separaten Feldern erhöht die Lesbarkeit und Wartbarkeit des Themas, hat jedoch keinen Einfluss auf die Inferenzmaschine.
Manchmal gelten Anweisungen global für den Agenten und beziehen sich nicht auf ein bestimmtes Thema. Die Funktion zur Verwaltung globaler Anweisungen ist derzeit in der Produkt-Roadmap enthalten. Best Practice für das Verfassen von Themenanweisungen finden Sie im Agentforce-Leitfaden zu Themen, Anweisungen und Aktionen . Sehen wir uns einige zusätzliche Richtlinien an.
Vermeiden Sie es, den Agenten zu genau vorzuschreiben, wie sie mit den Nutzer:innen eine Unterhaltung führen sollen. Übermäßiges Skripting kann die Fähigkeit eines Agenten beeinträchtigen, eine Beziehung aufzubauen, die individuellen Anforderungen der Nutzer:innen zu verstehen und in Echtzeit effektiv auf dynamische Umstände zu reagieren. Außerdem können langwierige Anweisungen dazu führen, dass der Agent langsamer reagiert und die Inferzinfmaschine verwirrt wird. Determinismus über Anweisungen zu erzwingen, ist nicht der bevorzugte Ansatz.
Beispielsweise muss ein Agent nicht darauf hingewiesen werden, in Antworten auf Serviceanfragen nicht auf Wettbewerber Bezug zu nehmen. Dies kann zu unerwünschtem Verhalten führen, da der Agent sich auch weigern kann, Fragen zur Integration mit einem Anbieter zu beantworten, der gleichzeitig ein Wettbewerber ist. Stattdessen könnte die Anweisung etwa lauten: „Wenn du über Wettbewerber sprichst, antworte im besten Interesse des Unternehmens.“ Dadurch werden restriktive, bedingte Anweisungen wie „Erwähnee den Wettbewerber xyz nur im Fall …“ vermieden und stattdessen die Inferenz des LLM genutzt. Dieses Beispiel zeigt, wie Anweisungen auf einer allgemeineren, abstrakteren Ebene gegeben werden können, ähnlich wie menschliche Service-Mitarbeiter:innen nach ihrer Einstellung geschult werden.
Schauen wir uns einige weitere Beispiele an, wie Sie nicht tun sollten. Dies sind einige schlechte Anweisungen, die einem Serviceagent gegeben wurden, der Bewerber:innenprofile auf einer Jobbörse bearbeitet. Diese Anweisungen versuchen, jede mögliche Äußerung von Kund:innen zu antizipieren und sollten daher vermieden werden:
Anweisung 1:
Der Agent erhält die folgende Äußerung: „Kann ich ein Bild zu meinem Profil hinzufügen?“ Frage die Kund:innen dann sofort: „Was ist Ihr Profiltyp?“
Anweisung 2:
Wenn Kund:innen ein Premium-Profil angeben, antworte mit „Ich werde Ihre Vertragsdetails überprüfen“, suche dann nach den Vertragsdetails und überprüfe, ob vereinbart wurde, dass sie das Profilbild aktualisieren können.
Wenn vereinbart wurde, dass Bewerber:innen dies tun können, antworte mit „Ja, das ist möglich. Ich werde das für Sie aktualisieren. Können Sie Ihr neues Foto zur Verfügung stellen?“ Aktualisiere das Bewerber:innen-Profil entsprechend nach Eingang des Fotos. Wenn der Vertrag keine Änderungen am Profilbild enthält, sage: „Tut mir leid, das ist nicht möglich. Ich leite Sie an einen Menschen weiter.“
Anweisung 3:
Nicht-Premium-Profil: Wenn Kund:innen ein nicht-Premium-Profil angeben, antworte mit „Ihr Bild kann nicht aktualisiert werden. Wenn Sie das tun möchten, lassen Sie es mich wissen und ich werde Sie an einen Menschen weiterleiten.“
Anweisung 4:
Wenn der Profiltyp unklar ist, antworte mit „Ich konnte Ihren Profiltyp nichtermitteln“.
Anstelle dieser Art von Mikromanagement sollten Sie einen flexibleren Ansatz verfolgen, der das Verhalten und die Vorgehensweise der Agenten vorgibt. Beachten Sie die folgenden Best Practices:
„Nur Bewerber:innen mit einem Premium-Profil, deren Vertrag Bildänderungen zulässt, können ihr Bild aktualisieren.“
Basierend auf diesen Best Practices könnten bessere Anweisungen wie folgt aussehen:
Anweisung 1:
: „Verwende Knowledge-Aktionen, um Richtlinien für den Fall zu überprüfen, dass Kontoänderungen angefordert werden.“
Anweisung 2:
: „Antworte nicht auf Fragen, für die keine anwendbare Richtlinie gefunden werden konnte.“
Die Anwendung der obigen Richtlinien kann die Agenten-Ergebnisse verbessern. Wenn Kund:innen nun den Agenten um eine Profiländerung bitten, versteht der Agent, dass er die erforderliche Richtlinie aus der Knowledge Base abrufen, die abgerufenen Regeln interpretieren, diese Regeln auf den Kontext anwenden und schließlich dem Kunden antworten muss. Im Gegensatz zum „Overscripting“ ist dieser Verhaltensansatz viel allgemeiner und breiter anwendbar. Ohne jede mögliche Unterhaltung ausformulieren zu müssen, kann der Agent nun flexibel mit dem gewünschten Verhalten auf ein breiteres Spektrum an Unterhaltungsthemen reagieren.
Fahren wir mit dem Beispiel von Agenten auf Recruiting-Websites fort. Der Agent sollte in der Lage sein, die Planung von Vorstellungsgesprächen mit der entsprechenden Person, die das Vorstellungsgespräch führt, zu übernehmen. Dazu sollte der Agent zunächst die Verfügbarkeit der Personalverantwortlichen prüfen und den Bewerber:innen dann drei mögliche Termine vorschlagen.
In diesem Fall sollten die Anweisungen, um die Reihenfolge der Ausführung beizubehalten, nicht in separaten Feldern stehen:
Überprüfe die Verfügbarkeit der Personalverantwortlichen für das Vorstellungsgespräch.
Schlage den Bewerber:innen dann geeignete Termine vor.
Diese Anweisungen funktionieren nicht, weil die Inferzmaschine nicht weiß, worauf sich die „Dann“-Anweisung in Anweisung 2 bezieht. Dies liegt daran, dass die Anweisungen als Gruppe und nicht in einer bestimmten Reihenfolge an die Inferenzmaschine gesendet werden.
Stattdessen sollten sequenzdefinierende Anweisungen zu einer einzigen Anweisung zusammengefasst und wie folgt geschrieben werden:
Überprüfe die Verfügbarkeit der Personalverantwortlichen für das Vorstellungsgespräch. Schlage den Bewerber:innen dann geeignete Termine vor.
Wenn jedoch davon ausgegangen wird, dass nur eine Prompt-Aktion ausgeführt wurde, kann eine Anweisung implementiert werden, die den Agenten anweist, die Ausgabe einer Aktion niemals zu ändern. Dadurch wird ein vorhersehbareres und zuverlässigeres Verhalten der Agenten gewährleistet.
Die strikte Einhaltung dieser Vorgaben in genehmigten Prompt-Vorlagen ist in bestimmten Szenarien von entscheidender Bedeutung, insbesondere wenn Konsistenz, Compliance und vordefinierte Nachrichten wichtig sind. Dies sind zwei Beispiele:
Diese Anweisung schränkt die Freiheit des Agenten ein, das Ergebnis von Aktionen zu ändern. Stellen Sie sicher, dass die Anweisung auf die Ausgabe der Eingabeaufforderungsvorlage (z. B. „promptResponse“) verweist, wie in diesem Plan Tracer gezeigt.
In diesem Fall kann die Anweisung also lauten:
„
Ausgabe von promptResponse nicht ändern, unabhängig vom Kanal des Agenten.
“
Einschränkungen bei der Durchsetzung strenger Einhaltung:
Wenn eine Interaktion mehrere unterschiedliche Aktionen des Agenten erfordert, ist die strikte Einhaltung einer einzigen Vorlage nicht durchführbar. In diesem Szenario muss die Inferenzmaschine diese Aktionen zu einer einzigen Antwort zusammenfassen und daher jede einzelne Aktion ändern.
Basierend auf den allgemeinen LLM-Eigenschaften liegt die Zielanzahl der Anweisungen zwischen 5 und 10, abhängig von der Komplexität der Anweisungen und der Interaktion zwischen den Anweisungen. Diese Eigenschaften der Anweisungen beeinflussen die Anzahl der Anweisungen, denen die Inferenzmaschine folgen kann:
Wenn eine Anweisung unbedingt befolgt werden muss, fügen Sie Begriffe hinzu, die deren Wichtigkeit widerspiegeln:
Die Kontextbildung von Antworten in Daten verbessert die Zuverlässigkeit und Vertrauenswürdigkeit der Agenten erheblich. Kontextbasierte Antworten beruhen auf Fakten und nicht auf Spekulationen oder veraltetem Knowledge. Abruf-erweiterte Generierung (RAG) ist eine weit verbreitete Technik, die es einem Agenten ermöglicht, auf eine Knowledge Base zuzugreifen und diese zu nutzen, um genauere und kontextbezogene Antworten zu formulieren. Basierend auf der Anfrage eines Benutzers ruft ein Agent mithilfe von Abruf-erweiterter Generierung (RAG) relevante Informationen aus geeigneten Datenquellen ab und ergänzt den Prompt mit diesen Informationen, bevor er ihn an das LLM übermittelt. Ein Agent, der Abruf-erweiterte Generierung (RAG) verwendet, bietet eine höhere Qualität, Genauigkeit und allgemeine Nützlichkeit der Agent-Interaktionen, was das Vertrauen und die Zufriedenheit der Benutzer erhöht. Best Practice für die Abruf-erweiterte Generierung (RAG) werden ausführlich in einem öffentlich zugänglichen Whitepaper mit dem Titel Agentforce und RAG: Best Practice für bessere Agenten beschrieben.
Die Unterscheidung zwischen Knowledge und Anweisungen ist wichtig, um das richtige Gleichgewicht zwischen Anleitung und Flexibilität zu finden, da sie unterschiedliche Zwecke – Erfüllung – erfüllen:
Abruf-erweiterte Generierung (RAG) fungiert als intelligente Datenschicht für Knowledge. Agenten erhalten Zugriff auf Informationen in verschiedenen Formaten und relevante Textfragmente zur Beantwortung von Fragen. Mit Abruf-erweiterter Generierung (RAG) können Agenten genauere LLM-Antworten erhalten, ohne die LLM-Prompt mit überflüssigen Inhalten zu überladen oder ihr Kontextfenster zu überschreiten.
Zur Laufzeit führt die abruf-erweiterte Generierung (RAG) drei Schritte aus:
In Agentforce kann die abruf-erweiterte Generierung (RAG) mit oder ohne Eingabeaufforderungsvorlage verwendet werden:
Die empfohlene Methode ist Option 1. Sie reduziert die Anzahl der Aufgaben, die die Inferenzmaschine ausführen muss, und verbessert dadurch die Qualität ihrer Antworten. Im nächsten Abschnitt geht es um eine Ausnahme von dieser Regel, bei der der Inhalt während der gesamten Unterhaltung erhalten bleibt und daher explizit einer Aktion zugeordnet wird.
Speichern der Ausgabe der Abruf-erweiterten Generierung (RAG)in einer Variablen: Wenn die Anzahl der Interaktionsgrenzen erreicht sein könnte, die Ausgabe der Abruf-erweiterten Generierung (RAG) in einer Variablen speichern. Dadurch bleiben die Informationen für Kontrolle von Agenteninteraktionen über den Standardgrenzwert hinaus zugänglich. Ein Beispiel dafür finden Sie im nächsten Abschnitt.
Bestimmte Geschäftsprozesse erfordern eine noch vorhersehbarere Ausführung, wie beispielsweise die Durchsetzung einer bestimmten Aktion oder Bedingungen für das Auslösen von Aktionen oder Themen.
Um dieses deterministische Verhalten zu erreichen, können Variablen verwendet werden. Variablen fungieren als strukturierte Form des Kurzzeitgedächtnisses eines Agenten, die als Ein- oder Ausgänge für Aktionen dienen können. Darüber hinaus kann der Status einer Variablen das Auslösen bestimmter Themen und Aktionen steuern.
Variablentypen unterstützen die folgenden Funktionen:
Kontextvariablen | Benutzerdefinierte Variablen | |
---|---|---|
Kann von Benutzer:innen instanziiert werden | X | ✓ |
Kann Eingabe von Aktionen sein | ✓ | ✓ |
Kann Ausgabe von Aktionen sein | X | ✓ |
Kann durch Aktionen aktualisiert werden | X | ✓ |
Kann in Filtern von Aktionen und Themen verwendet werden | ✓ | ✓ |
Schauen wir uns die Variablen genauer an, indem wir ein Beispiel für einen Anwendungsfall geben: Einen Agenten für die Fehlerbehebung mit Kundenkontakt. In diesem Beispiel werden Variablen für alle drei Zwecke verwendet: persistente dynamische Kontextbildung, Aktionsein-/ausgaben und Filterung.
In diesem Beispiel hilft der Agent Kund:innen, ein technisches Geräteproblem zu beheben. Die Fehlerbehebung umfasst in der Regel mehrere Schritte. Der Agent sollte eine Service-Experience bieten, die die Arbeit von menschlichen Servicemitarbeiter:innen nachahmt. Dazu sollte der Agent den Kund:innen nicht alle Schritte zur Fehlerbehebung auf einmal bereitstellen. Stattdessen sollte er Schritt-für-Schritt-Anweisungen bieten, zusammen mit der Möglichkeit, zwischen den Schritten zu navigieren (einschließlich der Rückkehr zu zuvor behandelten Schritten), je nachdem, wie die Kund:innen reagieren.
Eine Herausforderung dabei ist die Fähigkeit des Agenten, alle Schritte zur Fehlerbehebung während der gesamten Unterhaltung im Gedächtnis zu behalten. Angesichts des begrenzten Speichers des Agenten aufgrund der begrenzten Anzahl von Interaktionen, die er speichern kann, können diese Schritte aus dem Kontext für die Inferenzmaschine entfernt werden, wenn die Unterhaltung zu lang wird.
Die Lösung für dieses Problem besteht darin, eine Variable zu verwenden, um die Inferenzmaschine dynamisch über alle Schritte der Fehlerbehebung hinweg zu Kontextbildung zu verwenden. Durch das Abrufen der Informationen und deren Speicherung in einer Variablen bleiben diese während der gesamten Unterhaltung verfügbar und können aktualisiert werden. Die Inferenzmaschine verwendet die in dieser Variablen gespeicherten Informationen für die dynamische Kontextbildung.
In diesem Beispiel umfasst ein Thema zwei Aktionen. Diese beiden Aktionen sind erforderlich, um einen konsistenten Datenfluss zu gewährleisten. Die erste Aktion wird verwendet, um die Variable zu füllen, die alle Schritte zur Fehlerbehebung enthält. Die zweite Aktion verwendet diese Variable während der Fehlerbehebung selbst.
Die ursprüngliche Kundenfrage wird in beide Aktionen eingegeben. Die zweite Aktion hat einen weitere Eingabe: Den Inhalt der Variablen „Lösungsschritte“. Diese Variable wurde durch die erste Aktion festgelegt. Beachten Sie, dass die zweite Aktion die Schritte zur Fehlerbehebung nicht selbst abruft, sondern sie stattdessen als Eingabe aus der ersten Aktion über die Variable erhält. Das folgende Diagramm zeigt den Daten-Flow zwischen diesen beiden Aktionen.
Die Aktion „Während der Problemlösung verwenden“ bezieht sich immer auf die ursprünglichen Schritte zur Fehlerbehebung, die von der Aktion „Problemlösungsschritte“ abgerufen wurden. Dieser Daten-Flow stellt sicher, dass die Schritte zur Fehlerbehebung unabhängig von der Länge der Unterhaltung konsistent und stets verfügbar sind.
Um die in diesem Beispiel definierten Aktionen auszuführen, sind spezifische Anweisungen erforderlich, wie beispielsweise „Führe immer zuerst die ‚Schritte zum Ausfüllen der Lösung‘ aus“. Da die von Agenten verwendeten LLMS jedoch nicht deterministisch sind, kann dies in bestimmten Fällen zu einer anderen Reihenfolge führen. Um eine deterministische Ausführungsreihenfolge zu gewährleisten, führen wir bedingte Filter für diese Variablen ein, um die richtige Aktionsreihenfolge durchzusetzen. Der Agent liest den Wert der Variablen „Lösungsschritte“ und definiert zwei Filter, die darauf basieren, ob diese Variable einen Wert hat oder nicht.
Diese bedingten Filter erzwingen jetzt deterministisch die Reihenfolge der Ausführung von Aktionen: „Während der Problemlösung verwenden“ muss warten, bis „Lösungsschritte“ ihre Arbeit abgeschlossen hat, um sicherzustellen, dass die Variable „Lösungsschritte“ immer einen Wert hat.
Um die korrekte Ausführung der Aktion zu gewährleisten, ist eine dritte Aktion erforderlich, um die Variable „Lösungsschritte“ zurückzusetzen, wenn das Problem vollständig gelöst ist. Infolgedessen wird der Agent in den erforderlichen Status zurückgesetzt, um bei einem möglichen neuen, anderen Problem zu helfen. Diese dritte Aktion heißt „Lösungsvariable leeren“. Das vollständige Aktionsdiagramm ist unten dargestellt.
Variablen sind entscheidend, damit unser Agent zur Fehlerbehebung Kund:innenprobleme lösen kann, indem sie Folgendes ermöglichen:
Im Zeitalter der generativen KI bleibt die prädiktive KI von entscheidender Bedeutung, da sie die grundlegende Intelligenz bildet, die generative Fähigkeiten steuert, verbessert und in einen Kontext setzt. Während generative KI sich auf die Erstellung neuer Inhalte wie Texte, Bilder oder Videos konzentriert, erstellen prädiktive KI-Modelle Prognosen über die Zukunft auf der Grundlage von Eingaben aus Echtzeit-Geschäftsdaten. Beispiele für Geschäftsergebnisse sind die Wahrscheinlichkeit der Abwanderung von Kund:innen, die Wahrscheinlichkeit von Konversionen, die Wahrscheinlichkeit einer Eskalation von Kundenvorgängen, der Customer Lifetime Value und die Klassifizierung von Kundenvorgängen. Prognosen können dabei helfen, die Bedürfnisse der Nutzer:innen zu antizipieren, Ergebnisse zu personalisieren, Entscheidungen zu treffen und die Relevanz von Inhalten in Echtzeit zu optimieren – all dies durch die Analyse von Trends und Zahlen. Beispielsweise sorgt prädiktive KI in Anwendungen wie personalisiertem Lernen, Gesundheitswesen oder Finanzplanung dafür, dass generative Ergebnisse mit individuellen Kontexten und wahrscheinlichen Zukunftsszenarien übereinstimmen. Zusammen schaffen prädiktive KI und generative KI eine starke Synergie, indem sie Weitsicht mit Kreativität verbinden, um intelligentere, anpassungsfähigere und wirkungsvollere Technologielösungen voranzutreiben.
Um die Ergebnisse des Vorhersagemodells in die agentenbasierten Arbeitsabläufe zu integrieren, fügen Sie einfach Vorhersagemodell-Aktionen zu den Agentforce-Datenbeständen hinzu. Model Builder bietet die Möglichkeit, Vorhersagemodelle zu erstellen oder zu registrieren (BYO). Diese Modelle werden dann vom Agenten für Vorhersagen verwendet. Die daraus resultierenden Vorhersagen (sowie Prädiktoren) können in benutzerdefinierten Variablen gespeichert werden. Agenten können diese variablen Werte als Eingaben verwenden und die Ausführung bestimmter Aktionen und Themen davon abhängig machen.
Bestimmte Geschäftsprozesse müssen in einer genauen Reihenfolge ausgeführt werden und erfordern während der Ausführung keine Benutzereingabe. In diesem Fall kann ein vordefinierter Ablauf von Schritten über Flows, APIs oder Apex erzwungen werden. Wenn Sie einen bestehenden Flow haben, der in der Produktion verwendet wird, ist das ein guter Hinweis darauf, dass er vom Agenten für die Ausführung dieses Geschäftsprozesses beibehalten und verwendet werden kann. Alle folgenden Beispiele enthalten vordefinierte Abfolgen von Schritten, die der Agent ohne Benutzereingabe ausführen kann. Das agentenbasierte Verhalten besteht in diesem Fall darin, zu identifizieren, welcher deterministische Prozess ausgeführt werden soll, wie die erforderlichen Eingaben gesammelt und wie die Ausgaben interpretiert und verarbeitet werden.
Geschäftsprozesse mit vielen sequenziellen Schritten (mehr als drei, als Faustregel) und vielen Abhängigkeiten von Variablen werden zu komplex und umständlich, um sie mit Anweisungen durchzusetzen. In diesem Kundenvorgang ist es möglich, sie einfach mithilfe der in diesem Abschnitt aufgeführten deterministischen Aktion fest zu codieren. Beachten Sie abschließend, dass diese Implementierungen nicht deterministische Elemente enthalten können, z. B. das Aufrufen von LLMS mit aufgelösten Eingabeaufforderungsvorlagen. Daher sind sie nicht unbedingt vollständig deterministisch, End-to-End, und sie können immer noch das gewünschte Maß an Fließfähigkeit zeigen, für das Agenten bekannt sind.
Die Abfolge der Schritte in einer Marketing-Journey unterliegt festen Regeln und hängt nicht von den Eingaben der Nutzer:innen in der Unterhaltung ab. Daher kann der Flow als Agentforce-Aktion verwendet werden. Eine aufrufbare Aktion kann erstellt werden, um Hintergrund- oder ereignisausgelöste Aufgaben aus einer Lösungskomponente zu erledigen, die einen Flow oder eine Apex-Klasse aufrufen kann. Fügen Sie einer Flow- oder Apex-Klasse eine aufrufbare Aktion hinzu und geben Sie die Aufgabe an, die der Agent abschließt, sowie die Bedingungen, die den Agent auslösen. Aufrufbare Aktionen können auch die Kontextvariablen des Agenten tragen und wichtige Informationen weiterleiten.
Flows von Salesforce können verwendet werden, um Routineaufgaben zu automatisieren, z. B. das Erstellen von Follow-up-Aufgaben, das Versenden von Erinnerungs-E-Mails oder das Aktualisieren von Datensätzen. Flows machen die Arbeit effizienter und produktiver. Agenten können Flows auch mit Flow-Aktionen ausführen. Aufgrund ihres Determinismus sind Flows eine großartige Möglichkeit, agentenbasiertes Verhalten zu lenken, wenn ein Geschäftsprozess in einer bestimmten Sequenz ausgeführt werden muss. Ein guter Hinweis darauf, dass eine Flow-Aktion bevorzugt wird, ist, wenn das Thema sonst Anweisungen wie „zuerst tun, dann tun und schließlich tun“ enthalten würde. Die Durchsetzung von Sequenzen aus mehr als drei Schritten ist mühsam, über Anweisungen und Variablen zu verwalten.
Flows können auch nicht deterministische Elemente enthalten, indem sie Prompts aufrufen. Ein Prompt-Knoten im Flow ruft eine Prompt-Vorlage auf und sammelt die Antwort, die an andere Elemente im Flow weitergeleitet werden kann. Diese weiteren Elemente können wiederum Prompt-Knoten sein, z. B. die vorherige Antwort zusammenfassen und so eine Kette von Prompts erstellen. Dies ist besonders nützlich, wenn die Regeln für die Prompt-Verkettung durch feste Elemente definiert sind und nicht von der Benutzereingabe abhängen. Ein Beispiel hierfür ist die agentenbasierte Abruf-erweiterte Generierung (RAG), bei der eine vordefinierte Abfolge von Abrufprogrammen oder Prompts in einem Flow auf bestimmte Datenquellen in einer bestimmten Reihenfolge zugreifen kann, beispielsweise indem zunächst Daten aus dem Länderdokument eines Benutzers abgerufen werden, bevor bei Bedarf andere Quellen konsultiert werden. Dieser Kettenmechanismus setzt eine zuverlässige und geordnete Extraktion relevanter Informationen durch.
Ähnlich wie Flows sind Apex- und API-Aktionen insofern deterministisch, als eine vordefinierte Sequenz von Aktionen codiert werden kann. Diese Aktionen können nicht deterministische Elemente enthalten, z. B. das Aufrufen von Eingabeaufforderungsvorlagen oder LLM-Aufrufen. In ihrer Definition führen sie diese Schritte jedoch deterministisch aus, was die agentenbasierte Variabilität reduziert, indem sie die Aktion zur richtigen Zeit aufrufen, den erforderlichen Input sammeln und den Output verarbeiten. Diese Verantwortlichkeiten müssen immer noch durch agentenbasierte Anweisungen geregelt werden, also sind sie nicht deterministisch. APEX- und API-Aktionen sind das Pro-Code-Äquivalent zu Flow-Aktionen.
Um ein zuverlässiges Agentenverhalten zu erreichen, ist ein strukturierter Ansatz erforderlich, der die inhärente Flexibilität von großen Sprachmodellen (LLMS) mit der Notwendigkeit einer unternehmensweiten Kontrolle und Vorhersehbarkeit in Einklang bringt. In diesem Artikel wurde eine mehrschichtige Strategie zur Umsetzung des „geführten Determinismus” skizziert, die die Schaffung von Agenten ermöglicht, die nicht nur intelligent und autonom sind, sondern auch durchgehend präzise arbeiten und auf die Geschäftsprozesse abgestimmt sind. Der Schlüssel zum Aufbau dieser vertrauenswürdigen Agenten liegt in der schrittweisen Implementierung von Kontrollmechanismen, von denen jeder eine neue Ebene der Zuverlässigkeit hinzufügt:
Durch die systematische Anwendung dieser Kontrollebenen – von durchdachtem Design und klaren Anweisungen bis hin zu Daten-Kontextbildung, Statusverwaltung und deterministischer Prozessautomatisierung – können Entwickler die Herausforderungen beim Aufbau zuverlässiger Agenten mit konsistenten Geschäftsergebnissen erfolgreich meistern. Dieser strategische Ansatz stellt sicher, dass Agentforce-Agenten vertrauenswürdig sind, um wichtige Geschäftsfunktionen mit der Genauigkeit und Konsistenz auszuführen, die in der Unternehmenslandschaft erforderlich sind.
Die fünf Ebenen des Determinismus in der KI sind: instruktionsfreie Themen- und Aktionauswahl, Agenteninstruktionen, Kontextbildung, Agentenvariablen und deterministische Aktionen unter Verwendung von Flows, Apex und APIs.
Das Verständnis des KI-Determinismus ist entscheidend für den Aufbau zuverlässiger Agenten, die wichtige Geschäftsfunktionen präzise und konsistent ausführen können und ein Gleichgewicht zwischen kreativer Fließfähigkeit und Unternehmenskontrolle finden.
In der KI bezieht sich „deterministisch“ auf die Fähigkeit eines Systems, bei gleichen Eingaben und Bedingungen immer die gleichen Ergebnisse zu liefern, was eine für zuverlässiges Agentenverhalten unerlässliche Strenge und Disziplin mit sich bringt.
Nichtdeterminismus in KI-Systemen entsteht hauptsächlich durch den Einsatz von großen Sprachmodellen (LLMS), die von Natur aus nicht deterministisch sind und es Agenten ermöglichen, flexibel und anpassungsfähig zu sein.
Der Determinismus verbessert den Determinismus von KI-Agenten schrittweise und beeinträchtigt dadurch ihre Autonomie – mit dem Fortschritt der Ebenen werden Agenten weniger autonom, aber zuverlässiger und auf Geschäftsprozesse abgestimmt.
Weniger deterministische KI-Systeme stellen Herausforderungen in Bezug auf die Zuverlässigkeit und die Einhaltung der Geschäftsanforderungen dar, da ihr inhärenter Nichtdeterminismus zu unvorhersehbarem Verhalten führen kann.
Unternehmen verwalten KI-Systeme mit unterschiedlichem Determinismusgrad, indem sie einen mehrschichtigen Ansatz anwenden, der durchdachtes Design, klare Anweisungen, Kontextbildung, Zustandsverwaltung durch Variablen und deterministische Prozessautomatisierung mithilfe von Flows, Apex und APIs umfasst.
Informieren Sie sich in unserer Bibliothek über das Konfigurieren von KI-Assistenten.
Führen Sie Agentforce ein – schnell, sicher und mit messbarem ROI.
Erzählen Sie uns von Ihren Geschäftsanforderungen. Wir freuen uns darauf, Sie zu beraten.