Servicekonsole mit einem Chat-Fenster, in dem Einstein bei der Beantwortung von Fragen hilft

Was ist eine Reasoning Engine?

Tauchen Sie noch tiefer in die Welt der LLMs ein, damit Sie das Beste aus Ihrem Konversations-Copiloten herausholen können.

Shipra Gupta

Stellen Sie sich vor, KI könnte routinemäßige Geschäftsaufgaben wie das Verfassen von E-Mails, das Erstellen von Kampagnenbriefings, das Erstellen von Webseiten, das Recherchieren von Wettbewerbern, das Analysieren von Daten und das Zusammenfassen von Anrufen automatisieren. Die Automatisierung solcher sich wiederholenden Aufgaben kann eine immense Menge an wertvoller menschlicher Zeit und Mühe für komplexere und kreativere Aktivitäten wie Geschäftsstrategie und Beziehungsaufbau freisetzen.

Die Automatisierung solcher routinemäßigen Geschäftsaufgaben erfordert die Simulation menschlicher Intelligenz, indem die KI als Argumentationsmaschine fungiert. Das ist generative KI auf einer anderen Ebene. Neben der Kommunikation in natürlicher Sprache wird KI auch bei der Problemlösung und Entscheidungsfindung helfen. Das System lernt aus den bereitgestellten Informationen, bewertet Vor- und Nachteile, prognostiziert Ergebnisse und trifft logische Entscheidungen. Angesichts der technologischen Fortschritte der letzten Zeit stehen wir am Anfang einer solchen KI-Fähigkeit , und sie hat viele Menschen in der Wissenschafts- und Geschäftswelt begeistert.

Unternehmens-KI, die in CRM für Unternehmen integriert ist

Künstliche Intelligenz in Salesforce

Salesforce KI liefert eine vertrauenswürdige, erweiterbare künstliche Intelligenz (KI), die mit der Struktur unserer Salesforce Platform verwoben ist. Nutzen Sie unsere KI mit Ihren Kundendaten, um individuell anpassbare, prädiktive und generative KI-Erlebnisse zu schaffen und Ihre geschäftlichen Bedürfnisse sicher zu erfüllen. Mit Einstein können alle Prozesse, Abteilungen, User:innen und Branchen von konversationeller KI profitieren.

Was ist eine AI Reasoning Engine?

Eine Reasoning Engine ist ein KI-System, das die menschliche Entscheidungs- und Problemlösungsfähigkeit auf der Grundlage bestimmter Regeln, Daten und Logik nachahmt. Es gibt drei Arten von menschlichen Argumentations- oder Inferenzmechanismen, die Reasoning-Engines tendenziell emulieren:

  1. Deduktives Denken zieht eine Schlussfolgerung, die auf universellen und allgemein akzeptierten Fakten basiert. Zum Beispiel: „Alle Vögel legen Eier. Eine Taube ist ein Vogel. Deshalb legen Tauben Eier.„
  2. Induktives Denken – leitet eine Schlussfolgerung aus bestimmten Instanzen oder Stichproben ab. Das könnte so aussehen: „Jeder Hund, den ich treffe, ist freundlich. Daher sind alle Hunde freundlich!“
  3. Abduktives Denken – zieht eine wahrscheinliche Schlussfolgerung aus unvollständigen (und oft mehrdeutigen) Informationen, wie zum Beispiel: „Überall auf dem Boden liegen zerrissene Papiere und unser Hund war allein in der Wohnung. Also muss der Hund die Papiere zerrissen haben.“

Inzwischen wissen Menschen auf der ganzen Welt, dass Large Language Models (LLMs) spezielle Modelle des maschinellen Lernens sind, die aus den Daten, mit denen sie trainiert werden, nützliche neue Inhalte generieren können. Darüber hinaus zeigen die LLMs heute auch die Fähigkeit, Zusammenhänge zu verstehen, logische Schlussfolgerungen aus Daten zu ziehen und verschiedene Informationen zu verbinden, um ein Problem zu lösen. Diese Eigenschaften ermöglichen es einem LLM, als Reasoning Engine zu fungieren.

Wie löst also ein LLM ein gängiges betriebswirtschaftliches mathematisches Problem, indem es Informationen auswertet, einen Plan erstellt und ein bekanntes Regelwerk anwendet?

Nehmen wir an, eine Coffeeshop-Besitzerin möchte wissen, wie viele Kaffees sie pro Monat verkaufen muss, um die Gewinnschwelle zu erreichen. Sie berechnet 3,95 US-Dollar pro Tasse, ihre monatlichen Fixkosten betragen 2.500 US-Dollar und ihre variablen Kosten pro Einheit betragen 1,40 US-Dollar.

Das LLM wendet einen bekannten Satz mathematischer Regeln an, um systematisch die Antwort zu erhalten:

Schritt 1

Identifizieren der relevanten Werte.

Schritt 2

Berechnen des Deckungsbeitrags pro Kaffee. Der Deckungsbeitrag ist der Verkaufspreis abzüglich der variablen Kosten.
= 3,95 $ – 1,40 $ = 2,55 $

Schritt 3

Break-Even-Formel anwenden. Der Break-Even-Point ist die Fixkosten dividiert durch den Deckungsbeitrag.
= 2500 $/2,55 $ = 980,39 kg

Schritt 4:

Auf die nächste ganze Zahl aufrunden.
Break-Even-Punkt = 981 Kaffees

Eine Willkommensnachricht mit Astro, der das Einstein-Logo hochhält.

KI, die für Unternehmen entwickelt wurde

Unternehmens-KI, die direkt in Ihr CRM integriert ist. Maximieren Sie die Produktivität in Ihrem gesamten Unternehmen, indem Sie Business-KI für alle Benutzer:innen und Workflows einsetzen. Ermöglichen Sie es Ihren Nutzer:innen, mit personalisierter KI-Unterstützung wirkungsvollere Customer Experiences in den Bereichen Vertrieb, Service, Handel und mehr zu bieten.

Wie können LLMs als effektive Reasoning Engines zu fungieren

Die Beliebtheit der Large Language Models ist im Herbst 2022 sprunghaft angestiegen, aber Wissenschaftler:innen haben bereits seit Langem mit diesen Modellen experimentiert und verschiedene Prompts verwendet. „Prompting“ oder Prompt Engineering ist heute ein schnell wachsender Bereich, in dem ein sorgfältig erstellter Satz von Prompts (Eingabeaufforderungen) an das LLM gesendet wird, um die gewünschten Ergebnisse zu erzielen. Wenn wir Prompts verwenden, um einen logischen Plan von Schritten zum Erreichen eines Ziels zu erstellen, bezeichnen wir sie auch als „Denkstrategien“. Schauen wir uns im Folgenden einige der beliebtesten Argumentationsstrategien an:

  • Chain-of-Thought (CoT): Dies ist eine der beliebtesten Argumentationsstrategien. Dieser Ansatz ahmt die Entscheidungsfindung im menschlichen Stil nach, indem er einen LLM anweist, ein komplexes Problem in einer Abfolge von Schritten zu zerlegen. Diese Strategie wird auch als „sequentieller Planer“ bezeichnet. Chain-of-Thought-ReasoningWird in neuem Fenster geöffnet kann mathematische Textprobleme lösen, vernünftige Schlussfolgerungen führen und Aufgaben lösen, die ein Mensch mit Sprache lösen kann. Ein Vorteil von CoT besteht darin, dass es Ingenieuren ermöglicht, einen Blick in den Prozess zu werfen und, falls etwas schief geht, zu identifizieren, was schief gelaufen ist, um es zu beheben.
  • Reasoning and Acting (ReAct): Diese Strategie nutzt neben den Daten, mit denen das LLM trainiert wurde, auch Informationen aus der realen Welt für die Argumentation. ReAct-basiertes DenkenWird in neuem Fenster geöffnet wird als eher einer menschenähnlichen Aufgabenlösung angepriesen, die interaktive Entscheidungsfindung und verbales Denken beinhaltet, was zu einer besseren Fehlerbehandlung und niedrigeren Halluzinationsraten führt. Diese Form verbindet Argumentation und Handeln durch Benutzeraktionen, was die Interpretierbarkeit und Vertrauenswürdigkeit der Antworten erhöht. Diese Strategie wird auch als „Stufenplaner“ bezeichnet, da sie die Problemlösung Schritt für Schritt angeht und bei jedem Schritt auch das Feedback der Benutzer:innen einholt.
  • Tree of Thoughts (ToT): Diese Variation des Chain-of-Thought-Ansatzes erzeugt bei jedem Zwischenschritt mehrere Gedanken. Anstatt nur einen Denkpfad auszuwählen, untersucht und bewertet es den aktuellen Zustand der Umgebung mit jedem Schritt, um aktiv nach vorne oder zurück zu blicken und bewusstere Entscheidungen zu treffen. Es hat sich gezeigt, dass diese Strategie CoT bei komplexen Aufgaben wie Mathespielen, kreativen Schreibübungen und Mini-Kreuzworträtseln deutlich übertrifft. Es wird davon ausgegangen, dass die ToT-ArgumentationWird in neuem Fenster geöffnet noch näher an einem menschlichen Entscheidungsparadigma liegt, das mehrere Optionen untersucht, Vor- und Nachteile abwägt und dann die beste auswählt.
  • Reasoning via Planning (RAP): Bei dieser Strategie werden LLMs sowohl als Reasoning Engine als auch als Weltmodell verwendet, um den Zustand der Umwelt vorherzusagen und die langfristigen Auswirkungen von Maßnahmen zu simulieren. Es integriert mehrere Konzepte, wie z. B. die Erforschung alternativer Denkwege, die Antizipation zukünftiger Zustände und Belohnungen und die iterative Verfeinerung bestehender Denkschritte, um eine bessere Argumentationsleistung zu erzielen. RAP-based reasoningWird in neuem Fenster geöffnet bietet eine überlegene Leistung über verschiedene Basislinien hinweg für Aufgaben, die Planung, mathematisches Denken und logische Schlussfolgerungen erfordern.

Dies sind nur einige der vielversprechendsten Strategien von heute. Der Prozess der Anwendung dieser Strategien auf eine reale KI-Anwendung ist ein iterativer Prozess, bei dem verschiedene Strategien optimiert und kombiniert werden, um die optimale Leistung zu erzielen.

Wie können reale Anwendungen Reasoning Engines verwenden?

Es ist ziemlich aufregend, LLMs als Argumentationsmaschinen fungieren zu lassen, aber wie macht man sie in der realen Welt nützlich? Um eine Analogie zum Menschen zu ziehen: Wenn LLMs wie das Gehirn mit Denk-, Planungs- und Entscheidungsfähigkeiten sind, brauchen wir immer noch unsere Hände und Beine, um Maßnahmen zu ergreifen. Nehmen wir den „KI-Agent“ – ein KI-System, das sowohl logisches Denken als auch Handlungsfähigkeit enthält. Einige der vorherrschenden Begriffe für das Ergreifen von Maßnahmen sind „Tools“, „Plug-Ins“ und „Aktionen“.

Es gibt zwei Arten von KI-Agents: vollautonome und halbautonome. Vollständig autonome Agents können autonom und ohne menschliches Eingreifen Entscheidungen treffen und auch danach handeln. Diese Art von Agents befindet sich derzeit im experimentellen Modus. Halbautonome Agents sind solche Agents, bei denen ein Mensch Anfragen auslöst. Wir beginnen, die Einführung halbautonomer Agents vor allem in KI-Anwendungen wie Konversations-Chatbots zu sehen, einschließlich Einstein Copilot, ChatGPT und Duet AI.

Ein KI-Agent besteht aus vier Schlüsselkomponenten:

  1. Ziel – das primäre Ziel oder die Aufgabe des Agents.
  2. Umgebung – die Kontextinformationen, wie z. B. das Ziel, die erste Benutzereingabe, der Verlauf früherer Aktivitäten oder Gespräche, die Grundlagen für die Relevanz, das Benutzerfeedback und die Daten, mit denen das LLM trainiert wurde.
  3. Reasoning – die eingebaute Fähigkeit von LLM, Beobachtungen zu machen, nächste Aktionen zu planen und sich neu zu kalibrieren, um auf das beabsichtigte Ziel hinzuoptimieren.
  4. Aktion – in der Regel externe Tools, die es einem Agent ermöglichen, das Ziel zu erreichen. Einige gängige Beispiele für Aktionen sind Informationsabruf, Suche, Codegenerierung, Codeinterpretation und Dialoggenerierung.

Wie nutzt Einstein Copilot LLMs als Reasoning Engine?

Einstein Copilot ist der fortschrittliche KI-gestützte Konversationsassistent von Salesforce, der mit den Mitarbeiter:innen und Kund:innen eines Unternehmens in natürlicher Sprache interagiert. Mitarbeiter:innen können es nutzen, um eine Vielzahl von Aufgaben im Arbeitsfluss zu erledigen und so die Produktivität in großem Umfang zu steigern. Und Verbraucher:innen können diesen Assistenten nutzen, um mit Marken zu chatten und Fragen sofort beantwortet zu bekommen, was zu einer höheren Zufriedenheit und Loyalität führt. Einstein Copilot verwendet LLMs für sprachliche Fähigkeiten wie Verständnis und Inhaltsgenerierung sowie als Reasoning Engine zur Planung komplexer Aufgaben, wodurch die kognitive Belastung der Benutzer reduziert wird.

Und so funktioniert es:

  1. Benutzer:innen geben das Ziel ein, das sie erreichen möchten, z. B.: „Erstellen einer Webseite“.
  2. Einstein Copilot verwendet einen kuratierten Prompt, um die Benutzereingabe an ein sicheres LLM zu senden, um die Absicht der Benutzer:innen abzuleiten.
  3. Basierend auf der Absicht sendet Einstein Copilot einen weiteren kuratierten Prompt, um das LLM anzuweisen, einen Plan zur Erfüllung dieser Absicht zu erstellen.
  4. Der generierte Plan besteht aus einer Reihe von Aktionen, die in einer logischen Abfolge miteinander verkettet sind. Um sicherzustellen, dass Einstein Copilot auf vertrauenswürdige Weise handelt, ist der LLM angewiesen, Pläne streng mit Maßnahmen zu erstellen, die ihm zur Verfügung gestellt werden.
  5. Sobald das LLM einen Plan zurückgibt, führt Einstein Copilot die Aktionen in der vorgeschriebenen Reihenfolge aus, um ein gewünschtes Ergebnis zu generieren, und leitet dieses an die Benutzer:innen weiter.

Visuell sieht das so aus ...

Grafik: Einstein Copilot und Reasoning Engine

Wie kann Ihr Unternehmen von Einstein Copilot profitieren?

Einstein Copilot gibt Unternehmen die Möglichkeit, LLMs als Argumentationsmotoren zu nutzen. Mit diesem Tool können Unternehmen KI nutzen, um eine Reihe von Aufgaben zu erledigen, die noch vor wenigen Monaten nicht realistisch waren.

  • Wenn ein Vertriebsteam eine dünne Pipeline sieht, können Einstein Copilot Datenbanken durchsuchen, um qualitativ hochwertige Leads zu finden, die es wert sind, angesprochen zu werden.
  • Copilot scannt potenzielle Deals, um diejenigen zu finden, die gefährdet sind, und kann auf Anfrage die Datensätze für Manager zusammenfassen.
  • Copilot kann Servicemitarbeiter:innen helfen, ein Problem mit der überhöhten Abrechnung für einen Kunden zu lösen und die richtigen Informationen für die Fehlerbehebung zu sammeln.
  • Copilot kann die aktuelle Kundenstimmung für ein potenzielles Geschäft analysieren und die Maßnahmen empfehlen, die zum Abschluss des Geschäfts in den nächsten drei Monaten erforderlich sind.

In diesen und vielen anderen Anwendungsfällen agiert Einstein Copilot im Wesentlichen als halbautonomer Agent, der LLMs als Argumentationsmaschinen verwendet und Maßnahmen ergreift, um Aufgaben zu erfüllen, wenn Benutzer dazu aufgefordert werden. Das ist erst der Anfang; Die nächste Herausforderung besteht darin, Einstein Copilot vollständig autonom zu machen, so dass sie nicht nur unterstützend, sondern auch proaktiv und allgegenwärtig ist. Die KI hat eine spannende Zukunft vor sich, aber noch aufregender sind die Ergebnisse der globalen Effizienz, die mit Sicherheit auf uns zukommen werden.