Eine Grafik veranschaulicht, wie die Einstein Trust Layer Inhalte für CRM Apps erstellt.

Einstein Trust Layer

Der Einstein Trust Layer ist eine sichere KI-Architektur, die nativ in die Salesforce-Plattform integriert ist. Da er auf Hyperforce basiert, werden auch die Anforderungen an Data Residency, Compliance und die höchsten Sicherheitsstandards für Unternehmen erfüllt. So können Ihre Teams von generativer KI profitieren, während Ihre Kundendaten geschützt bleiben.

Eine Vorlage für einen User Prompt, aus dem die Einstein KI eine Antwort generiert

Sichere, datenbasierte Prompts sind die Basis für eine vertrauenswürdige KI

Ein Prompt ist eine Eingabeaufforderung, über die Sie einem Large Language Models detaillierten Kontext und Anweisungen geben. Mit dem Einstein Trust Layer sorgen Sie dafür, dass bei all Ihren Prompts Ihre Kundendaten als Grounding benutzt werden, wobei diese Daten bei der Übergabe des Prompts an das Large Language Models* maskiert werden. Mit unserer Zero Retention-Architektur werden Ihre Daten niemals außerhalb von Salesforce gespeichert.

*in Kürze verfügbar

*in Kürze verfügbar

Daten durchgängig schützen und kontrollieren

Schützen Sie sensible Daten automatisch gegenüber externen Large Language Models.

Der Zugriff auf Ihre Daten erfolgt mit höchster Sicherheit. Für dynamisches Grounding der Prompts Ihrer generative KI nutzen Sie relevante Daten und Datentypen mit hoher Qualität, mit denen die KI trainiert wird, um die bestmöglichen Ergebnisse zu erzielen. Felder mit Salesforce Datensätzen können sicher verknüpft, und über eine semantische Suche können relevante Informationen aus Support-Wissensartikeln miteingebunden werden.

Eine Grafik zeigt, wie die Einstein Trust Layer CRM Daten nutzt.

Fügen Sie Ihren Prompts domänenspezifisches Wissen und Kundeninformationen hinzu, um dem Modell den erforderlichen Kontext für möglichst akkurate Ergebnisse zu liefern. Durch den zusätzlichen Kontext aus CRM-Daten, Wissensartikeln, Service-Chats und mehr reduzieren Sie die Wahrscheinlichkeit von Halluzinationen. Diese Daten werden automatisch abgerufen und genutzt, um vertrauenswürdige Antworten zu generieren.

Eine Vorlage für von Einstein generierte Inhalte.

Maskieren Sie die in Ihren Eingabeaufforderungen verwendeten Daten, um einen zusätzlichen Datenschutz-Layer zu schaffen. PII-Daten und Zahlungsdaten werden automatisch erkannt und aus dem Prompt entfernt, bevor sie an ein Large Language Model gesendet werden. Nachdem die Antwort erstellt wurde, entfernen Sie die Maskierung dieser Daten, damit der richtige Kontext für die internen Benutzer freigegeben wird

Ein Chatfenster mit einer beispielhaften Konversation mit Einstein AI.
Eine Grafik zeigt, wie die Einstein Trust Layer CRM Daten nutzt.
Eine Vorlage für von Einstein generierte Inhalte.
Ein Chatfenster mit einer beispielhaften Konversation mit Einstein AI.

*in Kürze verfügbar

Ihre Daten sind nicht unser Produkt

Bei Salesforce haben die Kund:innen die Kontrolle über die Nutzung ihrer Daten mit KI. Unabhängig davon, ob Sie unsere eigenen, von Salesforce gehosteten Modelle nutzen oder externe Modelle, die zu unserer Shared Trust Boundary gehören (wie z. B. OpenAI): Es wird keinerlei Kontext gespeichert. Das Large Language Model „vergisst“ sowohl Prompts als auch Outputs sofort nach der Verarbeitung.

Vermeiden Sie Toxizität und bedenklichen Output

Damit keine unangemessenen oder bedenklichen Inhalte verbreitet werden, können Ihre Mitarbeiter:innen alle Prompts und Outputs auf Toxizität prüfen. Stellen Sie sicher, dass keine Inhalte geteilt werden, bevor sie nicht von einem Menschen entsprechend akzeptiert oder verworfen wurden. Jeder dieser Prüfschritte wird in Form von Metadaten in unserem Audit Trail erfasst. Das vereinfacht die unternehmensweite Einhaltung von Richtlinien*.

*in Kürze verfügbar

Mit unseren vertrauenswürdigen AppExchange Partnern erschließen Sie das volle Potenzial sicherer KI

Accenture Logo
Logo von Deloitte
Slalom Logo

FAQ zum Einstein Trust Layer

Sichere KI schützt Ihre Kundendaten, ohne bei der Qualität ihres Outputs Kompromisse einzugehen. Kunden- und Unternehmensdaten sind ausschlaggebend für aussagekräftige, personalisierte Ergebnisse von KI-Modellen. Sie müssen jedoch darauf vertrauen können, dass diese Daten sicher verwendet werden.

Was den Umgang von Unternehmen mit Daten betrifft, sind Kund:innen grundsätzlich skeptisch. Deshalb zählen Datenschutz und Datensicherheit zu den größten Sicherheitsbedenken im Zusammenhang mit KI. Generative KI wirft darüber hinaus kritische Fragen in Bezug auf Genauigkeit, Toxizität und Bias auf.

Salesforce schützt die Daten seiner Kund:innen mit dem Einstein Trust Layer, der direkt in die Plattform integriert ist. Einstein Trust Layer bietet eine ganze Bandbreite von Datensicherheitsmaßnahmen wie Datenmaskierung, TSL-Inflight-Verschlüsselung und Zero Data Retention für Large Language Models.

Mit vertrauenswürdiger KI können Sie die Vorteile von KI ohne Abstriche in puncto Datensicherheit und Datenschutz nutzen. Mit dem Einstein Trust Layer wissen Sie genau, wo Ihre Daten landen und wer auf sie zugreifen kann. So können Sie Ihr Business entspannt und konzentriert mit KI optimieren.

Für eine sichere KI-Journey sollten Sie sich klarmachen, welche Geschäftsanforderungen KI in Ihrem Unternehmen erfüllen kann und potenzielle Use Cases identifizieren. Entscheiden Sie sich dann für einen Lösungspartner, dem Sie vertrauen können und der nachweislich zuverlässige KI-Lösungen bereitstellt. Machen Sie sich außerdem mit ihren branchenspezifischen rechtlichen und Compliance-Anforderungen vertraut.

*in Kürze verfügbar