Graphique montrant comment Einstein Trust Layer génère du contenu pour les applications de gestion de la relation client.

Einstein Trust Layer

Einstein Trust Layer est une architecture de sécurisationd de l'IA, intégrée nativement à la plateforme Salesforce. Basée sur Hyperforce pour vous laisser choisir le pays de résidence de vos données, Einstein Trust Layer vous permet d'utiliser l'IA générative tout en protégeant et masquant les données de vos clients

Modèle de prompt d'utilisateur généré dans une réponse IA d'Einstein.

Pour une IA de confiance, des prompts contextualisés et des données sécurisées.

Les prompts sont les requêtes que vous formulez à l'IA générative. Einstein Trust Layer vous permet d'ajouter des données de vos clients pour contextualise vos prompts, tout en masquant ces données, de façon à ce que les modèles d'IA ne les lisent pas. De plus, la non-conservation des données vous assure qu'aucune des données n'est enregistrée en dehors de Salesforce.

Un contrôle sans faille de la vie privée et des données.

Protégez automatiquement vos données sensibles des Large Language Models (LLM).

Ajoutez en toute sécurité vos données CRM à vos prompts pour enrichir les résultats de l'IA générative, les personnaliser davantage, tout en délimitant le niveau, le type et la quantité de données nécessaires pour produire le résultat attendu.

Graphique montrant comment Einstein Trust Layer utilise les données du CRM.

Enrichissez vos prompts avec les données de vos clients ou de votre secteur, pour permettre au modèle d'IA de répondre avec plus d'exactitude. Retrouvez automatiquement ces données pour générer à nouveau des réponses fiables.

Modèle pour les contenus générés par Einstein.

Masquez les données utilisées dans vos prompts pour ajouter une couche de protection supplémentaire. Détectez les informations personnelles sensibles ou les informations de paiement, et masquez-les dans votre prompt, avant de l'envoyer au LLM. Puis, Salesforce démasque ces données à partir de la réponse générée, pour l'afficher en clair à vos équipes.

Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.
Graphique montrant comment Einstein Trust Layer utilise les données du CRM.
Modèle pour les contenus générés par Einstein.
Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.

Vos données ne sont jamais stockées en dehors de Salesforce.

Salesforce apporte à ses clients un contrôle total sur les données qu'ils partagent avec l'IA. Que vous utilisiez le LLM de Salesforce ou un modèle externe encadré par nos règles de confiance (comme OpenAI) aucune donnée n'est stocké. Le LLM oublie le prompt et sa réponse dès que cette dernière est produite.

Détection de la toxicité et des réponses problématiques.

Donnez à vos collaborateurs les moyens d'empêcher le partage de contenus inappropriés ou préjudiciables en analysant et en évaluant la toxicité de chaque prompt et de chaque réponse. Aucune réponse ne sera partagée avant qu'un humain ne l'accepte ou ne la rejette, et chaque étape sera enregistrée sous forme de métadonnées dans notre piste d'audit, afin de simplifier le respect de vos règles de conformité à grande échelle.*

* Prochainement

Une conception éthique de l'IA.

Salesforce s’emploie à développer des logiciels dont l’éthique et le respect des droits humains font partie intégrante, a fortiori dans les domaines de l’intelligence artificielle et des données. Pour aider nos clients à utiliser l’IA de manière responsable, nous avons écrit une Police d’Utilisation Acceptable de l’IA pour atténuer les risques de son utilisation. Par exemple, générer un avis médical, financier ou juridique individuel est interdit, afin de maintenir un humain dans le cycle de décision. Chez Salesforce, nous nous soucions de l’impact concret de nos produits sur le monde. C’est pourquoi nous mettons en place ces protections : pour respecter nos valeurs fondamentales tout en apportant les plus hautes technologies à nos clients.

Exploitez tout le potentiel d'une IA sécurisée grâce à des partenaires de confiance sur AppExchange.

Logo de Accenture
Logo de Deloitte
Logo de Slalom

FAQ sur Einstein Trust Layer

Une IA sécurisée est une IA qui protège les données de vos clients sans sacrifier la qualité de ses réponses. Les données des clients et de l'entreprise sont essentielles pour enrichir les prompts et personnaliser les résultats de l'IA générative, mais vous devez avoir la garantie qu'elles ne seront pas utilisées à mauvais escient.

L'une des principales préoccupations concernant l'IA est la confidentialité et la sécurité des données, car de nombreux clients ne font pas confiance à l'utilisation que peuvent faire les entreprises de leurs données. L'IA générative soulève également de nouvelles questions concernant l'exactitude, la toxicité et les biais du contenu qu'elle génère.

Salesforce protège les données de ses clients à l'aide d'Einstein Trust Layer, qui est directement intégrée à la plateforme. Einstein Trust Layer comporte des mesures de protection des données, tels que le masquage des données, le chiffrement TLS pendant le transit et l'absence de sauvegarde dans les grandes modèles de langage.

En déployant une IA fiable, vous bénéficierez des avantages de l'IA tout en gardant le contrôle sur la sécurité et la confidentialité de vos données. Avec Einstein Trust Layer, vous savez où vont vos données et qui y a accès. Vous pouvez ainsi vous concentrer sur la réalisation de vos objectifs en vous aidant de l'IA.

Tout d'abord, vous devez comprendre en quoi l'IA peut répondre aux besoins de votre entreprise et identifier vos cas d'utilisation. Ensuite, choisissez un partenaire digne de confiance, ayant déjà prouvé sa capacité à fournir des solutions d'IA fiables. Enfin, identifiez les exigences réglementaires et les normes de conformité en vigueur dans votre secteur d'activité afin de guider votre choix.

* Prochainement