Graphique montrant comment Einstein Trust Layer génère du contenu pour les applications de gestion de la relation client.

Couche de confiance Einstein

Le Couche de confiance Einstein est un ensemble solide de fonctionnalités et de garde-fous qui protègent la confidentialité et la sécurité de vos données, améliorent la sécurité et la précision de vos résultats d'IA et encouragent l'utilisation responsable de l'IA dans l'ensemble de l'écosystème Salesforce. Avec des fonctionnalités telles que la mise à la terre dynamique, la conservation zéro des données et la détection de la toxicité, le Couche de confiance Einstein est conçu pour vous aider à libérer la puissance de l'IA générative sans compromettre vos normes de sûreté ou de sécurité.

Modèle de prompt d'utilisateur généré dans une réponse IA d'Einstein.

L'IA approuvée commence par des prompts sécurisés.

Une invite est un ensemble d'instructions qui oriente un grand modèle de langage (LLM) pour qu'il renvoie un résultat utile. Plus vous donnez de contexte à l'invite, meilleur sera le résultat. Les caractéristiques du Couche de confiance Einstein, telles que la récupération sécurisée des données et la mise à la terre dynamique, vous permettent de fournir de façon sécuritaire aux invites d'IA le contexte de votre entreprise, tandis que le masquage des données et la conservation zéro des données protègent la confidentialité et la sécurité de ces données lorsque l'invite est envoyée à un LLM tiers.

Un contrôle sans faille du respect de la vie privée et des données.

Bénéficiez de l'échelle et de la rentabilité des LLM de fondations tierces tout en protégeant la confidentialité et la sécurité de vos données à chaque étape du processus de génération.

Permettez aux utilisateurs d'accéder en toute sécurité aux données pour créer des prompts d'IA génératives, dans le contexte de votre entreprise, tout en gérant les autorisations et les contrôles d'accès aux données.

Graphique montrant comment Einstein Trust Layer utilise les données du CRM.

Insérez en toute sécurité dans les prompts d'IA le contexte de l'entreprise, à partir de sources de données structurées ou non structurées, en utilisant plusieurs techniques de contextualisation qui fonctionnent avec des modèles de prompts que vous pouvez étendre à l'ensemble de votre entreprise.

Modèle pour les contenus générés par Einstein.

Masquez les données sensibles telles que les informations personnelles identifiables (PII) et les informations de l'industrie des cartes de paiement (PCI) avant d'envoyer des prompts d'IA à des modèles de langage de grande taille (LLM) tiers, et configurez les paramètres de masquage en fonction des besoins de votre entreprise.

*La disponibilité varie en fonction de la fonctionnalité, de la langue et de la région géographique.

Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.
Graphique montrant comment Einstein Trust Layer utilise les données du CRM.
Modèle pour les contenus générés par Einstein.
Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.

Vos données ne sont pas notre produit.

Salesforce permet aux clients de contrôler l'utilisation de leurs données pour l'IA. Aucun contexte n'est stocké, que ce soit avec nos propres modèles hébergés par Salesforce ou avec des modèles externes qui font partie de notre limite de confiance partagée, comme OpenAI. Le modèle de langage de grande taille oublie à la fois le prompt et la réponse dès que cette dernière est produite.

Atténuation de la toxicité et des réponses préjudiciables.

Donnez à vos collaborateurs les moyens d'empêcher le partage de contenus inappropriés ou préjudiciables en analysant et en évaluant la toxicité de chaque prompt et de chaque réponse. Aucun résultat ne sera partagé avant qu'un humain ne l'accepte ou ne le rejette, et chaque étape sera enregistrée sous forme de métadonnées dans notre audit, afin de simplifier le respect de la conformité à grande échelle.** Prochainement

Exploitez tout le potentiel d'une IA sécurisée grâce à des partenaires de confiance sur AppExchange.

Logo Accenture
Deloitte logo
Logo Slalom

FAQ Couche de confiance Einstein

Une IA sécurisée est une IA qui protège les données de vos clients sans sacrifier la qualité de ses réponses. Les données des clients et de l'entreprise sont essentielles pour enrichir et personnaliser les résultats des modèles d'IA, mais vous devez avoir la garantie qu'elles ne seront pas utilisées à mauvais escient.

L'une des principales préoccupations concernant l'IA est la confidentialité et la sécurité des données, car de nombreux clients ne font pas confiance à l'utilisation que peuvent faire les entreprises de leurs données. L'IA générative soulève également de nouvelles questions concernant l'exactitude, la toxicité et les biais du contenu qu'elle génère.

Salesforce protège les données de ses clients à l'aide d'Einstein Trust Layer, qui est directement intégrée à la plateforme. Einstein Trust Layer comporte un certain nombre de garde-fous pour la sécurité des données, tels que le masquage des données, le chiffrement TLS pendant le transit et l'absence de sauvegarde dans les modèles de langage de grande taille.

En déployant une IA fiable, vous bénéficierez des avantages de l'IA tout en gardant le contrôle sur la sécurité et la confidentialité de vos données. Avec Einstein Trust Layer, vous savez où vont vos données et qui y a accès. Vous pouvez ainsi vous concentrer sur la réalisation de vos objectifs en vous aidant de l'IA.

Comment concevoir une IA générative fiable ?

Tout d'abord, vous devez comprendre en quoi l'IA peut répondre aux besoins de votre entreprise et identifier vos cas d'utilisation. Ensuite, choisissez un partenaire digne de confiance, ayant déjà prouvé sa capacité à fournir des solutions d'IA fiables. Enfin, identifiez les exigences réglementaires et les normes de conformité en vigueur dans votre secteur d'activité afin de guider votre choix.