Uma imagem mostrando como a Camada de confiança do Einstein cria conteúdo para apps de CRM.

Einstein Trust Layer

A Einstein Trust Layer é um conjunto robusto de recursos e barreiras que protegem a privacidade e a proteção de seus dados, aumentam a segurança e a precisão de seus resultados de IA e promovem o uso responsável da IA em todo o ecossistema do Salesforce. Com recursos como fundamentação dinâmica, retenção zero de dados e detecção de toxicidade, a Einstein Trust Layer foi projetada para ajudar liberar o poder da IA generativa sem comprometer seus padrões de segurança ou proteção.

Um modelo de prompt do usuário sendo gerado em uma resposta da IA do Einstein.

A IA confiável começa com prompts fundamentados com segurança.

Um prompt é um conjunto de instruções que orienta um grande modelo de linguagem (LLM) a retornar um resultado útil. Quanto mais contexto você fornecer ao prompt, melhor será o resultado. Os recursos da Einstein Trust Layer, como recuperação segura de dados e fundamentação dinâmica, permitem que você forneça com segurança prompts de IA com contexto sobre sua empresa, enquanto o mascaramento de dados e a retenção zero de dados protegem a privacidade e a segurança desses dados quando o prompt é enviado a um LLM de terceiros.

Controles contínuos de dados e privacidade.

Beneficie-se da escala e do bom custo-benefício de LLMs fundamentais terceirizados, protegendo a privacidade e a segurança de seus dados em cada etapa do processo de geração.

Permita que os usuários acessem os dados com segurança para fundamentar prompts de IA generativa no contexto de sua empresa, mantendo as permissões e os controles de acesso aos dados.

Uma imagem mostrando como a Camada de confiança do Einstein usa dados de CRM.

Introduza com segurança prompts de IA no contexto comercial de fontes de dados estruturadas ou não estruturadas, utilizando várias técnicas de fundamentação que funcionam com modelo de prompts que você pode dimensionar em toda a sua empresa.

Um modelo para conteúdo gerado pelo Einstein.

Mascare tipos de dados confidenciais, como informações de identificação pessoal (PII) e informações do setor de cartões de pagamento (PCI), antes de enviar prompts de IA para grandes modelos de linguagem (LLMs) de terceiros. Defina as configurações de mascaramento de acordo com as necessidades da sua organização.

*A disponibilidade varia de acordo com o recurso, idioma e região geográfica.

Uma janela de chat com um exemplo de conversa com a IA do Einstein.
Uma imagem mostrando como a Camada de confiança do Einstein usa dados de CRM.
Um modelo para conteúdo gerado pelo Einstein.
Uma janela de chat com um exemplo de conversa com a IA do Einstein.

Seus dados não são nosso produto.

A Salesforce proporciona aos clientes controle sobre o uso de seus dados para a IA. Seja usando nossos próprios modelos hospedados na Salesforce ou modelos externos que fazem parte do nosso limite de confiança compartilhada, como a OpenAI, nenhum contexto é armazenado. O grande modelo de linguagem esquece o prompt e o resultado assim que este é processado.

Mitigue a toxicidade e resultados prejudiciais.

Oriente os funcionários a impedir o compartilhamento de conteúdo inadequado ou prejudicial, verificando e pontuando cada prompt e saída em relação à toxicidade. Garanta que nenhum resultado seja compartilhado antes que uma pessoa o aceite ou rejeite e registre cada etapa como metadado em nossa trilha de auditoria, simplificando a conformidade em escala.*

* Em breve

Aproveite ao máximo a IA segura com parceiros de confiança no AppExchange.

Logotipo da Accenture
Logotipo da Deloitte
Logotipo da Slalom

Perguntas frequentes sobre o Einstein Trust Layer

A IA segura é uma inteligência artificial que protege os dados dos seus clientes sem comprometer a qualidade das suas saídas. Os dados do cliente e da empresa são fundamentais para enriquecer e personalizar os resultados de modelos de IA, mas é importante ter confiança na forma como esses dados são utilizados.

Uma das principais preocupações de segurança da IA é a privacidade e a segurança dos dados, ainda que muitos clientes não confiam seus dados às empresas. A IA generativa, em especial, também introduz novas preocupações com relação à precisão, à toxicidade e à parcialidade do conteúdo que ela gera.

A Salesforce mantém a segurança dos dados dos clientes usando a Einstein Trust Layer, que é integrada diretamente na Plataforma. A Einstein Trust Layer inclui uma série de proteções de segurança de dados, como o mascaramento de dados, criptografia TLS em trânsito e zero retenção de dados com grandes modelos de linguagem.

A implantação de uma inteligência artificial confiável permite aproveitar os benefícios da IA sem comprometer a segurança dos dados e os controles de privacidade. A Einstein Trust Layer traz tranquilidade a você quando o assunto é para onde seus dados estão indo e quem pode acessá-los. Assim, você pode se concentrar em alcançar os melhores resultados com a IA.

Como projetar uma IA generativa confiável

Primeiro, entenda como a IA pode atender às necessidades do seu negócio e identificar seus casos de uso. Em seguida, escolha um parceiro em quem você pode confiar e com um histórico comprovado de entrega de soluções de IA confiáveis. Por fim, determine os requisitos regulamentares e de conformidade em seu setor específico para informar a sua abordagem à sua jornada de IA confiável.