Uma imagem mostrando como a Camada de confiança do Einstein cria conteúdo para apps de CRM.

Camada de confiança do Einstein

A Camada de confiança do Einstein é uma arquitetura de IA segura e integrada nativamente à Salesforce Platform. Desenvolvida no Hyperforce para conformidade e residência de dados, a Camada de confiança do Einstein é equipado com as melhores proteções de segurança desde o produto até as nossas políticas. Projetada para os padrões de segurança empresarial, a Camada de confiança do Einstein permite que as equipes se beneficiem da IA generativa sem comprometer os dados dos clientes.

Um modelo de prompt do usuário sendo gerado em uma resposta da IA do Einstein.

A IA confiável começa com prompts fundamentados com segurança.

Prompts são telas que servem para fornecer contexto e instruções detalhadas a grandes modelos de linguagem. A Camada de confiança do Einstein permite que você use referências de forma responsável em todos os seus prompts com os dados do cliente e mascare esses dados quando o prompt for compartilhado com grandes modelos de linguagem*. Com a nossa arquitetura de retenção zero, nenhum dos seus dados é armazenado fora do Salesforce.

* Em breve

Controles contínuos de dados e privacidade.

Proteja automaticamente dados confidenciais de grandes modelos de linguagem externos.

Acesse com segurança e use referências de forma dinâmica em prompts de IA com tipo, qualidade e escopo de dados relevantes necessários para aprender e fornecer os resultados mais confiáveis. Mescle campos com registros do Salesforce com segurança. Use a extração semântica para introduzir informações relevantes de artigos de conhecimento de suporte.

Uma imagem mostrando como a Camada de confiança do Einstein usa dados de CRM.

Adicione conhecimento de domínio específico e informações do cliente ao prompt para fornecer ao modelo as referências necessárias para dar respostas mais precisas. Reduza a chance de alucinações com contexto adicional de dados de CRM, artigos de conhecimento, chats de serviço e muito mais. Extraia e use esses dados automaticamente para gerar respostas confiáveis.

* Em breve

Um modelo para conteúdo gerado pelo Einstein.

Mascare os dados usados em seus prompts para adicionar uma camada extra de proteção. Detecte automaticamente dados de identificação pessoal e de pagamento e remova-os do prompt antes de enviá-los a um grande modelo de linguagem. Depois que a resposta for criada, desmascare esses dados para que o contexto apropriado seja compartilhado com usuários internos.

Uma janela de chat com um exemplo de conversa com a IA do Einstein.
Uma imagem mostrando como a Camada de confiança do Einstein usa dados de CRM.
Um modelo para conteúdo gerado pelo Einstein.
Uma janela de chat com um exemplo de conversa com a IA do Einstein.

Seus dados não são nosso produto.

A Salesforce proporciona aos clientes controle sobre o uso de seus dados para a IA. Seja usando nossos próprios modelos hospedados na Salesforce ou modelos externos que fazem parte do nosso limite de confiança compartilhada, como a OpenAI, nenhum contexto é armazenado. O grande modelo de linguagem esquece o prompt e o resultado assim que este é processado.

Mitigue a toxicidade e resultados prejudiciais.

Oriente os funcionários a impedir o compartilhamento de conteúdo inadequado ou prejudicial, verificando e pontuando cada prompt e saída em relação à toxicidade. Garanta que nenhum resultado seja compartilhado antes que uma pessoa o aceite ou rejeite e registre cada etapa como metadado em nossa trilha de auditoria, simplificando a conformidade em escala.*

* Em breve

Implante a IA com ética desde o princípio.

A Salesforce tem o compromisso de oferecer software e soluções com uso intencionalmente ético e humano, principalmente em relação aos dados e à inteligência artificial. Para permitir que usuários e clientes usem a IA com responsabilidade, desenvolvemos uma Política de uso aceitável de IA para tratar das áreas de maior risco. Gerar recomendações médicas, jurídicas ou financeiras individualizadas é proibido para que a tomada de decisões permaneça humana nessas áreas. Na Salesforce, levamos em conta o impacto real de nossos produtos e é por isso que implementamos proteções específicas para preservar nossos valores enquanto preparamos os clientes com as ferramentas mais modernas do mercado.

Aproveite ao máximo a IA segura com parceiros de confiança no AppExchange.

Logotipo da Accenture
Logotipo da Deloitte
Logotipo da Slalom

Perguntas frequentes sobre a Camada de confiança do Einstein.

A IA segura é uma inteligência artificial que protege os dados dos seus clientes sem comprometer a qualidade dos seus resultados. Os dados do cliente e da empresa são fundamentais para enriquecer e personalizar os resultados de modelos de IA, mas é importante ter confiança na forma como esses dados são utilizados.

Uma das principais preocupações de segurança da IA é a privacidade e a segurança dos dados, ainda que muitos clientes não confiam seus dados às empresas. A IA generativa, em especial, também introduz novas preocupações com relação à precisão, à toxicidade e à parcialidade do conteúdo que ela gera.

A Salesforce mantém a segurança dos dados dos clientes usando a Camada de confiança do Einstein, que é integrada diretamente na Plataforma. A Camada de confiança do Einstein inclui uma série de proteções de segurança de dados, como o mascaramento de dados, criptografia TLS em trânsito e zero retenção de dados com grandes modelos de linguagem.

A implantação de uma inteligência artificial confiável permite aproveitar os benefícios da IA sem comprometer a segurança dos dados e os controles de privacidade. A Camada de confiança do Einstein permite que você tenha tranquilidade quando o assunto é para onde seus dados estão indo e quem pode acessá-los. Assim, você poderá se concentrar em alcançar os melhores resultados com a IA.

Como projetar uma IA generativa confiável (Inglês)

Primeiro, entenda como a IA pode atender às necessidades do seu negócio e identificar seus casos de uso. Em seguida, escolha um parceiro em quem você pode confiar e com um histórico comprovado de entrega de soluções de IA confiáveis. Por fim, determine os requisitos regulamentares e de conformidade em seu setor específico para informar a sua abordagem à sua jornada de IA confiável.

*Em breve