Console de serviço mostrando uma janela de chat com o Einstein ajudando a responder perguntas

O que é um mecanismo de raciocínio?

Mergulhe ainda mais no mundo dos LLMs para aproveitar ao máximo seu copiloto conversacional.

Shipra Gupta

Imagine se a IA pudesse automatizar tarefas de negócios rotineiras, como redigir emails, gerar resumos de campanha, criar páginas da Web, pesquisar concorrentes, analisar dados e resumir chamadas. Automatizar essas tarefas repetitivas pode liberar uma quantidade imensa dos valiosos tempo e esforço humanos para atividades mais complexas e criativas, como estratégia de negócios e construção de relacionamentos.

A automação dessas tarefas de negócios rotineiras exige a simulação da inteligência humana e que a IA funcione como um mecanismo de raciocínio. É a IA generativa em outro nível. Além de se comunicar em linguagem natural, a IA também ajudará na resolução de problemas e na tomada de decisões. Ele aprenderá com as informações fornecidas, avaliará prós e contras, preverá resultados e tomará decisões lógicas. Dados os avanços tecnológicos dos últimos tempos, estamos à beira dessa capacidade da IA, e isso entusiasma muitas pessoas da comunidade científica e empresarial.

IA corporativa incorporada ao CRM para empresas

Inteligência artificial Salesforce

A IA da Salesforce oferece inteligência artificial confiável e extensível, com base na estrutura da nossa Salesforce Platform. Utilize a nossa IA nos dados de seus clientes para criar experiências de IA personalizadas, preditivas e generativas para atender a todas as suas necessidades de negócio com segurança. Leve a IA conversacional a qualquer fluxo de trabalho, usuário, departamento e indústria com o Einstein.

O que é um mecanismo de raciocínio?

O mecanismo de raciocínio é um sistema de IA que imita a capacidade humana de tomada de decisões e resolução de problemas, com base em determinados dados, regras e lógica. Existem três tipos de raciocínio humano ou mecanismos de inferência que os mecanismos de raciocínio tendem a emular:

  1. Raciocínio dedutivo: faz uma inferência com base em fatos universais e geralmente aceitos. Por exemplo: “Todos os pássaros põem ovos. Um pombo é um pássaro. Portanto, os pombos põem ovos”.
  2. Raciocínio indutivo: deriva uma conclusão com base em exemplos ou casos específicos. Por exemplo: “Todo cachorro que conheço é amigável. Portanto, todos os cães são amigáveis!”.
  3. Raciocínio abdutivo: tira uma conclusão provável a partir de informações incompletas (e muitas vezes ambíguas), como: “Há papéis rasgados por todo o chão e nosso cachorro estava sozinho no apartamento. Portanto, o cachorro deve ter rasgado os papéis”.

Atualmente, pessoas de todo o mundo sabem que os grandes modelos de linguagem (LLMs) são modelos especiais de aprendizado de máquina que podem gerar novos conteúdos úteis a partir dos dados em que são treinados. Além disso, os LLMs de hoje também têm a capacidade de entender o contexto, extrair inferências lógicas dos dados e conectar várias informações para resolver um problema. Essas características permitem que um LLM atue como um mecanismo de raciocínio.

Então, como um LLM resolve um problema matemático e empresarial comum avaliando informações, gerando um plano e aplicando um conjunto conhecido de regras?

Digamos que a dona de uma cafeteria queira saber quantos cafés ela precisa vender por mês para equilibrar as contas. Ela cobra US$ 3,95 por xícara, seus custos fixos mensais são de US$ 2.500 e seus custos variáveis por unidade são de US$ 1,40.

O LLM aplica um conjunto conhecido de regras matemáticas para obter sistematicamente a resposta:

Etapa 1

Identificar os valores relevantes.

Etapa 2

Calcular a margem de contribuição por café. A margem de contribuição é o preço de venda menos o custo variável.
= US$ 3,95 - US$ 1,40 = US$ 2,55

Etapa 3

Aplicar a fórmula de equilíbrio. O ponto de equilíbrio é o custo fixo dividido pela margem de contribuição.
= US$ 2.500/US$ 2,55 = 980,39

Etapa 4:

Arredondar para o número inteiro mais próximo.
Ponto de equilíbrio = 981 cafés

Uma mensagem de boas-vindas com o Astro segurando o logotipo do Einstein.

IA criada para negócios

IA empresarial integrada diretamente ao seu CRM. Aumente a produtividade em toda a sua organização levando a IA empresarial para todos os apps, usuários e fluxos de trabalho. Permita que os usuários ofereçam aos clientes experiências mais impactantes em vendas, serviço, comércio, entre outras áreas, com assistência de IA personalizada.

Como fazer com que os LLMs funcionem como mecanismos de raciocínio eficazes

A popularidade dos grandes modelos de linguagem disparou no último trimestre de 2022, mas os cientistas têm mergulhado em experiências com esses modelos por meio de vários prompts. “Prompts” ou engenharia de prompts é agora um domínio emergente, em que um conjunto cuidadosamente elaborado de instruções de entrada (prompts) é enviado ao LLM para gerar os resultados desejados. Quando usamos prompts para gerar um plano lógico de etapas para atingir uma meta, também nos referimos a eles como “estratégias de raciocínio”. Vamos explorar algumas das estratégias de raciocínio populares a seguir:

  • Cadeia de pensamento (CoT): esta é uma das estratégias de raciocínio mais populares. Essa abordagem imita a tomada de decisão no estilo humano, instruindo um LLM a decompor um problema complexo em uma sequência de etapas. Essa estratégia também é chamada de “planejador sequencial”. O raciocínio em Cadeia de pensamentoAbre em uma nova janela pode resolver problemas matemáticos com palavras, raciocinar com bom senso e resolver tarefas que um ser humano pode resolver com a linguagem. Um benefício da CoT é que ela permite que os engenheiros analisem o processo e, se algo der errado, identifiquem o que deu errado para corrigir.
  • Raciocinar e agir (ReAct): esta estratégia utiliza informações do mundo real para raciocinar, além dos dados nos quais o LLM foi treinado. O raciocínio baseado em ReActAbre em uma nova janela é apresentado como sendo mais parecido com a resolução de tarefas humana, que envolve tomada de decisão interativa e raciocínio verbal, o que resulta em melhor tratamento de erros e menores taxas de alucinação. Ele sinergiza o raciocínio e a ação por meio da ação do usuário, o que aumenta a interpretabilidade e a confiabilidade das respostas. Essa estratégia também é chamada de “planejador passo a passo” porque aborda a solução de problemas passo a passo e também busca o feedback do usuário em cada etapa.
  • Árvore dos pensamentos (ToT): esta variação da abordagem Cadeia de pensamento gera vários pensamentos em cada etapa intermediária. Em vez de escolher apenas um caminho de raciocínio, ela explora e avalia o status atual do ambiente em cada etapa para olhar ativamente para frente ou para trás e tomar decisões mais deliberadas. Foi comprovado que essa estratégia supera significativamente o método CoT em tarefas complexas, como jogos matemáticos, exercícios de escrita criativa e minijogos de palavras cruzadas. O raciocínio ToTAbre em uma nova janela é considerado ainda mais próximo de um paradigma de tomada de decisão humana que explora várias opções, avalia os prós e os contras e, em seguida, escolhe a melhor.
  • Raciocínio via planejamento (RAP): esta estratégia usa LLMs como mecanismo de raciocínio e modelo mundial para prever o estado do ambiente e simular o impacto de longo prazo das ações. Ele integra vários conceitos, como exploração de caminhos alternativos de raciocínio, antecipação de estados futuros e recompensas e refinamento iterativo das etapas de raciocínio existentes, no intuito de obter um melhor desempenho de raciocínio. O raciocínio baseado em RAPAbre em uma nova janela exibe um desempenho superior em várias referências para tarefas que envolvem planejamento, raciocínio matemático e inferência lógica.

Essas são apenas algumas das estratégias mais promissoras da atualidade. O processo de aplicar essas estratégias a um app de IA da vida real é iterativo e envolve ajustes e combinações de várias estratégias para obtenção do melhor desempenho.

Como os apps da vida real podem usar mecanismos de raciocínio?

É muito empolgante fazer os LLMs funcionarem como mecanismos de raciocínio, mas como torná-los úteis no mundo real? Para fazer uma analogia com os humanos, se os LLMs são como um cérebro com habilidades de raciocínio, planejamento e tomada de decisão, ainda precisamos de nossas mãos e pernas para agir. Esta é a deixa para o “agente de IA”, um sistema de IA que contém habilidades de raciocínio e de ação. Alguns dos termos predominantes para a tomada de ações são “ferramentas”, “plug-ins” e “ações”.

Existem dois tipos de agentes de IA: totalmente autônomos e semiautônomos. Agentes totalmente autônomos podem tomar decisões de forma autônoma, sem qualquer intervenção humana, e também agir de acordo com elas. Atualmente, esses tipos de agentes estão em modo experimental. Agentes semiautônomos são aqueles que envolvem um “humano no circuito” (“human in the loop”) para acionar solicitações. Estamos começando a ver a adoção de agentes semiautônomos principalmente em apps de IA, como chatbots conversacionais, incluindo Einstein Copilot, ChatGPT e Duet AI.

Um agente de IA tem quatro componentes principais:

  1. Meta: a principal meta ou tarefa do agente.
  2. Ambiente: as informações contextuais, como a meta, a entrada inicial do usuário, o histórico de atividades ou conversas anteriores, os dados de fundamentação para relevância, o feedback do usuário e os dados nos quais o LLM foi treinado.
  3. Raciocínio: a capacidade inerente do LLM de fazer observações, planejar as próximas ações e se recalibrar em direção à meta pretendida.
  4. Ação: normalmente ferramentas externas para permitir que um agente atinja a meta. Alguns exemplos comuns de ações são recuperação de informações, pesquisa, geração de código, interpretação de código e geração de diálogos.

Como o Einstein Copilot usa LLMs como um mecanismo de raciocínio?

O Einstein Copilot da Salesforce é um assistente conversacional avançado com IA, que interage com os colaboradores e clientes de uma empresa em linguagem natural. Os colaboradores podem usá-lo para realizar diversas tarefas no fluxo de trabalho, ajudando a aumentar a produtividade em grande escala. E os consumidores podem usá-lo para conversar com as marcas e obter respostas imediatas para suas perguntas, resultando em maior satisfação e fidelidade. O Einstein Copilot usa LLMs para habilidades linguísticas, como compreensão e geração de conteúdo, e também como um mecanismo de raciocínio para planejar tarefas complexas, reduzindo assim a carga cognitiva nos usuários.

Funciona da seguinte maneira:

  1. O usuário digita a meta que deseja alcançar, por exemplo: “Criar uma página da Web”.
  2. O Einstein Copilot usa um prompt selecionado para enviar a entrada do usuário para um LLM seguro e inferir a intenção do usuário.
  3. Com base na intenção, o Einstein Copilot envia outro prompt selecionado para instruir o LLM a gerar um plano para cumprir essa intenção.
  4. O plano gerado é um conjunto de ações encadeadas em uma sequência lógica. Para garantir que o Einstein Copilot aja de maneira confiável, o LLM é instruído a gerar planos estritamente com as ações que lhe são disponibilizadas.
  5. Depois que o LLM retorna um plano, o Einstein Copilot executa as ações na sequência prescrita para gerar o resultado desejado e o retransmite ao usuário.

Visualmente, seria assim…

Imagem do Einstein Copilot e do mecanismo de raciocínio

Como sua empresa pode se beneficiar do Einstein Copilot?

O Einstein Copilot oferece às empresas a capacidade de usar LLMs como mecanismos de raciocínio. Com essa ferramenta, as empresas podem usar a IA para realizar várias tarefas que não eram realistas há apenas alguns meses.

  • Se uma equipe de vendas está vendo uma redução no pipeline, o Einstein Copilot pode escanear bancos de dados para encontrar leads de alta qualidade que valham a pena engajar.
  • O Copilot examinará possíveis negócios para encontrar aqueles que estão em risco e, se solicitado, poderá resumir os registros para os gerentes.
  • O Copilot pode ajudar os agentes de atendimento a resolver um problema de cobrança excessiva para um cliente, reunindo as informações certas para a solução de problemas.
  • O Copilot é capaz de analisar o sentimento atual do cliente em relação a um possível negócio e recomendar as ações necessárias para fechar esse negócio nos próximos três meses.

Nesses casos de uso e em muitos outros como esses, o Einstein Copilot atua essencialmente como um agente semiautônomo, usando LLMs como mecanismos de raciocínio e adotando ações para realizar tarefas quando os usuários solicitam. Isso é apenas o começo; a próxima fronteira é tornar o Einstein Copilot totalmente autônomo para que ele não seja apenas assistivo, mas proativo e onipresente. A IA tem um futuro brilhante, mas ainda mais empolgantes são os resultados de eficiência global que estão por vir.