A IA agêntica chegou — e sistemas como o Agentforce da Salesforce provam ser uma ferramenta poderosa para o crescimento econômico e para capacitar os trabalhadores humanos. De fato, para clientes como a Wiley, o Agentforce ajudou a aumentar as resoluções de casos em 40%, superando seu chatbot anterior e liberando funcionários para se concentrarem em casos mais complexos. Mas a solução para aumentar a produtividade e construir confiança não é tão simples quanto implementar agentes de IA imediatamente, de acordo com um novo white paper da Salesforce.
Para que agentes de IA empresariais autônomos sejam aceitos em ambientes de trabalho governamentais e industriais, eles devem operar dentro de limites definidos (guardrails) que garantam uma transferência tranquila de tarefas para humanos, estar baseados em dados empresariais confiáveis e aderir aos mais altos padrões de privacidade de dados, segurança e precisão.
“A própria IA tem o potencial de construir confiança, eficiência e eficácia em nossas instituições, com pesquisas da Salesforce mostrando que 90% dos cidadãos pesquisados estão abertos a usar agentes de IA para interações governamentais, atraídos por benefícios como acesso 24/7, respostas mais rápidas e processos simplificados”, disse Eric Loeb, EVP de Assuntos Governamentais Globais da Salesforce.
Considerações chave para legisladores em uma era focada em agentes
Para equilibrar os riscos e oportunidades dos agentes de IA, o white paper apresenta considerações chave de design para os legisladores terem em mente, incluindo:
- Humanos trabalhando com IA agêntica: Os funcionários precisarão de novas habilidades para configurar, atribuir tarefas, gerenciar e supervisionar agentes de IA. Os agentes precisarão ser fáceis de programar e usar em diversos contextos.
- Confiabilidade: Agentes de IA devem ser cuidadosamente projetados e equipados com barreiras de proteção (guardrails) para garantir a transferência clara e tranquila de projetos e tarefas para humanos, bem como para minimizar, sinalizar e corrigir alucinações. Engenharia cuidadosa e testes robustos são necessários para garantir a precisão e a confiabilidade dos agentes.
- Fluência entre domínios: Agentes de IA interagirão com usuários e terceiros dentro e fora das organizações, recuperando, interpretando e agindo sobre diferentes tipos de informação nesses domínios. Isso requer programação avançada e integração cuidadosa de processos de negócios e sistemas de dados.
- Transparência e explicabilidade: Os usuários precisam saber quando estão interagindo com um agente de IA em vez de um humano. Reguladores e o público também desejarão saber como os agentes de IA realizaram seu trabalho para garantir que o fizeram com precisão e de forma confiável. Sistemas que garantam total transparência e explicabilidade, portanto, serão necessários para qualquer implantação de IA agêntica.
- Responsabilidade (Accountability): Para garantir a responsabilidade, é importante definir claramente quem é responsável por assegurar que o agente funcione corretamente e entregue resultados confiáveis.
- Governança de dados e privacidade: Agentes de IA podem exigir acesso a dados pessoais ou outros dados sensíveis para completar suas tarefas designadas. Para que usuários e empresas confiem nos agentes de IA, eles terão que operar com altos padrões de privacidade e segurança de dados.
- Segurança: Como outras aplicações de IA, os agentes podem ser vulneráveis a ataques adversariais, onde entradas maliciosas são projetadas para enganar a IA e fazê-la produzir resultados ruins. À medida que os agentes de IA assumem tarefas cada vez mais complexas, aderir às melhores práticas de segurança de IA e controle de qualidade será essencial.
- Ética: Empresas que usam agentes de IA devem estabelecer e seguir diretrizes de uso ético. Isso exigirá o desenvolvimento de novos protocolos e normas para sistemas de IA autônomos, fomentando a colaboração eficaz entre humanos e IA, ao mesmo tempo em que se constrói consenso e confiança nos processos de tomada de decisão.
- Interações agente-a-agente: Protocolos e padrões comuns serão importantes para inspirar confiança e ajudar a garantir um comportamento agêntico controlado, previsível e responsável. Fundamental para isso é um ambiente seguro de troca de informações e, quando relevante, trilhas de auditoria das interações agente-a-agente.
Políticas para fomentar um ecossistema pronto para agentes
Embora os agentes de IA sejam o mais recente avanço tecnológico, os princípios fundamentais de uma política pública sólida para IA que protege as pessoas e fomenta a inovação permanecem inalterados: abordagens baseadas em risco, com delineamento claro dos diferentes papeis no ecossistema, apoiadas por robustas barreiras de proteção (guardrails) de privacidade, transparência e segurança.
À medida que os legisladores olham para um futuro de ampla adoção de IA agêntica confiável em todas as indústrias e geografias, é hora de pensar além da regulamentação de como a IA é construída. Eles também devem capacitar a força de trabalho com as habilidades necessárias para aproveitar o potencial dos agentes de IA.
“Não é mais uma questão de se os agentes de IA devem ser integrados às forças de trabalho – mas sim de como otimizar o trabalho humano e digital trabalhando juntos para alcançar os objetivos desejados”, disse Loeb. “Os governos devem adotar políticas e procedimentos que preparem o caminho para implementações agênticas confiáveis e responsáveis que levem a um trabalho mais significativo e produtivo.”
Conheça o Agentforce
Humanos e Agentes se unem pelo sucesso do cliente. Crie e personalize agentes de IA autônomos para ajudar continuamente seus colaboradores e clientes.

