Un nuevo white paper de Salesforce describe consideraciones clave para diseñar y usar agentes de IA, y cómo los legisladores globales pueden adoptar y desbloquear todo el potencial de la IA.
La IA agéntica está aquí — y sistemas como Agentforce de Salesforce demuestran ser una herramienta poderosa para el crecimiento económico y el empoderamiento de los trabajadores humanos. De hecho, para clientes como Wiley, Agentforce ayudó a aumentar las resoluciones de casos en un 40%, superando a su chatbot anterior y liberando a los empleados para centrarse en casos más complejos. Pero la solución para aumentar la productividad y generar confianza no es tan simple como implementar agentes de IA de inmediato, según un nuevo white paper de Salesforce.
Para que los agentes de IA empresariales autónomos sean aceptados en los espacios de trabajo gubernamentales e industriales, deben operar dentro de barreras de protección definidas (guardrails) que aseguren una transferencia fluida de tareas a los humanos, estar basados en datos empresariales confiables y adherirse a los más altos estándares de privacidad de datos, seguridad y precisión.
“La IA en sí misma tiene el potencial de generar confianza, eficiencia y efectividad en nuestras instituciones, con investigaciones de Salesforce que muestran que el 90% de los ciudadanos encuestados están abiertos a usar agentes de IA para interacciones gubernamentales, atraídos por beneficios como acceso 24/7, respuestas más rápidas y procesos simplificados”, dijo Eric Loeb, EVP de Asuntos Gubernamentales Globales en Salesforce.
Consideraciones clave para los legisladores en una era centrada en los agentes
Para equilibrar los riesgos y oportunidades de los agentes de IA, el white paper expone consideraciones clave de diseño para que los legisladores tengan en cuenta, incluyendo:
- Humanos trabajando con IA agéntica: Los empleados necesitarán nuevas habilidades para configurar, asignar tareas, gestionar y supervisar agentes de IA. Los agentes deberán ser fáciles de programar y usar en una variedad de contextos.
- Confiabilidad: Los agentes de IA deben diseñarse cuidadosamente y equiparse con barreras de protección (guardrails) para garantizar la transferencia clara y fluida de proyectos y tareas a los humanos, así como para minimizar, señalar y corregir alucinaciones. Se requiere una ingeniería cuidadosa y pruebas robustas para asegurar la precisión y confiabilidad de los agentes.
- Fluidez entre dominios: Los agentes de IA interactuarán con usuarios y terceros dentro y fuera de las organizaciones, recuperando, interpretando y actuando sobre diferentes tipos de información en estos dominios. Esto requiere programación avanzada y una integración reflexiva de los procesos de negocio y los sistemas de datos.
- Transparencia y explicabilidad: Los usuarios necesitan saber cuándo están interactuando con un agente de IA en lugar de un humano. Los reguladores y el público también querrán saber cómo los agentes de IA realizaron su trabajo para asegurarse de que lo hicieron con precisión y de manera confiable. Por lo tanto, se requerirán sistemas que garanticen total transparencia y explicabilidad para cualquier despliegue de IA agéntica.
- Rendición de cuentas (Accountability): Para garantizar la rendición de cuentas, es importante definir claramente quién es responsable de asegurar que el agente funcione correctamente y entregue resultados confiables.
- Gobernanza de datos y privacidad: Los agentes de IA pueden requerir acceso a datos personales u otros datos sensibles para completar sus tareas asignadas. Para que los usuarios y las empresas confíen en los agentes de IA, deberán operar con altos estándares de privacidad y seguridad de datos.
- Seguridad: Al igual que otras aplicaciones de IA, los agentes pueden ser vulnerables a ataques adversarios, donde entradas maliciosas están diseñadas para engañar a la IA y hacerla producir resultados incorrectos. A medida que los agentes de IA asumen tareas cada vez más complejas, será esencial adherirse a las mejores prácticas de seguridad de IA y control de calidad.
- Ética: Las empresas que utilizan agentes de IA deben establecer y seguir directrices de uso ético. Esto requerirá desarrollar nuevos protocolos y normas para sistemas de IA autónomos, fomentando una colaboración efectiva entre humanos e IA mientras se construye consenso y confianza en los procesos de toma de decisiones.
- Interacciones agente-a-agente: Los protocolos y estándares comunes serán importantes para infundir confianza y ayudar a garantizar un comportamiento agéntico controlado, predecible y responsable. Fundamental para esto es un entorno seguro de intercambio de información y, cuando sea relevante, pistas de auditoría de las interacciones agente-a-agente.
Políticas para fomentar un ecosistema preparado para agentes
Aunque los agentes de IA son el último avance tecnológico, los principios fundamentales de una política pública sólida sobre IA que protege a las personas y fomenta la innovación permanecen sin cambios: enfoques basados en el riesgo, con una clara delimitación de los diferentes roles en el ecosistema, respaldados por robustas barreras de protección (guardrails) de privacidad, transparencia y seguridad.
A medida que los legisladores miran hacia un futuro de amplia adopción de IA agéntica confiable en todas las industrias y geografías, es hora de pensar más allá de regular cómo se construye la IA. También deben equipar a la fuerza laboral con las habilidades necesarias para aprovechar el potencial de los agentes de IA.
“Ya no es una cuestión de si los agentes de IA deben integrarse en las fuerzas laborales, sino de cómo optimizar mejor el trabajo humano y digital trabajando juntos para alcanzar los objetivos deseados”, dijo Loeb. “Los gobiernos deben adoptar políticas y procedimientos que allanen el camino para despliegues agénticos confiables y responsables que conduzcan a un trabajo más significativo y productivo”.
Conoce el Agentforce
Humanos y Agentes se unen por el éxito del cliente. Cree y personalice agentes de IA autónomos para ayudar continuamente a sus colaboradores y clientes.

