Modelos de acción a gran escala: el futuro de la IA autónoma

Los agentes y asistentes IA pueden actuar en nombre del usuario, pero cada uno tiene un propósito distinto.
La IA generativa avanza a su segunda fase, impulsada por una nueva generación de agentes IA capaces de actuar con la misma destreza con la que mantienen una conversación. Estos sistemas de IA autónomos ejecutan tareas para apoyar o reemplazar humanos, usando herramientas externas y datos actualizados más allá de su entrenamiento.
Estos agentes, una versión más sofisticada de un LLM, se basan en modelos de acción de gran tamaño (MLM), la última de una serie de innovaciones que nos acercan a un futuro de IA autónoma. En julio 2024 lanzamos nuestros modelos agénticos pequeños: xLAM-1B (Tiny Giant) y xLAM-7B.
xLAM es capaz de realizar tareas complejas para sus usuarios y, pese a su pequeño tamaño, supera en pruebas a modelos mucho más grandes y caros. Los LAM anticipan un futuro donde agentes IA amplían nuestras capacidades y mejoran la eficiencia organizacional. ¿Cómo funcionará esto en la práctica?
En Salesforce, creemos que la IA empresarial autónoma adoptará dos formas principales: asistentes IA y agentes IA. Ambas comparten dos características importantes. La primera es la autonomía, o capacidad de actuar con intención —a veces de forma totalmente independiente—, para alcanzar un objetivo asignado. La segunda es la notable capacidad de aprender y evolucionar con el tiempo, pero de maneras distintas. Los asistentes IA se adaptarán de forma única y personalizada para comprender mejor al usuario: el humano al que brindan asistencia.
Por otro lado, los agentes IA se adaptan para apoyar mejor a equipos y organizaciones, aprendiendo prácticas y procesos compartidos. En resumen, los asistentes IA son personalizables, y los agentes IA, compartidos y ampliables, ofreciendo grandes oportunidades para las empresas.
Consiga las habilidades de IA que necesita para triunfar
Desarrolle habilidades básicas de IA con Salesforce.



El poder del aprendizaje progresivo
La noción de aprender y mejorar mediante la repetición es un aspecto fundamental de la IA autónoma, pero existen diferencias cruciales entre las distintas implementaciones. En el caso del asistente IA, el aprendizaje consiste en desarrollar una relación de trabajo eficiente con el humano al que asiste.
Con el tiempo, el asistente identificará los hábitos, las expectativas e incluso los ritmos de trabajo de cada persona. Dada la delicada naturaleza de este tipo de datos, la privacidad y la seguridad son innegociables; nadie quiere un asistente en quien no pueda confiar, por muy bueno que sea.
Los agentes IA, por otro lado, están diseñados para aprender prácticas compartidas, como herramientas y flujos de trabajo en equipo. Lejos de ser privados, difundirán la información que aprenden a otros agentes IA dentro de la organización. Esto significa que, a medida que cada agente IA mejora su rendimiento mediante el aprendizaje y la experiencia sobre el terreno, todos los demás agentes del mismo tipo deberían recibir esa misma mejora al instante.
Además, tanto los agentes como los asistentes IA podrán aprender de fuentes externas mediante técnicas como la generación aumentada de recuperación (RAG) e integrarán automáticamente nuevas aplicaciones, funciones o cambios de políticas implantados en toda la empresa.
Repercusiones reales
Juntos, agentes y asistentes IA están revolucionando la forma de trabajar, desde la formación de equipos de ventas hasta la mejora de la atención al cliente y la asistencia informática. Imagine, por ejemplo, una agenda llena de reuniones, desde videollamadas hasta viajes presenciales en la temporada más intensa.
Para los profesionales de ventas, esta realidad frenética se complica aún más por la gestión manual del creciente volumen de datos CRM. Pero, ¿y si un asistente IA pudiera asistir incansablemente a cada reunión, anotando detalles, organizándolos y respondiendo preguntas automáticamente? Esto facilitaría la organización y permitiría al vendedor concentrarse en la conversación y en construir relaciones.
Lo más interesante es imaginar cómo el asistente IA seguiría cada reunión, comprendiendo mejor sus necesidades y hábitos, siempre cuidando la privacidad.
A medida que el asistente IA identifique la necesidad de realizar tareas específicas —desde recuperar información interna hasta buscar datos en Internet o resumir notas de reuniones—, delegará subtareas complejas a un agente IA o ejecutará acciones puntuales, como consultar un artículo de ayuda. Por ejemplo:

No es difícil imaginar cómo agentes y asistentes IA podrían beneficiar también a otros departamentos, como atención al cliente. Incluso para una pequeña o mediana empresa, la cantidad de incidentes que un departamento de informática debe atender diariamente puede ser abrumadora.
Aunque la atención humana seguirá siendo esencial para resolver problemas complejos e inusuales que requieren ingenio, la mayoría de los desafíos cotidianos son más simples. Los agentes IA pueden encargarse de gran parte de este trabajo, adaptándose a la demanda para gestionar altos volúmenes de solicitudes, liberando a los profesionales informáticos para que se concentren en tareas más complejas y reduciendo los tiempos de espera de los clientes.
Los desafíos futuros
El camino hacia la IA autónoma enfrenta desafíos técnicos, sociales y éticos, sobre todo en persistencia y memoria. Los asistentes IA deberían conocernos bien y usar experiencias previas como hacemos con amigos o compañeros de trabajo.
Lograr esto con los modelos actuales no es fácil: altos costes de computación, almacenamiento, latencia y limitaciones algorítmicas dificultan crear sistemas autónomos con memoria compleja y atención al detalle.
Además, debemos aprender de cómo filtramos y condensamos información, reteniendo solo lo relevante. Ya sea en reuniones o conversaciones, somos expertos en resumir horas en pocas conclusiones, y los asistentes IA deberán hacer lo mismo.
Más que la cantidad de memoria de una IA, es vital confiar en sus resultados. Aunque poderosa, la IA generativa enfrenta problemas como las alucinaciones, que surgen de lagunas de conocimiento. La capacidad de aprendizaje continuo de la IA autónoma ayudará a mejorar esto, pero se requieren más avances.
Una medida es la creciente práctica de asignar puntuaciones de confianza a los resultados de LLM. Además, técnicas como la generación aumentada de recuperación (RAG) permiten enriquecer las indicaciones LLM con conocimiento relevante para que el modelo tenga mejor contexto al procesar solicitudes.
Las consideraciones éticas son complejas: ¿requieren los sistemas IA autónomos nuevos protocolos y normas? ¿Cómo deben comunicarse los agentes y equipos, gestionar riesgos y generar confianza? ¿Cómo asegurar transparencia, auditabilidad y rendición de cuentas en un mundo automatizado?
Lo cierto es que los humanos deben decidir cuándo y cómo usar agentes digitales. La IA autónoma es útil solo si los equipos humanos conocen su uso y los líderes mantienen el control total.
Además, las interacciones con IA deben identificarse claramente para no confundir lo humano con lo mecánico, y es igual de importante definir protocolos tanto entre agentes IA como entre IA y humanos.
Conclusión
Por ambiciosa que parezca nuestra visión de un futuro impulsado por agentes, el lanzamiento de xLAM-1B Tiny Giant y otros pequeños modelos de agentes de nuestro conjunto son una prueba contundente de que vamos por buen camino para lograrlo.
Queda mucho por hacer, tanto en términos de implementación tecnológica como de las prácticas y la orientación necesarias para garantizar que el impacto de la IA sea beneficioso y equitativo para todos. Pero, con ventajas tan evidentes ya emergiendo, vale la pena detenerse a apreciar lo bueno que nos trae y a observar la profundidad de este capítulo actual de la historia de la IA.
¿Alguna pregunta?
Nosotros le ayudamos


