Los agentes basados en IA están acá. Son muchos, están recargados, y vienen por todo.

Los agentes basados en IA se diferencian de los grandes modelos de lenguaje y de los tradicionales modelos de IA porque realizan tareas en forma autónoma, tienen iniciativa, memoria persistente, planes y objetivos a largo plazo. Además, pueden aprender, especializarse e interactuar con otros agentes.

Por ejemplo, un agente de IA puede controlar las cámaras de un hogar, detectar situaciones de peligro, y reaccionar tomando acciones, o invocar a otros agentes que manejen domótica y cerrar puertas o activar medidas de seguridad. Y aprender que finalmente nuestro gato no es realmente un peligro, aunque se suba al televisor. Un agente de servicio al cliente responde consultas las 24 horas, pero a diferencia de un chatbot toma iniciativa, monitorea el producto, solicita feedback y propone mejoras o actualizaciones – incluyendo servicio técnico remoto. Y eventualmente aprende a negociar de la mejor manera con el agente de IA al que el cliente le encargó que resuelva el problema con el cable.

Los agentes están asumiendo tareas que antes requerían equipos completos de humanos, pero no necesitan un café para empezar a trabajar, nunca piden vacaciones, no tienen crisis existenciales los lunes por la mañana, y jamás llegan tarde porque «había mucho tráfico».

Otra particularidad de estos agentes basados en silicio es que es barato multiplicar su número: podemos tener decenas que interactúen entre sí. En un trabajo de investigación reciente pusieron cientos de agentes dentro del universo del juego Minecraft, con el objetivo de que interactúen para formar una civilización. Una de las ideas era observar e identificar comportamientos emergentes, cómo interactuaban los agentes y qué problemas surgían, entre otras cosas. Por ejemplo, se detectó que los agentes se especializaban en tareas (granjeros, mineros, exploradores…) en forma autónoma, sin haber recibido instrucciones para hacerlo, como una forma de optimizar las interacciones. Asimismo, los propios agentes generaban reglas que ellos mismos debían respetar, pero también revisaban y proponían cambios a estas reglas. Minecraft es un buen contexto porque es lo suficientemente complejo y se expande en forma ilimitada. Parte del aprendizaje es que más allá de la potencia de cada agente, la interacción produce resultados inesperados.

Contar con numerosos agentes no es solo “ponerlos en una bolsa”. Los agentes funcionan en forma concurrente y en tiempo real, por lo que no pueden “tomarse un tiempo” para pensar en situaciones de peligro o que requieren acciones inmediatas.

Además, mantener coherencia a lo largo del tiempo en las respuestas de cada agente y entre todos es un desafío (la falta de coherencia es el hermano de las alucinaciones de los modelos del lenguaje, un agente puede decir “te doy mi pala” y actual como si lo hubiera hecho cuando en realidad no tenía una pala). Por estos motivos se están proponiendo diferentes frameworks y arquitecturas para los agentes, que permitan resolver todos estos problemas.

Hay hoy otra clase de problemas que no tienen que ver con el uso de agentes sino con el estado actual de la tecnología. Bastante problemático resulta que un asistente basado en IA generativa nos cuente casos que no existen y cite referencias inventadas, pero un agente que decida mandar un mail con información confidencial a toda la lista de contactos porque entendió que era una buena forma de conseguir amigos es otro nivel de problema.

Los agentes actuales aún confunden contextos complejos, malinterpretan el sarcasmo, y ocasionalmente ofrecen soluciones tan creativas que bordean lo absurdo. Por ejemplo, un asistente de programación al que le pedimos optimizar el código podría decidir eliminar todas las funciones de seguridad porque ralentizan la ejecución. Todos estos problemas se van a resolver, y creemos que 2025 es un año bisagra: cuando los agentes comienzan a adoptarse en el contexto corporativo en forma masiva.

El desafío de los agentes basados en IA no es competir con ellos, o temer que se conviertan en nuestros jefes. El desafío es aprender a trabajar con estos nuevos colegas digitales.

La próxima generación de Alexa te van a retar cuando vean que comés papas fritas antes de la cena, la siguiente va a recordarle a algún agente que las esconda, o la borrará de la lista de compras. La gran ventaja es que, por ahora, se pueden desenchufar.

Si quieres conocer más sobre IA y los Agentes basados en esta, haz clic aquí y habla con nuestros expertos.