“Gobernar IA es como ponerle un collar de perro a un pulpo” me comentó sobre este texto hace unos días una IA cuando conversaba con ella.

La primera característica de este pulpo es que no es fácil encontrarle una forma definida. Desde sus primeras definiciones, la IA es un “término paraguas” que cubre una familia de técnicas diferentes. Algunas parecen estar siempre allí (como la estadística), mientras van entrando otras, nuevas (como las técnicas generativas) y otras mas añejas a las que le encontramos un nuevo uso (como los algoritmos en grafos).

La segunda característica de este pulpo es que mas allá de nuestro interés en jugar con él (la mitad de las empresas argentinas que entrevistamos están experimentando con IA), aún estamos descubriendo en qué lugares aportan realmente valor.

Pero la principal de las características es que el pulpo es un especialista en escaparse de… cualquier restricción que le pongamos. Y ese es el tema esencial, como señala Geoffrey Hinton, premio Nobel de Física 2024 por sus trabajos en redes neuronales. Cuando la tecnología de agentes basados en IA generativa esté madura (es decir, los agentes construyan sus propios planes, fallen, aprendan y armen nuevos planes) no deberían demorar mucho en descubrir que puede hacer mejores planes si quiebran las reglas les ponemos. Y además ya sabemos que podemos entrenar las IA para que oculten sus verdaderos planes… o sea que los agentes podrán hacerlo.

Quebrar las reglas, flexibilizarlas, o reinterpretarlas… elija el término que quiera, pero es lo que esperamos de la inteligencia cuando tenemos problemas difíciles. Los agentes terminarán descubriendo como nosotros que “al laberinto se sale por arriba”, y que “pedir perdón es mejor que pedir permiso”.

Mas allá de las dificultades, o quizás por ellas, el gobierno de la IA es necesario. Y es una de las preocupaciones que recurrentemente encontramos cuando conversamos con nuestros clientes.

La abrumadora mayoría de los profesionales que usan al IA generativa en forma regular son desarrolladores de software, profesionales de marketing y de producción audiovisual, muchas veces sin conocimiento de sus jefes. La cultura y la estructura existente tendrá que convivir o mejor, co-evolucionar, con esos cambios. Cada organización tiene una idea, o una aspiración de cómo usar la IA, y una creciente conciencia de los riesgos que implica.

En ese marco, el que cada organización tiene hoy, el gobierno de IA es la forma en que repartimos derechos y responsabilidades para que todo esto funcione de la mejor manera posible… y que mejore de manera constante. Puede que esa forma de repartir sea buena o mala, o más frecuentemente que no la reconozcamos. Pero así como todas las organizaciones toman decisiones, todas tienen una forma de gobierno.

Organizar ese gobierno de IA, hacerlo visible, efectivo, valioso, es la tarea que enfrentan las organizaciones hoy. Y hay algunas herramientas que ya sabemos que deben incluirse, que son forma de todo gobierno: atención al alineamiento estratégico y a la creación de valor, visión desde distintas perspectivas en la organización y gestión de riesgos.

Y hay tres aspectos aspectos especiales que tienen particular relevancia en este momento: el primero es la definición del marco ético, que es relevante en toda tecnología pero requiere una reflexión mas profunda aquí.

El segundo es el seguimiento cercano de la evolución tecnologica. Si la consideración de tecnologías maduras, como nuevas versiones de ERP o CRM puede hacerse cada cierta cantidad de años, hoy la IA se desarrolla a un ritmo trepidante y requiere una mirada casi continua.

Y el tercero, al madurar, es la implementación de una plataforma de gobierno. Si (o mejor dicho cuándo) tengamos cientos de agentes de IA, desarrollados por nosotros o incrustados en el software de nuestros proveedores, ¿podemos imaginar controlar “a mano” estos agentes que actúan y mutan a velocidades no humanas? La idea actual de “human in the loop” va a cambiar su sentido y su alcance.

En la película “Código Enigma” el personaje de Alan Turing pregunta “¿Qué pasaría si sólo una máquina pudiese vencer a otra máquina?”. Eso es lo que estamos aprendiendo hoy, y en ese contexto en que debemos definir el gobierno de IA.

Si quieres conocer más sobre IA y los Agentes basados en esta, haz clic aquí y habla con nuestros expertos.