No sólo está en boca de todos los líderes empresariales: también se coló en sus agendas de prioridades y en sus presupuestos. El gasto en IA generativa crecerá a un ritmo de nada menos que el 73% anual durante los próximos cinco años, para llegar a US$143.000 millones a fines de 2027, según IDC. 

La misma consultora había estimado que para el final de 2026, el total de sistemas centrados en IA habrán superado los US$300.000 millones en inversiones.  

Esto, traducido en el día a día, significa que cada vez más empresas confían en que esta tecnología las ayudará a ser más eficientes, a generar nuevos negocios, a mejorar la experiencia de los clientes y a acelerar y hacer más precisa la toma de decisiones. 

Sin embargo, el crecimiento exponencial en la adopción de IA trae aparejados numerosos desafíos: desde un descontrol en los costos hasta duplicación de herramientas, y desde soluciones que no cumplen con las políticas de la empresa hasta iniciativas que no están alineadas con el propósito del negocio. 

En este contexto, gana importancia la “gobernanza de IA”. ¿Te interesa implementar este concepto en tu organización? Tenemos un equipo de expertos que puede ayudarte click acá. Mientras esperamos tu contacto, te invitamos a comprender esta temática a fondo leyendo el resto de este artículo. 

Compatibles, justos, confiables y seguros 


La gobernanza de AI propone
garantizar de forma proactiva que todos los sistemas de IA de una organización sean compatibles, justos, confiables y protejan la privacidad de los datos. También, que cumplan con las políticas corporativas, que resulten eficientes en costos y que estén alineados con los objetivos de la empresa. 

La IA avanza a tal velocidad -en especial desde la aparición de la IA generativa, hace apenas poco más de un año- que muchas veces las organizaciones que la adoptan no consideran los riesgos hasta que un modelo o una aplicación está en producción. 

Son muchas las cuestiones a considerar. La IA generativa es en muchos casos una caja negra que produce resultados impredecibles: pueden contener sesgos, lanzar información errónea o producir las famosas “alucinaciones”, que se dan cuando predice palabras no muy cercanas a la realidad. 

También aparecen ambigüedades vinculadas al cuidado de la confidencialidad de los datos. Esto se potencia en la medida que se integran modelos y herramientas de proveedores externos: junto con los modelos de IA se absorben los grandes conjuntos de datos utilizados para entrenarlos. 

¿La conclusión? Los usuarios podrían estar accediendo a datos confidenciales de otros, creando potenciales riesgos regulatorios, comerciales y de reputación. 

La importancia de la transparencia


No se trata de un tema sencillo: la OCDE (Organización para la Cooperación y el Desarrollo Económicos) señala que
lograr una IA ética es una declaración de intención casi universal que, sin embargo, implica incertidumbres prácticas.  

“Por ejemplo, a diferencia de la profesión médica, el modelo de una profesión guiada por principios que ha inspirado las recomendaciones de ética de la IA, no hay un cuerpo profesional comparable de profesionales de la IA guiados por objetivos comunes y deberes fiduciarios”, advierte la entidad. 

Esto puede estar revirtiéndose: OpenAI, uno de los grandes responsables de la difusión exponencial de la IA generativa en el mundo, está trabajando, en conjunto con otros laboratorios y proveedores de esta tecnología y coordinado nada menos que por la Casa Blanca de Estados Unidos, un conjunto de compromisos voluntarios para reforzar la seguridad y la fiabilidad de la IA. 

Estamos comprometidos


Los compromisos voluntarios abarcan aspectos como seguridad
, incluyendo controles para evitar el mal uso, los riesgos sociales (como el sesgo o la discriminación) y cuestiones inherentes a la seguridad nacional.  

Entre estos últimos se cuentan riesgos biológicos, químicos y radiológicos, la capacidad de las herramientas de controlar sistemas físicos o de explorar vulnerabilidades y producir ciberataques o la habilidad de los modelos de hacer copias de sí mismos. 

Compartir información entre empresas y gobiernos es otra pieza clave: para generar confianza entre las partes (incluyendo los usuarios finales), advertir proactiva y rápidamente potenciales peligros o capacidades emergentes que puedan ser nocivas y notificar el descubrimiento de vulnerabilidades. 

La comunicación debe incluir mecanismos que permita al consumidor del modelo distinguir cuándo un contenido fue producido por la IA. Ya existen mecanismos para esto, como los sistemas de procedencia o de marca de agua. 

¿Y por casa cómo andamos?


Más allá de los esfuerzos macro, cada organización debe trabajar puertas adentro la gobernanza de IA.
 

El camino es inevitable. Gartner predice que para 2026, los modelos de las organizaciones que hagan posible la transparencia, la confianza y la seguridad de la IA lograrán una mejora del 50% en términos de adopción, objetivos de negocios y aceptación por parte del usuario. 

En esta línea, la consultora promueve y coloca por segundo año consecutivo en su lista de tecnologías estratégicas para 2024 a IA TRiSM, siglas en inglés por gestión de confianza, riesgos y seguridad de las aplicaciones de inteligencia artificial. 

Es un tema urgente: cada iniciativa nueva de IA debe estar ya abrazada por los modelos de gobernanza, desde el momento cero de diseño. 

Los procesos especializados de gestión de riesgos deben integrarse en las operaciones del modelo de IA (ModelOps) para mantener la IA compatible, justa y ética. Los controles deben aplicarse continuamente, por ejemplo, a lo largo del desarrollo de modelos y aplicaciones, pruebas e implementación, y operaciones en curso. 

Un gobierno adecuado del panorama de IA dentro de la organización permite multiplicar los beneficios, mantener las inversiones bajo control, enfocar los esfuerzos para que las iniciativas estén alineadas con el negocio y minimizar los riesgos. En resumen, es clave para sumar beneficios y restar problemas. 

¿Te interesa obtener el máximo valor de tus inversiones en IA? Nuestros expertos pueden ayudarte. click acá.