El gurú de la inteligencia artificial Geoffrey Hinton señaló en 2016: “Quien trabaja como radiólogo es como El Coyote al borde del acantilado: la gente debería dejar de entrenar a los radiólogos ya mismo. Es obvio que en cinco años el aprendizaje profundo va a ser mejor que los radiólogos”. ¿Qué estaba ocurriendo en 2021? Según la revista Radiology Business, la demanda de radiólogos nunca dejó de ascender, al menos en Estados Unidos. La tendencia sigue en alza aún hasta hoy.
Es casi paradójico: Hinton tenía razón y la capacidad de la IA para interpretar imágenes es cada vez más avanzada. Pero eso no frenó la necesidad de especialistas humanos capaces de analizar una radiografía. Esto ocurrió porque las disrupciones no golpean de manera lineal. Se trata de impactos heterogéneos y complejos, que generan mutaciones, cambios y desafíos.
Tal vez por esto, Hinton tampoco previó que la primera “revolución social” vinculada a protestas por el uso de la IA vendría de… los guionistas de Hollywood. Pero, en efecto, estos trabajadores llegaron a declarar una huelga que obligó a repensar los límites: qué se puede generar y qué no con la tecnología, si un texto escrito por un humano puede utilizarse para alimentar nuevos modelos, cómo identificar de manera clara y sin ambigüedades las obras creadas enteramente de manera artificial…
¿Te preocupa de qué manera va a impactar la IA en tu organización y en el mundo en el mediano y el largo plazo? Te invitamos a contactar a nuestro equipo de expertos en el tema para que despejen tus dudas. Y, por supuesto, te recomendamos que no dejes de seguir leyendo este artículo.
Juntos es mejor
La irrupción de ChatGPT y su capacidad para redactar textos no tiene que significar que las personas que escriben cartas tiendan a desaparecer. Hace apenas unos meses, otro gurú, Ethan Mollick, realizó un estudio para Harvard, con el apoyo de Boston Consulting Group (BCG): dividieron a los participantes en dos grupos, les asignaron a ambos equipos tareas equivalentes (de la vida real, es decir, actividades cotidianas de las que suelen realizarse en las organizaciones) y les indicaron una consigna: uno debía utilizar IA generativa para alcanzar sus objetivos y el segundo tenía prohibido hacerlo. ¿El resultado? Quienes se apoyaron en esta tecnología lograron resultados un 25% más rápidos y un 40% mejores.
El hecho: todos vamos a terminar utilizando estas tecnologías en mayor o menor medida. Resistirse es inútil. En cambio, podemos comenzar tempranamente a gestionar esta nueva realidad. El auge de ChatGPT llevó a que muchas personas comenzaran a experimentarlo sin ningún tipo de directiva por parte de la organización.
Esto obliga a los líderes a tomar conciencia del uso que se le está dando a este tipo de herramientas dentro de la empresa, por un lado, y a planificar un programa de alfabetización, que incluya las motivaciones para su utilización, la potencialidad que tiene para el negocio y, por supuesto, los riesgos que involucra.
Creación de un marco de gestión de IA
Como se trata de una tecnología dinámica que evoluciona a gran velocidad, para avanzar a paso future proof y soportar futuras disrupciones es necesario crear un marco de gestión que conste de al menos cuatro componentes.
El primero, el ético. Una definición claro de para qué se puede usar y para qué no: que ninguna de sus aplicaciones rompa principios como inclusión, diversidad, respeto, derechos humanos o derechos del consumidor.
El segundo, de gobierno y de seguridad. Por un lado, porque que la tecnología esté disponible no significa que haya que aplicarla sin ton ni son. Y por el otro, porque debemos transmitir la seguridad de que el artefacto de IA está bajo control: que no va a distribuir datos que no está autorizado a mostrar o, más profundo aún, que no va a comenzar a alucinar en medio de una conversación con un cliente. Es importante contar con herramientas, como las que provee Microsoft con Azure AI Content Safety Service, que permite prevenir lenguaje ofensivo o temáticas complejas.
Los consumidores están comenzando a demandar transparencia respecto de qué ocurre en esa caja negra que es la generación de contenidos por IA. “¿Cómo se manejaron mis datos?” o “¿En base a qué se creó el resultado que recibí?”, son dudas frecuentes que comienzan a expandirse. Y las organizaciones que pretendan hacer crecer su negocio con la IA generativa como uno de sus pilares deben estar preparadas para responder.
El tercer componente, Conjuntos de datos propios: es comenzar a utilizar esta tecnología de manera exclusiva con conjuntos de datos propios para obtener una verdadera ventaja competitiva. Estos modelos son gigantes: Stable Diffusion, para citar un ejemplo de los más conocidos, se estrenó con 2.300 millones de parámetros. Esto genera algunos desafíos para las empresas que quieren capitalizarlos. Por un lado, que en semejante cantidad de información es muy difícil gestionar el tipo de respuestas que puede brindar. Por otro, aparecen problemas de copyright porque no todo lo que entrega el modelo se puede usar libremente.
¿La solución? Crear conjuntos sintéticos de datos, también generados por IA, y considerando específicamente el problema que quiere tratar la organización desde todas las aristas disponibles. Por ejemplo, un cliente de Practia necesitaba armar una solución que reconociera automáticamente óxido en los techos de chapa de una instalación industrial. Como conseguir las imágenes reales para el entrenamiento a través de drones era muy costoso, fueron generadas de manera sintética, contemplando que hubiera alternativas desde todos los ángulos, con todas las condiciones climáticas y de luminosidad. También debía haber algunas con techos en perfectas condiciones y otras con óxido en diferentes estados de avance.
Por último, con espacio para el optimismo: el cuarto elemento del marco de gestión consiste en sentar las bases para la hiperautomatización inteligente: de qué manera todos estos robots van a integrarse e interactuar a lo largo de toda la organización, con las sensibilidades adecuadas y la calidad de datos correcta para que todo funcione como corresponde.
Tenemos espacio para el optimismo. El mencionado estudio de Harvard y BCG nos demuestra que el máximo potencial de la herramienta se logra no cuando se la utiliza como asistente del factor humano. Y la historia nos recuerda que, durante la Primera Revolución Industrial, cuando también parecía que las máquinas iban a acabar con las fuentes de trabajo, todo terminó en una mejora de la calidad de vida de buena parte de la población: la jornada de trabajo se redujo a casi la mitad. Tal vez, esta nueva revolución también tiene una buena noticia para darnos en el largo plazo.
Estuvimos discutiendo este tema en profundidad en el evento FuturIA (una innovación: el nombre del encuentro lo eligió una IA generativa). Te invitamos a verlo aquí