Practia, una empresa Publicis Sapient, cerró su Ciclo de Data&IA con una charla enfocada en analizar el futuro inmediato de la tecnología y los conceptos que hoy circulan en la sociedad sobre lo que podemos esperar de la Inteligencia Artificial en 2026.
El encuentro reunió a dos expertos y colaboradores conjuntos en Practia hace más de 20 años, Juan V. Echagüe, Director de I+D en Practia, y Daniel Yankelevich, ambos PHD en informática y especialistas en IA, quienes compartieron predicciones, desafíos y tendencias que, según ambos, marcarán el rumbo de la inteligencia artificial en los próximos doce meses.
La conversación giró en torno a comprender qué está ocurriendo entre las personas, las organizaciones y la IA, y cuáles son las posibilidades y transformaciones que habilitará la tecnología en un futuro cercano, considerando que ya deja de ser emergente y cruza el umbral de la disrupción, avanzando a pasos acelerados.
Desde el inicio de la charla, el foco clave fue – La relación de las personas con la inteligencia artificial – desmitificando dos ideas centrales:
1. La expansión de la IA como acompañamiento emocional
Daniel Yankelevich señaló que, hasta 2023, las consultas a la IA se enfocaban principalmente en cuestiones técnicas, pero que en 2025 las personas cambiaron su forma de vincularse con la tecnología y su comprensión sobre ella. El uso de IA para asuntos personales creció exponencialmente.
Juan V. Echagüe reforzó esta idea y comentó: “Hay que asociar la capacidad de los chats con los crecientes problemas de soledad. Esto aparece porque, dentro de la sociedad en la que estamos, tenemos cada vez menos contactos humanos y significativos, y la IA viene a cubrir, no siempre de buena manera, un espacio que está abierto, que es el de la soledad no deseada”.
El experto advirtió sobre el riesgo de este nuevo tipo de relación, que implica confiar en un intangible capaz de reforzar pensamientos erróneos y habilitar un aislamiento del resto de las personas. Vinculó este fenómeno a la inmediatez y al uso de redes, que, según él, nos fueron preparando para este escenario.
2. ¿La IA reemplazará a los programadores?
Ante la idea, ampliamente difundida, de que la profesión de programador está perdiendo sentido, los oradores coincidieron en que no se trata de desaparición, sino de evolución.
Destacaron que estamos avanzando hacia una mayor abstracción. La tecnología evoluciona hacia una programación más estratégica, donde las personas se ocupan de lo complejo y delicado, operando como “curadores de algoritmos”, mientras que la tecnología acelera y sostiene el proceso, generando un fuerte impacto en el sector.
Daniel reforzó esta visión: “Ya está habiendo una modificación muy grande en la profesión del desarrollador y la vamos a ver profundizarse de acá en adelante. No hablamos de un reemplazo, sino de una transformación: el humano operará como gestión y árbitro frente al ejército de agentes, para decidir cuándo usarlos y de qué manera. Aún no vamos a ver desarrollo sin humanos, al menos en 2026”.
Hablemos sobre la calidad y disponibilidad de datos
En la segunda parte del encuentro, se abordó un punto crítico: La calidad y disponibilidad de datos para entrenar modelos de IA.
Daniel explicó que, hasta hoy, los LLMs y LMMs se entrenaron con datos de la web o generados digitalmente en texto e imagen, y cumplieron bien su función. Sin embargo, actualmente emerge el desafío de los datos sintéticos: Resultados creados por IA que alimentan a la propia IA. Si se utilizan incorrectamente, pueden generar un espiral descendente que degrade los modelos.
Frente a la idea de que los datos “se están acabando”, surge la oportunidad de utilizar datos sintéticos para mejorar entrenamientos, siempre que sean seleccionados, curados y aplicados con cuidado, para generar un espiral ascendente.
Daniel añadió: “No tenemos aún sistemas que estén tomando datos directamente del contacto con el mundo y los estén usando para entrenarse. Los grandes modelos no están aprovechando todavía esas oportunidades al 100%, y es algo que creo que durante el 2026 vamos a ver bastante, a partir de la utilización de simuladores que recrean el mundo y obtienen datos de la realidad simulada”.
Juan complementó señalando que, en las compañías, los datos existen, pero no tienen la calidad necesaria. Muchos sectores aún conservan repositorios no digitalizados o subutilizados, que amplían la deuda tecnológica. Explicó que es un error confundir los datos usados para entrenar grandes modelos con los que se encuentran dentro de las organizaciones.
“Es cierto que en algunas cosas se están acabando los datos; no es cierto que dentro de las organizaciones se estén acabando. Allí aún existen muchos que se pueden utilizar”, reforzó el experto.
¿Los modelos pueden razonar?
El encuentro avanzó hacia una reflexión central: ¿Los modelos de lenguaje pueden razonar? ¿Realmente lo están haciendo?
Si bien la evidencia muestra que los modelos son útiles para una amplia variedad de tareas, Juan aclaró: “Un primer punto es que no estamos muy seguros de qué quiere decir razonar; de hecho, no necesariamente los humanos razonamos como creemos que razonamos”.
Aún existen esfuerzos por comprender el funcionamiento profundo de la IA generativa y las redes neuronales. Sin embargo, hay indicios de que estas redes, por momentos, interpretan el mundo exterior y construyen representaciones que implican cierto nivel de comprensión más allá del lenguaje.
“De todos modos, exigirles razonamiento profundo a los LLM puros es pedirles demasiado. Estos modelos son excelentes en lo que hacen, pero necesitan complementarse con una persona que aporte criterio de verdad y otros marcos de razonamiento”, agregó Juan, aclarando que los modelos ya están ofreciendo respuestas reales que se utilizan en entornos concretos.
Daniel continuó: “La evidencia sobre los beneficios de estos modelos, su enorme variedad de aplicaciones y la cantidad de organizaciones que ya los adoptan demuestran que son útiles. No sirven para absolutamente todo, pero sí para lo que realmente importa. Esa discusión ya está saldada: es momento de dejarla atrás”.
Y no olvidemos la adopción organizacional y alfabetización en IA
En el tramo final del encuentro, se discutió uno de los temas más relevantes de la actualidad: La adopción organizacional.
Se mencionaron dos encuestas sobre adopción de tecnología en compañías de la región (una de Fundar junto al CEPE y otra desarrollada por Practia), ambas coincidentes en un diagnóstico: Las organizaciones están usando IA sin un marco claro.
El 90% de las personas afirma que la IA mejora su productividad, pero solo entre el 5% y el 8% asegura que su organización cuenta con políticas de IA. Frente a este escenario, Juan señaló: “Los empleados usan tres veces más IA de lo que los jefes creen. La adopción es bottom up. Sin gobierno de IA, eso es un riesgo”.
Ambos coincidieron en que la alfabetización en IA será la principal tarea pendiente de 2026, junto con el incremento de políticas de gobernanza y regulaciones para fomentar buenas prácticas.
Juan explicó: “Alfabetización no significa que alguien no sabe nada, sino que tiene cosas para aprender. Necesitamos acompañar ese proceso en todos los niveles”. Luego agregó: “Cuando preguntamos a las empresas por gobierno de IA, la tasa es bajísima. Las empresas primero prueban y luego se preocupan por regular; eso es peligroso”.
Daniel, por su parte, destacó que en Latinoamérica se está conformando un hub de IA que alimenta un ecosistema muy interesante de empresas y startups. Sin embargo, la principal brecha de la región es el “agotamiento del stock” de profesionales e investigadores capacitados, que emigran o abandonan la enseñanza.
Se trata de un problema de stock versus flujo, que impactará en el rol regional dentro del campo de la inteligencia artificial.
Predicciones para 2026
En el cierre del evento, los expertos compartieron algunas predicciones para el año próximo.
Juan señaló que el foco estará en la aplicación de modelos híbridos de IA para trabajos científicos y de ingeniería: “Galileo Galilei decía que la matemática es el lenguaje en que está escrito el libro del universo. Es decir, si la IA domina la matemática, dominará la física, la astronomía, la astrofísica y la ingeniería. Tendremos un inmenso desarrollo, posiblemente no en 2026, pero sí de allí en adelante, de las ingenierías basadas en Inteligencia Artificial”.
Daniel agregó que veremos robots más autónomos interactuando con el mundo físico en tareas complejas: “En 2026 vamos a ver robots autónomos apareciendo mucho más en el mundo real para asistir tareas diversas, entre ellas las domésticas, que los humanos dejarán de abordar. Va a ser realmente sorprendente”.
El encuentro dejó una idea clara: 2026 será un año decisivo para consolidar prácticas responsables, estratégicas y sostenibles en torno a la IA.
En Practia entendemos que el próximo año estará marcado por el paradigma del centauro: Un modelo híbrido que combina tecnología y humanos.
Aplicar IA de manera responsable, con gobernanza y datos depurados, será la estrategia de las compañías que lideren el futuro. Si quieres conocer más, haz click aquí.
