El dato varía de analista en analista, aunque se sitúa siempre más o menos en el mismo orden: entre el 80% y el 85% de los proyectos de machine learning quedan en estado de prueba de concepto (PoC). Esto es una implementación artesanal hecha por el propio científico de datos con bajísima o nula injerencia en el negocio.
Gartner estima que los líderes de IT podrían utilizar la mitad de su tiempo para lograr esa transición del modelo matemático al entorno de producción. ¿Es posible resolver esta brecha? La respuesta es MLOps.
La sigla combina precisamente machine learning con operaciones. Toma el concepto básico de DevOps (que congrega “desarrollo” y “operaciones”) y de allí deriva su nombre. Se trata de un ciclo de mejora continua que busca fijar las bases para la colaboración, la comunicación y la integración entre esos dos mundos con el objetivo de industrializar la producción de software.
Dos definiciones formales
Una definición básica de MLOps la describe como un abordaje sistemático para construir, desplegar y monitorear soluciones de machine learning.
Otra definición asegura que es un conjunto de prácticas y tecnologías para desplegar y administrar aplicaciones de aprendizaje automático en ambientes productivos de manera gobernada y escalable.
Dicho de otra manera, está en el cruce entre DevOps, la ingeniería del software y machine learning. Con respecto a la primera en lo que hace al monitoreo de software y en la garantía de su disponibilidad y su rápida llegada al punto de operación. Con la ingeniería del software en tanto incluye la trazabilidad absoluta en las etapas de requerimiento, desarrollo, distribución, empaquetado, versionado y configuración de ambientes. Y, finalmente, con machine learning en el sentido de garantizar que responda las preguntas adecuadas.
Los beneficios de integrar
Escalar de la PoC a producción aporta numerosos beneficios desde el punto de vista del negocio. La implementación oportuna, rápida y segura de modelos estandarizados, sobre arquitecturas homologadas por la organización, en un escenario mantenible y escalable.
La capacidad de mantener un modelo y llevarlo a toda la organización -para que cada usuario saque el máximo provecho- es un típico desafío de ingeniería.
Observándolo desde el negocio, significa que los equipos de desarrollo pueden dedicarse a problemas más complejos y obtener respuestas de mayor calidad con menos errores.
También se logra mayor frecuencia de lanzamiento de soluciones y un time to market más veloz, que resulta en un mayor valor para el negocio. En simultáneo, el trabajo del científico de datos queda plenamente integrado a la operación, lo que genera una mejora continua en términos de alineación entre los modelos que se crean y lo que la empresa necesita.
Para profundizar sobre este tema es posible acceder a esta charla de Dino Ronconi, Líder de Servicio en Practia Global.
¿Qué tan sencillo resulta en tu empresa escalar de una PoC hasta un software productivo en los proyectos de machine learning? Para saber cómo podemos ayudarte contactanos haciendo CLICK AQUÍ y conoce más sobre nosotros en nuestras redes LinkedIn y Twitter.