Por Jim Oskins.

A finales de la década de 2010, trabajaba para uno de los fabricantes de electrodomésticos líderes en el mundo como Six Sigma Master Black Belt, liderando proyectos para mejorar la calidad. Tuvimos mucho éxito, ahorrando alrededor de 30 millones de dólares cada año al capacitar y entrenar nuevos cinturones negros Six Sigma para resolver problemas. En aquel entonces, recuerdo claramente la renuencia a incorporar herramientas de análisis predictivo a la mezcla. ¡Poco sabíamos lo que nos estábamos perdiendo!  

ENFOQUES LENTOS PARA LA RESOLUCIÓN DE PROBLEMAS 

En aquellos días, a los cinturones negros se les enseñó a abordar problemas a través de experimentos planificados basados ​​en datos. Por ejemplo: cuando los tickets de servicio comenzaron a acumularse por un nuevo defecto en una de nuestras lavadoras, verificaríamos que podíamos medir con precisión el problema, comprender la variación con respecto al problema y tal vez usar el diseño de experimentos (DOE) para conocer la causa y el efecto para nuestras teorías y soluciones predichas. En la nueva era de la manufactura (a veces llamada industria 4.0), se disponía cada vez de más y más datos y los ejecutivos empezaron a esperar respuestas más rápidas que nunca. 

Nuestra comunidad de solucionadores de problemas tenía un método establecido para priorizar los problemas. A menudo, esperábamos un informe de tasa de incidentes de servicio (SIR) para ver qué problemas ocurren con mayor frecuencia. Desafortunadamente, SIR era una métrica retardada, a menudo 6 meses después de cuando ocurrieron los problemas en los hogares de nuestros clientes. Nuestro dilema era obvio: necesitábamos resolver estos problemas más rápido.  

LLEVANDO GRANDES DATOS A LA FABRICACIÓN 

Además del tiempo necesario para que aparecieran los problemas, también tuvimos algunas dificultades para pasar de los datos pequeños a los grandes. Nuestros Cinturones Negros irían tan lejos como para reducir grandes cantidades de datos a un diseño factorial de experimentos (DOE) porque así es como se hacían las cosas. Después de todo, esa era la forma en que pensaban que les había enseñado su Master Black Belt. 

Finalmente, directores técnicos como ingenieros principales, maestros cinturones negros y similares en el espacio de fabricación, empezaron a adoptar herramientas para el recién acuñado concepto de "Big Data". La esperanza era que los macrodatos pudieran usarse para vincular finalmente las fallas de campo con los datos de fábrica para predecir y reducir cosas como el coste de garantía y mejorar la calidad. Digo que este fue un concepto nuevo para nosotros porque, aunque teníamos estos datos durante años o décadas, nunca los reunimos todos.   

Los técnicos de servicio que trabajan en incidentes de servicio recopilaron algunos datos de prueba y números de serie de electrodomésticos estropeados en los hogares de nuestros clientes ... pero ni los datos de desarrollo ni los datos de fabricación se vincularon explícitamente con los datos de servicio de campo. 

Parte del problema incluía los diferentes métodos de almacenamiento de datos. La gente no sabía cómo lidiar con estas fuentes de datos masivas y, por lo general, no tenía presupuesto para aprender a combinarlas. Incluso si pudiéramos combinarlos, no había una forma común de obtener información de todo ello. 

CONSTRUYENDO EL LAGO DE DATOS  


Finalmente, invertimos millones para que los consultores nos ayudaran a recopilar nuestras fuentes de datos masivas y prepararlas para el análisis. Este proceso de "excavar el lago de datos" no es una tarea sencilla. Un lago de datos es un término en el mundo de los macrodatos al que me refiero aquí simplemente para describir cómo se reunieron todas esas grandes fuentes de datos. Ahora, teníamos un conjunto de datos más grande que nos permitía vincular fallas de campo por número de serie a datos de fabricación por el mismo número de serie. Ahora podríamos buscar información sobre los puntos en común que tenían los dispositivos que fallaron.   

Identificar ideas es mucho más difícil de lo que se puede imaginar, con tan solo leer este artículo. Hay tantas métricas de prueba recopiladas en la fabricación. Hay tan poca variación y tanta multicolinealidad entre todos esos predictores. Si solo ajusta y = fallas de la válvula frente a cientos de x predictivos ... los datos son demasiado confusos y el análisis de regresión no encuentra mucho. El R^2 es terriblemente bajo. Nuestra confianza en cualquiera de esas técnicas de modelado más antiguas era baja.    

EL ANÁLISIS PREDICTIVO LLEGA AL RESCATE 

Finalmente, nuestros consultores sugirieron que comenzáramos a explorar el análisis predictivo. ¡Vimos que era mucho más hábil para manejar datos desordenados! Encontramos algunas señales e hicimos algunas mejoras en nuestra planta piloto, probando estos nuevos métodos. Ahora teníamos métodos para agregar y preparar nuestros datos para buscar información como esta. 

Sin embargo, nuestro vicepresidente se había comprometido a obtener un gran rendimiento de estas inversiones en almacenamiento de datos y consultoría. En ese momento, teníamos nuevos consultores y nos ayudaron a encontrar muchos conocimientos, pero no eran ingenieros, por lo que los hallazgos del análisis predictivo a menudo tenían poco sentido para ellos. No sabían cómo funcionaba un electrodoméstico. Todo lo que sabían los científicos de datos era que varias métricas de prueba de final de línea predecían una falla.   

Finalmente, apenas un par de años después de este costoso proceso, mi empresa decidió que había aprendido lo suficiente de los consultores como para hacerse cargo del análisis ellos mismos. Específicamente, el equipo de “Skunk Works” del VP de Calidad y el Master Black Belt principal y algunos ingenieros de la planta piloto se volvieron lo suficientemente capaces para replicar los hallazgos de los consultores.   

DEMOCRATIZANDO EL ANÁLISIS PREDICTIVO EN CASA 

Nuestro pequeño equipo ahora era muy bueno en AP. Sin embargo, escalar esta metodología de AP a toda la organización fue muy difícil. El problema era que era lo suficientemente difícil usar análisis predictivo como para que solo un puñado de personas se sintieran competentes. El resto de la organización ni siquiera sabía que esto estaba sucediendo, ¿cómo comenzaríamos a capacitar a más personas? Se decidió que el Master Black Belt principal reuniría los conocimientos y solo asesoraría a los equipos de ingeniería, ya que disponían de los recursos necesarios para resolver los problemas. No fue súper eficiente. Fue demasiado difícil desarrollar experiencia para desarrollar más expertos internos en AP en ese momento. 

Mire las opciones y la salida de las herramientas de AP como árboles de clasificación y regresión, bosques aleatorios y TreeNet. Realmente no puede simplemente abrir su gran conjunto de datos y presionar "analizar". Se necesita mucha habilidad. ¡Es por eso que la ciencia de datos es una ciencia! 

Durante algún tiempo, a fines de la década de 2010 y principios de la de 2020, tuvimos una división de algunos productos que utilizaban AP, mientras que otros continuaron usando métodos más antiguos. El análisis predictivo permitió la predicción de la garantía, una mejora de la calidad más rápida y la prevención de defectos. Otros que usaban métodos más antiguos todavía esperaron seis meses para obtener su informe de Tasas de Incidentes de Servicio y trabajar con herramientas Six Sigma para resolver los problemas que ocurren con más frecuencia. 

EL ANÁLISIS PREDICTIVO DE HOY

El análisis predictivo actual está a años luz de lo que era cuando comencé a usarlo hace más de 10 años. No tiene por qué ser la tarea compleja y especializada que solía ser. Minitab Predictive Analytics con Auto ML hace que el análisis predictivo sea más accesible para las masas. Puede sugerir los mejores modelos a partir de sus datos y le permite, con una interfaz de usuario sencilla, solicitar modelos alternativos.   

Le invito a explorar cómo la combinación de Minitab Connect para agregar y preparar datos con Minitab Predictive Analytics con Auto ML para encontrar conocimientos puede hacer su vida más fácil y mejorar y acelerar los resultados. El uso de las ofertas de Minitab de esta manera en la fabricación permite la mejora de la calidad y la predicción de la garantía, prácticamente en tiempo real. Antes de estas herramientas, la mejora de la calidad tardaba medio año o más y la predicción de la garantía se basaba en años anteriores en lugar de en los datos del año actual. Estos valen millones de dólares para nuestros clientes y partes interesadas.