Por qué es importante el aprendizaje automático en la fabricación de procesos
- Detalles
- Categoría: Minitab
- Visto: 400
Por Adam Russell y Brittany Clinton
.A medida que la fabricación de procesos se automatiza y se integra digitalmente, el volumen y la complejidad de los datos de proceso se han disparado. Los sensores registran miles de variables en tiempo real. Las métricas se rastrean en turnos, lotes y máquinas. Los métodos estadísticos tradicionales, aunque siguen siendo valiosos, a veces no logran gestionar la magnitud, la complejidad y los matices de estos datos.
Aquí es donde entra en juego el aprendizaje automático (ML), y el análisis predictivo de Minitab puede ayudarle. En resumen, el ML permite a los fabricantes descubrir patrones, predecir resultados y optimizar el rendimiento de maneras que antes no eran posibles. A diferencia de la regresión clásica, el ML no requiere suposiciones estrictas sobre la estructura de los datos. Aprende directamente de ejemplos reales, gestionando la multicolinealidad, los efectos rezagados, el comportamiento no lineal y más.
En el modelado clásico, el objetivo es definir relaciones matemáticas entre las variables de entrada (X) y las variables de salida (Y). Sin embargo, en muchos procesos, la función subyacente es demasiado compleja o desconocida. El aprendizaje automático no intenta adivinar la fórmula. Aprende patrones directamente de los datos, utilizando ejemplos uno tras otro para construir un modelo que predice Y al dar nuevos valores de X. Esto lo hace ideal para entornos de fabricación, donde los procesos son complejos y las interacciones entre variables son difíciles de definir. El aprendizaje automático aprende sin necesidad de que un humano predefina las reglas.
A continuación, se presentan seis trampas comunes en el análisis de datos que la suite de Análisis Predictivo de Minitab puede combatir. Recomendamos a todos los profesionales con nivel Black Belt y Master Black Belt que se familiaricen plenamente con las técnicas de regresión múltiple antes de utilizar el aprendizaje automático. Nuestro objetivo es ayudar a los profesionales a condensar el número de variables de entrada plausibles a las mínimas significativas para su posterior exploración mediante el Diseño de Experimentos, un método ampliamente compatible con Minitab.
Las seis trampas
Trampa n.° 1: Datos sucios
Los datos históricos pueden estar contaminados con valores extremos, valores atípicos y valores faltantes. Estos problemas dificultan la estimación fiable de coeficientes de ecuaciones de regresión.
- Valores extremos: un valor único, Xi, puede estar alejado del resto de los datos; si este es el caso, Xi puede ejercer una gran influencia en la estimación de regresiones.
- Valores atípicos: Xi puede no estar muy lejos de los otros valores X, pero el residuo del modelo (real - predicción) puede ser grande y mayor que 3 desviaciones estándar, suponiendo que los residuos se distribuyen normalmente con un promedio general = 0.
- Valores faltantes: en la regresión por pasos y de mejores subconjuntos, se eliminarán filas enteras de datos si algún predictor elegido (X) tiene un valor faltante en la fila.
Trampa n.° 2: Big Data
El tamaño de los datos está relacionado con el número de filas y el número de columnas.
- Si el número de predictores (p) es grande en relación con el número de observaciones (n), entonces esto se vuelve muy complejo, o incluso computacionalmente imposible, para la regresión clásica.
- En la regresión clásica, n debe ser mayor que p para estimar el error del modelo y calcular los valores p de cada predictor. Si no se estima el error del modelo, no existe un valor de r-cuadrado.
- Sin r-cuadrado y residuos, no podemos saber si la ecuación de regresión modela bien los datos.
Trampa n.° 3: Multicolinealidad
Cuando las entradas (X) están correlacionadas (son dependientes) entre sí, los coeficientes de correlación entre dos predictores superiores a 0,5 indican un problema.
- La ventana de sesión de regresión clásica proporciona información sobre la multicolinealidad.
- Factor de Inflación de la Varianza (FIV): mide cuánto aumenta la varianza de un coeficiente de regresión estimado si los predictores están correlacionados. FIV = 1 / (1 – r² ). Si FIV > 5, esto podría representar un problema grave para el modelo.
- R-cuadrado y R-cuadrado (ajustado): Añadir predictores correlacionados en un modelo de regresión clásica provoca la divergencia de estos valores. El R-cuadrado (ajustado) impide al modelador incluir predictores correlacionados con otros predictores ya presentes en el modelo.
Trampa n.° 4: Interacciones
Cuando la influencia de un predictor (X1) depende de la configuración de un segundo predictor independiente (X2).
- Las interacciones aumentan los términos del modelo: matemáticamente, el número de interacciones aumenta exponencialmente con el número de predictores. Las interacciones pueden ser bidireccionales, tridireccionales, cuádruples, etc. En la práctica, las interacciones bidireccionales son frecuentes, pero las interacciones de orden superior son poco frecuentes.
- Interacciones globales vs. locales: La regresión clásica obliga a que las interacciones sean globales; si se descubre que una interacción es significativa, debe ocurrir por igual en todas las dimensiones del espacio predictor. Las interacciones localizadas pueden ocurrir en la industria, pero son difíciles de modelar con la regresión clásica.
Trampa n.° 5: No linealidad
La regresión clásica es lineal por diseño. La expresión común de regresión lineal es Y = mx + b. Esta fórmula básica puede extenderse a otros tipos de ecuaciones lineales. Por ejemplo, X2 es una función lineal. Sin embargo, 2X no lo es. Para que una función sea lineal, debe serlo en sus exponentes.
Las funciones no lineales no se pueden modelar mediante regresión simple, regresión por pasos o regresión por mejores subconjuntos. Si se espera no linealidad, el usuario debe proporcionar la relación no lineal subyacente o elegir entre varias alternativas.
El aprendizaje automático asume que todas las relaciones X-Y son no lineales. Esta suposición significa que incluso las funciones lineales pueden modelarse de forma sencilla con algoritmos de aprendizaje automático. El usuario no necesita conocer la función no lineal adecuada para continuar con el aprendizaje automático.
Trampa n.° 6: Efectos retardados
En el análisis de datos de fabricación de procesos continuos, el analista debe crear o desplazar con frecuencia cada predictor (X) hacia adelante en el tiempo para que coincida con la respuesta esperada (Y). Si bien la regresión clásica también puede gestionar los efectos rezagados, los modelos de aprendizaje automático suelen ser más eficaces a la hora de incorporarlos.
Por ejemplo, un proceso químico tiene un predictor importante (X) de una variable de respuesta (Y). El tiempo de residencia nominal del proceso es de 4 horas. Si el operador modifica X, la variable de respuesta (Y) cambia 4 horas después del cambio en X. Por supuesto, este sencillo ejemplo implica ciertas suposiciones importantes. En ocasiones, los procesos de flujo pistón no son exactamente de flujo pistón y la retromezcla influye. En ocasiones, el efecto del cambio en X se extiende en el tiempo en comparación con la respuesta en Y. En estas situaciones, es necesario evaluar múltiples desplazamientos temporales del predictor (X).
De las trampas a la transformación
Los métodos tradicionales siguen siendo valiosos, pero no siempre están diseñados para la escala y la complejidad de los datos de fabricación de procesos modernos. El aprendizaje automático en el análisis predictivo de Minitab ayuda a superar estos desafíos al gestionar automáticamente la no linealidad, los efectos retardados y las variables complejas del mundo real. Con él, puede ir más allá del simple análisis de datos para predecir resultados, prevenir fallos y optimizar el rendimiento con confianza.