Por Alyssa Sarro.

El proceso de transferencia y validación del diseño es crucial entre la planificación de la investigación y el desarrollo (I+D) y la ejecución del proyecto. Esta etapa garantiza que los diseños se traduzcan con precisión a la producción, minimizando los costosos retrasos y garantizando la calidad del producto. Recientemente, tuve la oportunidad de conversar con Josh Goodman , exingeniero de procesos de uno de los proveedores de primer nivel más importantes del mundo. Su experiencia en este puesto me ha proporcionado valiosos aprendizajes y perspectivas únicas sobre lo que se necesita para tener éxito en un trabajo tan exigente.

Comprensión de la fabricación de piezas de automoción

Antes de profundizar en la conversación, analicemos las complejidades de operar como proveedor de primer nivel en la fabricación de automóviles. Un proveedor de primer nivel en la fabricación de automóviles es una empresa que proporciona piezas o servicios directamente a un fabricante de equipos originales (OEM), como Ford, Toyota o BMW. Nuestro entrevistado supervisó todo el proceso de fabricación, desde las piezas metálicas iniciales hasta el ensamblaje final de los radiadores en una línea semiautomática. Esto combina procesos manuales y automatizados, lo que significa que ciertas tareas son realizadas por máquinas, mientras que otras requieren intervención humana. Su operación funcionaba 24/7 y producía casi 3000 radiadores al día.

Estos radiadores se fabrican inicialmente como piezas metálicas, pero luego se sueldan para formar bobinas que permiten que el refrigerante circule por las tuberías y enfríe la transmisión. Este proceso incluye ensamblar un enfriador de aceite en un tanque de plástico, conectar las mangueras y sellar el tanque al radiador metálico. Los tapones de drenaje se instalan manualmente con un taladro; el proceso completo toma un promedio de 30 segundos. Incluso un pequeño cambio en el tiempo de producción puede ahorrar o costar millones, lo que resalta la importancia de la eficiencia.

El problema del diseño

Durante el lanzamiento de un nuevo modelo de coche, un cambio de diseño en el tapón de drenaje planteó un reto importante. El objetivo del cambio era evitar que se utilizaran tapones de drenaje nuevos en modelos antiguos, y viceversa. Este enfoque proactivo buscaba minimizar errores futuros, como el uso de tapones incorrectos. Sin embargo, el equipo de diseño pasó por alto un factor importante: el taladro ya no encajaba automáticamente en los tapones para atornillarlos.

El diseño anterior permitía a los operarios completar el montaje completo del enfriador, las conexiones de las mangueras y la colocación de los tapones de drenaje en aproximadamente 30 segundos antes de pasar la pieza. Este tapón de drenaje de nuevo diseño requería un poco más de intervención humana. Radiador de aluminio de alto rendimiento para coche, económico, OEM B557-15-200DEl taladro debía estar perfectamente alineado con la broca para atornillarlo. Lo que podría no parecer un gran cambio convirtió una operación de 30 segundos en una de 45, lo que representa un aumento del 50 % en el tiempo de producción.

Quizás te preguntes: "¿Y qué? ¿Qué son otros 15 segundos de tiempo de producción?"

Bueno, este aumento en el tiempo de producción tiene muchas implicaciones.

  1. El proveedor debe aceptar una disminución significativa en las unidades producidas cada día.
  2. El proveedor tiene que realizar un cambio masivo en el modo en que opera la línea de fabricación para combatir el mayor tiempo de producción.
  3. El proveedor tiene que contratar más personal para mantener su producción eficiente.

Al final, todos estos ajustes costarían miles o millones de dólares. Josh informó de esto al equipo de diseño, y terminaron retrasando el nuevo diseño del radiador un año entero, lo que obligó al nuevo coche a necesitar el diseño anterior. Así pues, lo que parecía un cambio de diseño menor y proactivo terminó en un grave problema para I+D y la reputación de la empresa.

Cómo evitar los problemas de transferencia de diseño con Minitab Engage

Esta experiencia subrayó la importancia de una validación y revisión exhaustivas durante la etapa de transferencia del diseño. Si los equipos de diseño y fabricación se hubieran comunicado eficazmente, podrían haber anticipado el problema y evitado seguir adelante con el nuevo diseño del tapón de drenaje. Cuando le pregunté a Josh cómo logró evitar este problema en el futuro, comentó que tuvo la suerte de que su siguiente empresa contara con un equipo de diseño en la misma fábrica, actuando como intermediarios entre ambos equipos.

La principal lección de esta experiencia es el papel crucial de la comunicación y la colaboración para prevenir problemas de diseño. No todos los fabricantes pueden permitirse tener un equipo completo de ingeniería de diseño interno para combatir estos problemas, como se observó en esta planta. Entonces, ¿cómo se podría haber evitado esto? Minitab Engage.

Minitab Engage es una plataforma integral diseñada para gestionar, compartir y dar seguimiento a iniciativas de mejora e innovación, desde la generación de ideas hasta su ejecución. Ofrece funciones para la comunicación interfuncional, la colaboración y la coordinación de proyectos, esenciales durante el proceso de transferencia y validación del diseño.

Con Minitab Engage, los equipos de diseño y fabricación podrían haber utilizado su robusto conjunto de funciones para identificar posibles problemas con antelación. Esta lista de funciones incluye:

  • CDOV (Concepto, Diseño, Optimización, Verificación): Esta hoja de ruta proporciona un marco claro y detallado para garantizar que todos los aspectos del desarrollo del producto se consideren y aborden exhaustivamente. Permite identificar y mitigar riesgos potenciales en las primeras etapas del proceso, lo que reduce la probabilidad de errores o retrasos costosos y ayuda a garantizar el cumplimiento de todos los requisitos regulatorios.
  • Análisis de modos de falla y efectos (FMEA): esta función ayuda a los equipos a anticipar posibles fallas y sus impactos, lo que permite tomar medidas proactivas.
  • Matriz de Priorización de Proyectos: Esta matriz proporciona una forma clara y objetiva de evaluar proyectos, garantizando que todos los miembros del equipo comprendan el proceso de toma de decisiones. Al involucrar a todas las partes interesadas en la definición de criterios y la calificación de los proyectos, la herramienta garantiza que todos estén alineados con lo más importante para la organización.
  • Mapas de Procesos: Utilice un mapa de procesos para ilustrar el flujo secuencial y la relación entre los pasos de un proceso o procedimiento. Si hubieran mapeado el proceso, podrían haber detectado el paso que falló. Además, sería útil contar con ese mapa de procesos al trabajar con AMEF.

La capacidad de Minitab Engage de facilitar la comunicación y la retroalimentación en tiempo real habría garantizado que ambos equipos estuvieran alineados y preparados para el cambio de diseño del tornillo, lo que habría permitido reducir el trabajo de reelaboración o realizar cambios en la planta de fabricación, evitando en última instancia la demora.

Para concluir mi conversación con Josh, le pregunté cuál, según él, fue la principal lección de su experiencia. Compartió que, para evitar problemas similares en el futuro, es crucial fomentar una comunicación abierta entre los equipos de diseño y fabricación. Fomente la colaboración y las revisiones periódicas para asegurar la alineación antes de llegar al final del proceso. Es mucho más difícil reaccionar cuando un proceso está a punto de finalizar que al principio. Utilizar las funciones y tecnologías de Minitab Engage que facilitan esto lo simplifica.

Introducción y objetivos

La resistencia de los materiales de construcción al daño por congelación y descongelación es un desafío clave en la ingeniería civil. En el artículo de los autores Wang et. al publicado en la prestigiosa revista Journal of Energy Storage de Elsevier investiga el uso de agregados de cambio de fase (phase-change aggregate - PCA) con fibras de carbono para mejorar la transferencia de calor y la resistencia a las heladas en el hormigón utilizando COMSOL Multiphysics®.

En particular, la herramienta se utiliza para modelizar la distribución de temperatura en los agregados y analizar el impacto de la conductividad térmica de las fibras de carbono en la eficiencia del cambio de fase.

Modelo y simulación

Se construyó un modelo en COMSOL Multiphysics con un PCA compuesto por un núcleo de material de cambio de fase encapsulado y una capa externa de cemento reforzado con fibra de carbono, tal y como se muestra en la Figura 1. La simulación consideró la transferencia de calor en estado sólido y fluido, estableciendo condiciones iniciales de 18 °C y un entorno de -10 °C. Se definieron diferentes concentraciones de fibra de carbono en la capa externa para evaluar su influencia en la conductividad térmica y la velocidad de disipación de calor.


Figura 1. Modelo físico y mallado del PCA modelizado en COMSOL Multiphysics®.

Resultados y conclusiones

Los resultados de COMSOL Multiphysics mostraron que la adición de fibra de carbono mejoró la conductividad térmica de la capa externa en hasta un 20.9 %, lo que aceleró el inicio del cambio de fase y redujo su duración. La plataforma de retardo térmico se debilitó progresivamente desde el interior hacia el exterior, indicando una mejora en la eficiencia del almacenamiento y liberación de calor. Se pudo comprobar también la mejora en la resistencia a daños por congelación.

La Figura 2 muestra los resultados de simulación de la evolución temporal de los campos de temperatura obtenidos para distintas cantidades de fibra de carbono agregadas. Además, la validación experimental confirmó la precisión del modelo desarrollado en COMSOL Multiphysics®, con errores inferiores al 5 % tal y como se muestra en la Figura 3.


Figura 2. Evolución temporal de los campos de temperatura obtenidos en las simulaciones de COMSOL Multiphysics® para distintas cantidades de fibra de carbono agregadas al hormigón.


Figura 3. Comparativa de la temperatura obtenida experimentalmente y la obtenida mediante la simulación en COMSOL Multiphysics®.

El uso de COMSOL Multiphysics permitió predecir con precisión el comportamiento térmico del PCA, proporcionando información clave para optimizar su diseño y mejorar la resistencia del hormigón en condiciones extremas. ¡Este artículo es un claro ejemplo del potencial de COMSOL Multiphysics® para el desarrollo y optimización de nuevos materiales!

Referencias

[1] Effect of carbon fiber on heat transfer mechanism and performance of phase-change aggregate for frost resistance: Performance characterization of eutectic phase-change material, heat transfer simulation and mechanism analysis, Journal of Energy Storage, 2025, 117, 116144.

Grafiti acaba de comunicar la discontinuidad de sus productos AISN: TableCurve 2D, TableCurve 3D y PeakFit.

Los usuarios con licencias actualizadas seguirán disponiendo de su servicio de soporte. El fin del servicio de soporte definitivo de estos productos será el próximo 31 de marzo de 2026.

Consulte con nuestro departamento comercial si quiere encontrar alternativa a esa línea de productos para solucionar sus problemas matemáticos y gráficos.

Con la reciente publicación de la Guideline on Air Quality Models (Apéndice W del Título 40 del Código de Regulaciones Federales, Parte 51), la EPA de EE.UU. incorporó los algoritmos del Experimento de Respuesta Acoplada Océano-Atmósfera (Coupled Ocean-Atmosphere Response Experiment o, en adelante COARE) a AERMET. La incorporación de COARE permite a AERMET calcular sin problemas las condiciones de la capa límite para entornos marinos sobre el agua, y la promulgación de COARE como opción de modelo regulatoria por defecto elimina la necesidad de demostraciones de modelos alternativos.

En AERMET View V13.0, los usuarios pueden invocar los algoritmos COARE a través de las entradas de Sectors:


Opciones de COARE en AERMET View V13.0

Las entradas de COARE constan de tres selecciones principales: Rugosidad de la superficie (Surface Roughness), Altura de mezcla (Mixing Height) y Opciones adicionales (Additional Options).

Rugosidad de la superficie

Esta opción es obligatoria para procesar COARE. La opción predeterminada, Velocidad de fricción superficial (Surface friction velocity, u*), se considera la opción predeterminada. Las opciones alternativas utilizan mediciones directas de oleaje o las calculan basándose en relaciones para un estado del mar bien desarrollado.

Altura de mezcla

Los modeladores deben seleccionar una de las seis opciones para calcular las alturas de mezcla. La Guía del Usuario AERMET de la EPA de EE.UU. ofrece descripciones completas de estos métodos (véase la Sección 3.7.7.6 ).

Opciones adicionales

Las demás selecciones de COARE son opcionales y deben basarse en las características de los datos de entrada. Estas incluyen:

  • Definición de la profundidad precisa de las mediciones de temperatura de la superficie del mar
  • Anulación de la altura de mezcla predeterminada para los cálculos de ráfagas de viento
  • Establecimiento de valores mínimos permitidos para la altura de mezcla y la escala de longitud Monin-Obukhov
  • Modificar el gradiente de temperatura potencial vertical predeterminado
  • Invocar las opciones de capa cálida o piel fría
  • Se recomienda a los modeladores que revisen las pautas actuales de la EPA de EE.UU. sobre el uso de estas opciones, ya que algunas no se recomiendan explícitamente para aplicaciones regulatorias.

Hay más información sobre las pruebas y la evaluación de COARE disponible en el sitio web de la EPA de EE.UU.: https://www.epa.gov/scram/2024-appendix-w-final-rule.

Por Oliver Franz.

Necesita respuestas, pero sus datos no son claros.

Quizás esté extrayendo informes de tres plataformas diferentes, intentando conciliar cifras que no coinciden del todo. Quizás esté copiando y pegando manualmente datos de varias hojas de cálculo, con la esperanza de no haber cometido ningún error. O quizás esté esperando a que el departamento de TI limpie, prepare los datos y fusione los conjuntos de datos antes de poder siquiera empezar a analizar tendencias.

Si esto le suena familiar, no está solo. Para muchas organizaciones, el mayor desafío con los datos no es la falta de información, sino el enorme esfuerzo que requiere recopilarla. Y ese esfuerzo le está costando más de lo que cree.

Los costes ocultos de la compilación manual de datos

Los datos erróneos no siempre implican cifras incorrectas. A veces, el problema radica simplemente en cómo se recopilan, almacenan y combinan los datos. Cuando los equipos dependen de la agregación y conciliación manual, esto conlleva:

  • Tiempo perdido: los analistas, los equipos financieros y los gerentes de operaciones pasan horas extrayendo datos de diferentes fuentes, corrigiendo inconsistencias de formato y verificando la precisión en lugar de analizar información.
  • Informes inconsistentes: Si los departamentos de ventas, marketing y finanzas presentan cada uno su propia versión de los ingresos del último trimestre, es probable que obtengan cifras ligeramente diferentes. Sin una única fuente de información veraz, la toma de decisiones se convierte en un juego de adivinanzas.
  • Decisiones retrasadas: cuando se finaliza un informe compilado manualmente, es posible que los datos ya estén desactualizados, lo que lleva a tomar decisiones basadas en la realidad de ayer en lugar de las tendencias de hoy.
  • Mayor riesgo de errores: cuantas más manos pase un conjunto de datos, mayor será la probabilidad de que aparezcan entradas duplicadas, valores faltantes o formatos desalineados.
Por qué la agregación de datos tradicional no funciona

La mayoría de las organizaciones utilizan una combinación de herramientas, como Excel, bases de datos, plataformas en la nube y software específico del sector, cada una de las cuales almacena datos en diferentes formatos. Reunir todos esos datos suele ser un desafío, ya que requiere exportar y reformatear archivos CSV, lo que puede generar errores y problemas de control de versiones. Muchos equipos recurren a copiar y pegar manualmente entre hojas de cálculo, un proceso lento y propenso a errores. Otros crean scripts personalizados o confían en el departamento de TI para preparar los datos y fusionar los conjuntos de datos, lo que ralentiza el análisis y crea cuellos de botella.

Estos métodos no solo desperdician tiempo, sino que también generan más oportunidades de error. Y cuando el liderazgo toma decisiones estratégicas basándose en esos datos, incluso una pequeña discrepancia puede tener grandes consecuencias.

Un enfoque más inteligente para la preparación de datos y la preparación automatizada de datos

Solucionar estos problemas no requiere un equipo más grande ni más horas, sino un mejor sistema de preparación e integración de datos. Los mejores equipos basados en datos siguen estos pasos clave:

1. Automatizar la agregación de datos

En lugar de extraer manualmente informes de varias plataformas, conecte sus fuentes de datos directamente. La integración automatizada garantiza que sus conjuntos de datos estén siempre actualizados y alineados sin esfuerzo manual.

2. Estandarizar el formato y la estructura

Las distintas plataformas almacenan datos de distintas maneras. Un sistema puede rastrear a los clientes por nombre, otro por número de identificación. Las fechas, las monedas y las categorías pueden tener formatos distintos. Establecer estructuras de datos consistentes previene las discrepancias antes de que ocurran.

3. Validar y limpiar datos en tiempo real

La conciliación manual implica que los errores suelen pasar desapercibidos hasta que es demasiado tarde. Al automatizar las comprobaciones de validación, como marcar registros duplicados o formatos incorrectos en el punto de entrada, se garantizan datos más limpios desde el principio.

4. Optimice los informes con una única fuente de información

Cuando todos los equipos trabajan con el mismo conjunto de datos, actualizado automáticamente, los informes se vuelven más rápidos, fiables y prácticos. En lugar de dedicar horas a verificar cifras, los equipos pueden centrarse en el análisis y la estrategia.

Del caos de datos a la confianza en los datos

Iniciar sesión en un panel que extrae automáticamente datos limpios y actualizados de todas tus fuentes hace que todo sea más eficiente. Sin esperas del departamento de TI, sin conciliaciones manuales, sin dudas.

Esa es la diferencia entre esforzarse por corregir datos desordenados y realmente anticiparse. Cuando la preparación de datos se automatiza y optimiza, los equipos avanzan con mayor rapidez, las decisiones se agilizan y las empresas crecen con confianza.

Los datos erróneos son un lastre. Las empresas que controlan sus datos son las que se mantienen a la vanguardia.

En este artículo presentamos una estrategia para minimizar el tiempo de simulación en COMSOL Multiphysics® cuando abordamos simulaciones con varias físicas acopladas, y consiste dividir el problema en varias etapas en lugar de resolverlo todo de una vez.

¿Cómo?

Veamos cómo a través del siguiente ejemplo basado en “wire electrode” cuya geometría se muestra en la Figura 1, y que combina las físicas de configuración de corrientes de tipo terciario, flujo laminar y transporte de especies diluidas.


Figura 1. Geometría tridimensional y mallado utilizado en el modelo “wire electrode” en COMSOL Multiphysics®.

Sin realizar ninguna modificación, el estudio en estado estacionario se realiza según la configuración por defecto que se muestra en la Figura 2 (a): se utiliza un resolvedor de tipo segregado, directo para resolver la física de flujo laminar y una configuración de tipo segregado e iterativa para el resto de las físicas. Para reducir los tiempos de simulación, la estrategia consiste en dividir la simulación en dos etapas (Figura 2 (b)):

  1. Etapa 1: se resuelve la física de flujo laminar, que no depende de las otras.
  2. Etapa 2: se resuelven el resto de las físicas utilizando la solución previamente calculada para la física de flujo laminar.


Configuración del resolvedor y tiempo requerido para completar la simulación: (a) por defecto, (b) modificada.

Además, se puede configurar el solver tal y como se muestra en la Figura 2 (b), es decir, utilizando un enfoque de físicas completamente acopladas y de resolución directa.

Tras completar la simulaciones (utilizando un equipo con procesador Intel(R) Core(TM) i7-14700 2.10 GHz y 16.0 GB de memoria RAM), la Figura 3 compara el tiempo requerido para completar la simulación. De acuerdo con los resultados obtenidos, aunque el proceso alternativo por etapas requiere de mayor uso de memoria RAM, ¡el tiempo de simulación se reduce de 3 horas y 45 minutos (configuración de estudio en una etapa y resolvedor por defecto) hasta 4 minutos, obteniéndose la misma curva de polarización tal y como se muestra en la Figura 3!


Figura 3. Curvas de polarización obtenidas mediante la simulación en COMSOL Multiphysics® utilizando distintas configuraciones de estudio y resolvedor.

Esperamos que este truco sea de utilidad para tus próximas simulaciones numéricas en COMSOL Multiphysics®.

Experimentación con criterios estadísticos

Hoy quiero hablarte sobre la importancia de mejorar tu estrategia experimental para obtener DATOS de calidad. Esto permitirá que Minitab te proporcione un análisis fiable, facilitando una toma de decisiones más acertada. Al final del artículo, también comparto algunas malas prácticas comunes para que puedas evitarlas.

No confundamos análisis con plan de pruebas que es donde tú puedes aportar valor.

¿CÓMO DEMOSTRAR QUE ALGO FUNCIONA?

Las experiencias de “experimentar” siempre van acompañadas de la pregunta ¿Funciona? Por ello me viene a la mente el popular producto orientado a bajar el colesterol. Te has preguntado alguna vez, ¿qué evidencias esperas encontrar en los estudios científicos que avalan el éxito del producto para decidir incorporarlo a tu cesta de la compra convencida de que merece la pena el gasto? Y si quieres hacer previamente tú misma un estudio, ¿cómo lo harías teniendo en cuenta las evidencias que necesitas?

En todo estudio hay dos componentes:

  1. Diseño de experimentos
  2. Análisis de resultados

Siempre, hemos de entender cómo explotaremos los resultados analíticos que nos dará un software, para aportar valor en nuestro trabajo, diseñando las pruebas y recogida de datos con metodología propia de la Ingeniería Estadística.

CASO DE ESTUDIO: REDUCCIÓN DEL COLESTEROL

Vamos a abordar esta cuestión comenzando por el final, el análisis, con un caso simple y ficticio que persigue reducir el colesterol.

Imaginemos que tenemos datos sobre los niveles de colesterol de personas que SÍ han tomado y que NO han tomado el tratamiento. Este es un diseño de experimentos con un factor y dos tratamientos independientes. ¿Qué aporta el tener 10 o 50 personas participando en cada grupo?
Gráfica de valores individuales del tratamiento para n=10
Gráfica de valores individuales del tratamiento para n=50

 

Para estudiar la diferencia entre dos tratamientos haremos uso de Intervalos de Confianza (IC):

Comparación de tratamientos para n=10
  • n=10. La diferencia obtenida es de mejora en 14,6 puntos, pero no es evidente que esa diferencia sea por el tratamiento. La horquilla (-27, 56) indica que ese resultado también se podría haber obtenido si el tratamiento empeorara en 27 puntos o si lo mejorara en 56 puntos, situaciones muy diferentes, luego n=10 aporta muy poco conocimiento.
Comparación de tratamientos para n=50
  • n=50. En este caso podemos asegurar con 95% de confianza que el tratamiento mejora entre 2 y 37 puntos.

Con n=50 detectamos un efecto que con n=10 también está, pero que no lo podemos ver con evidencia. El hecho de tener individuos con tanta variabilidad dificulta la detección del efecto. En este caso, el tamaño de muestra afecta a la potencia de detectar evidencia del efecto del tratamiento. Estamos en manos de la “suerte” de obtener dos muestras que evidencien la diferencia.

Para reducir la variabilidad y obtener resultados más precisos, aumentar el tamaño de la muestra es una estrategia efectiva.

ALTERNATIVA: DISEÑO DE EXPERIMENTOS APAREADO

En este caso, es posible utilizar una contramedida mejor para atacar la variabilidad entre individuos, que es cambiar el tipo de diseño experimental y que sea la misma persona la que se utiliza para medir el colesterol antes y después del tratamiento. La consecuencia de poder obtener el incremento de colesterol para cada persona es que el diseño de partida necesita muchas menos personas en el estudio.

Tanto la manera de “mirar los datos” como la manera de analizarlos es diferente, ya que es un diseño de experimentos apareado.

Gráfica de series de tiempo del tratamiento para n=10
Gráfica de series de tiempo del tratamiento para n=50

 

Y, realizando una prueba de hipótesis t pareada:

Comparación de tratamientos con t pareada para n=10
  • n=10. La diferencia obtenida de mejora en 14,6 puntos muestra una evidencia de que el tratamiento afecta. Además, estimamos con un 95% de confianza de que el efecto, aunque nos haya salido 14,6 en la muestra, en realidad está en la horquilla (7 y 22).

LA IMPORTANCIA DEL DISEÑO EXPERIMENTAL

Si comprendemos los diferentes tipos de diseño y su interpretación, podemos delegar el análisis en Minitab, que proporciona herramientas intuitivas y amigables para este proceso.

Asistente de Minitab para pruebas de  hipótesis

 

Llegados a este punto, ¿cuál es nuestro rol? La respuesta es “lograr experimentar de manera eficiente, con el mínimo de pruebas y logrando datos de calidad, fiables”. Por ello, tenemos que aportar valor en:

  1. Seleccionar el tipo de diseño experimental adecuado a cada situación.
  2. Determinar el tamaño de muestra de las réplicas para cada tratamiento.
  3. Organizar las pruebas experimentales para minimizar factores externos que puedan afectar los resultados, de modo que “lo único que cambie sea el tratamiento de estudio”.

Minitab también ayuda a determinar el tamaño de muestra adecuado. Bien desde el propio Minitab o bien desde el asistente proporcionado por el módulo del tamaño de la muestra, podemos determinar cuántos individuos son necesarios para llevar a cabo la comparación de 2 tratamientos.

Asistente de Minitab para pruebas de  hipótesis
Potencia y tamaño de la muestra para prueba de hipótesis t pareada
  • Si utilizo un diseño apareado de comparación de 2 muestras con n=10 personas midiendo antes-después se logra una potencia de 80% de detectar cambios de 20 puntos o más, y si se deseara detectar cambios más pequeños de 10 puntos haría falta en torno a n=34 personas.
Potencia y tamaño dela muestra para pruebas de hipótesis de 2 muestras
  • Si el diseño no es apareado, en la misma situación de variabilidad, los recursos necesarios cambiarían notablemente (17 personas en cada grupo en el primer caso, luego 34, y 64 en el segundo).

ERRORES COMUNES EN EL DISEÑO EXPERIMENTAL

Un error frecuente es asumir que porque MINITAB puede analizar datos con una estructura determinada, el resultado será fiable.

Por ejemplo, si buscamos personas que ya toman Danacol y comparamos su colesterol actual con registros médicos previos, podría parecer un diseño apareado, pero no lo es. Factores como dieta y ejercicio también pueden influir, generando confusión en los resultados.

De hecho, si leemos la letra pequeña del anuncio del producto da qué pensar...

“Según estudios científicos, Danacol, como complemento a un estilo de vida saludable, reduce tu colesterol alto entre un 7 y un 10% en tan solo 2-3 semanas

CONCLUSIÓN

Si nos dotamos de la habilidad de manejar un software como Minitab para chequear evidencias de un experimento, y comprendemos el efecto de variabilidad y tamaño de muestra en el poder de detección de efectos, seremos precavidos y eficientes incorporando este conocimiento a la táctica experimental.

Recuerda: una buena estrategia experimental es clave para obtener datos confiables y tomar decisiones fundamentadas.

¿QUIERES APLICAR ESTAS HERRAMIENTAS A TUS DATOS?

Si adquirimos la habilidad de diseñar experimentos adecuados y utilizamos Minitab para analizar los datos correctamente, podremos tomar decisiones informadas basadas en evidencia sólida.

En nuestro curso de Diseño y análisis de experimentos con Minitab (I) desarrollamos habilidades para lograr experimentar de manera eficiente, con el mínimo de pruebas y logrando datos de calidad.

Si desea recibir una propuesta formal del coste del curso en su caso particular, póngase en contacto con nuestro departamento comercial por teléfono (934154904 o 915158276) o a través de este  FORMULARIO