El modelo AERMOD incluye unidades predeterminadas para las entradas de emisiones y las salidas de concentración o deposición. Las emisiones se expresan en gramos por segundo (g/s) y las concentraciones se calculan en microgramos por metro cúbico (µg/m³) . Sin embargo, puede que sea necesario modificar estas unidades predeterminadas para representar mejor los datos del proyecto. Este cambio se puede realizar fácilmente mediante las opciones Source Pathway.
En Source Pathway, busque en Source Options y selecciona la configuración de Emission Output Unit.
Para habilitar unidades personalizadas, seleccione el botón User Defined. El usuario podrá introducir sus propios valores para cada uno de los tres campos:
Como se muestra arriba, las unidades personalizadas también se pueden aplicar a los cálculos de deposición.
Un ejemplo de cómo los ajustes en las etiquetas de unidades pueden mejorar la legibilidad de los datos es cuando las unidades predeterminadas producen valores numéricos demasiado grandes o demasiado pequeños para que el modelo los escriba con precisión. Por ejemplo, emisiones muy bajas para una fuente dada (p. ej., 1E-6 g/s) pueden resultar en concentraciones demasiado pequeñas para que el modelo las escriba (<1E-5 µg/m³). En esta situación, se podría:
Con esta modificación, los valores de salida tendrán mayor precisión haciendo que los gráficos de contorno sean más fáciles de leer.
MapleSim 2025 ofrece una serie de mejoras para ahorrar tiempo y esfuerzo al crear y analizar simulaciones.
Esta versión incluye una nueva biblioteca de componentes para respaldar el modelado de controladores de motores, actualizaciones de varias aplicaciones dentro del producto que facilitan aún más la realización de optimizaciones y análisis, y un motor de cálculo actualizado para aprovechar las mejoras recientes que estuvieron disponibles en Maple 2025.
Los aspectos más destacados incluyen:
|
|
|
|
Los análisis de sensibilidad constituyen una técnica que permite comprender cómo las variaciones de los parámetros de entrada como propiedades de los materiales, dimensiones, cargas, etc., afectan a su modelo. Este tipo de análisis se puede aplicar en los siguientes escenarios:
¿Quiere conocer cómo llevar a cabo este tipo de análisis en COMSOL Multiphysics®? Se lo contamos en este artículo a través del siguiente ejemplo que trata sobre una torre de celosía como la que se muestra en la Figura 1 [1]. El modelo utiliza elementos de viga delgada (representados como una cruz negra en la parte superior de la figura de la derecha) para medir la inclinación y la guiñada [2].

Fig.1 Los casos de carga de flexión y torsión (izquierda) y la definición de la deformación por guiñada (yaw) e inclinación (tilt) (derecha), que se calcula utilizando los desplazamientos en los cuatro nodos superiores.
La torre está sometida a cargas de torsión y flexión en la parte superior, como se ilustra en la parte izquierda superior de la Figura 1. El modelo utiliza elementos de celosía (truss), los cuales no contienen información sobre la rotación. Sin embargo, esta información es necesaria para calcular la inclinación (tilt angle) y la guiñada (yaw angle). Las cargas que aplican en los vértices de la parte superior de la torre se muestran en la Figura 2.

Fig.2 Cargas aplicadas en los cuatro nodos superiores de la torre.
En el ejemplo se lleva a cabo un doble análisis de sensibilidad. Para añadir cualquiera de ellos, podemos hacer clic con el botón derecho del ratón en el estudio y seleccionamos “Sensitivity analysis” entre las opciones que aparecen, tal y como se muestra en la Figura 3.

Fig.3 Forma de añadir el análisis de sensibilidad con muestra de los dos análisis de sensibilidad incluidos en el ejemplo de la torre de celosía.
En un primer análisis de sensibilidad etiquetado como “Tilt sensitivity” se analiza el efecto que tienen las cargas que se aplican en la inclinación de la torre; en el segundo análisis de sensibilidad etiquetado como “Yaw sensitivity” se estudia el efecto de esas cargas en la torsión de la torre. En ambos casos, para las vigas verticales como las transversales e inclinadas. En la Figura 3 se destacan estos dos análisis de sensibilidad incluidos como nodos del Model Builder.
En cuanto a los resultados obtenidos, la Figura 4 (a) muestra cómo varía en la inclinación de las vigas debido a las cargas que actúan en la parte superior de la torre de celosía, y en la Figura 4 (b) se muestra la variación en la guiñada.

Fig.4 Resultados obtenidos de los análisis de sensibilidad. (a) Variación de la inclinación. (b) Variación de la guiñada.
[1] COMSOL Blog. How to Perform a Sensitivity Analysis in COMSOL Multiphysics®, by K.E. Jensen (2020) https://www.comsol.com/blogs/how-to-perform-a-sensitivity-analysis-in-comsol-multiphysics
[2] COMSOL Multiphysics® Application Gallery. Sensitivity Analysis of a Truss Tower (Application ID: 72101) https://www.comsol.com/model/sensitivity-analysis-of-a-truss-tower-72101





| VERSIÓN | IDEAL PARA... | CARACTERÍSTICAS CLAVE |
| Prime | Dibujos estándar de moléculas/reacciones | Rápido y con herramientas básicas de dibujo |
| Professional | Investigación química y espectroscópica | Predicciones NMR, nombre↔estructura, integración con bases de datos |
| Signals ChemDraw | Equipos colaborativos, nube y gestión de datos químicos | Licencias Saas, formación basada en la nube, colaboración, HELM |
Publicado por NAG el 6/12/2025
Históricamente, la optimización se limitaba en gran medida a problemas convexos bien estructurados, entornos donde las garantías teóricas y la eficiencia algorítmica se alineaban perfectamente. Esto tenía sentido: los algoritmos para programas lineales y convexos a gran escala, capaces de manejar millones de variables y restricciones, han madurado durante décadas. Por el contrario, los problemas no convexos, incluidos los que involucran estructuras discretas o combinatorias, seguían siendo computacionalmente intratables a escala. Pero para 2025, el panorama ha cambiado. Los sistemas comerciales modernos se definen cada vez más por la complejidad, la escala y la incertidumbre. A medida que las industrias pasan de marcos deterministas basados en reglas a arquitecturas basadas en datos infundidas con aleatoriedad, dos pilares metodológicos han surgido como esenciales: la no convexidad y la estocasticidad. Estos forman la base matemática para una optimización robusta y adaptativa en el mundo real.
Estos dos paradigmas, utilidados solos o juntos, forman la columna vertebral computacional de los sistemas modernos de toma de decisiones.
El aprendizaje profundo, la base de la IA moderna, implica inherentemente entornos de optimización no convexos. Entrenar una red neuronal implica minimizar una función de pérdida de alta dimensión, plagada de puntos de silla y mínimos locales. Los métodos basados en gradientes, como el descenso de gradiente estocástico (SGD), funcionan bien en la práctica, pero métodos más recientes, como las estrategias evolutivas y la optimización bayesiana, están ganando terreno para el ajuste de modelos y la búsqueda de hiperparámetros.
Además, la búsqueda de arquitectura neuronal (NAS), donde se aprende la arquitectura del modelo, requiere resolver un problema combinatorio, no convexo y estocástico que combina aprendizaje y optimización. Los algoritmos de aprendizaje por refuerzo también dependen en gran medida de la estocasticidad para explorar espacios de estados y mejorar las políticas a lo largo del tiempo.
Los entornos informáticos distribuidos modernos, desde el aprendizaje federado en dispositivos de borde hasta los clústeres masivos en la nube, se enfrentan a condiciones dinámicas que dificultan la optimización. En el aprendizaje federado, cada dispositivo cliente tiene su propia distribución de datos, lo que genera pérdidas locales no idénticas. El modelo global debe minimizar una suma ponderada de estos objetivos heterogéneos:
dónde refleja la importancia del cliente o el volumen de datos. En los sistemas en la nube, las tareas deben programarse para optimizar la latencia, el coste y el uso de recursos, a menudo con cargas de trabajo inciertas y disponibilidad de recursos cambiante. Estas condiciones introducen naturalmente costes no convexos y entradas estocásticas.
Los sistemas eléctricos son cada vez más complejos e integran fuentes intermitentes como la eólica y la solar. La optimización en este ámbito suele implicar problemas de compromiso de unidades no convexas y pronósticos estocásticos de la oferta y la demanda. Los operadores deben garantizar el equilibrio y la estabilidad, minimizando al mismo tiempo las emisiones de carbono y los costes.
La computación en la nube introduce diversos modelos de precios:
El panorama de costos totales no es uniforme y varía con el tiempo. Los sistemas FinOps basados en IA optimizan las previsiones aleatorias de la demanda futura, aprovechando las condiciones del mercado y garantizando la fiabilidad.
Las cadenas de suministro y las redes logísticas modernas operan en entornos altamente dinámicos, condicionados por interrupciones en tiempo real, variabilidad de la demanda, plazos de entrega inciertos y complejas restricciones geopolíticas. Los enfoques de optimización tradicionales, como los algoritmos de ruta más corta o los programas lineales deterministas, resultan insuficientes cuando las funciones de costes son no lineales, la información es incompleta o las acciones deben adaptarse secuencialmente a lo largo del tiempo.
Consideremos un ejemplo canónico: la planificación de movimientos para sistemas logísticos autónomos, como drones, vehículos de reparto autónomos o agentes robóticos de almacén. Estos sistemas deben determinar una trayectoria durante un horizonte de planificación , donde cada representa el estado del sistema (por ejemplo, ubicación, velocidad) en el paso de tiempo . Un problema general de optimización de trayectoria se puede formular como:
Donde:
Esta formulación es inherentemente no convexa, debido a:
Debido a la presencia de incertidumbre, factores como tiempos de viaje estocásticos, actualizaciones meteorológicas en tiempo real o picos de demanda inesperados conducen a:
En la práctica, los métodos de solución incluyen:
A medida que las infraestructuras logísticas escalan y aumenta la autonomía, los marcos de optimización no convexos y estocásticos se vuelven indispensables para permitir una toma de decisiones resiliente, eficiente y en tiempo real en las cadenas de suministro globales.
Para abordar estos desafíos, los enfoques híbridos y heurísticos son comunes:
Estos métodos evitan los supuestos de convexidad o determinismo, lo que permite una optimización robusta en condiciones de complejidad del mundo real.
Sea:
La optimización de cartera tradicional utiliza el marco media-varianza
donde:
Esta formulación supone rendimientos distribuidos normalmente, convexidad y restricciones lineales, que rara vez se cumplen en los mercados reales, donde los rendimientos suelen seguir distribuciones leptocúrticas y asimétricas.
Para gestionar los riesgos asimétricos y de cola pesada, definimos
y minimizamos el Valor de Riesgo Condicional (CVaR) en el nivel
donde:
La región factible del mundo real incluye:
Estas restricciones a menudo introducen no convexidades en el problema.
Los procesos de optimización prácticos suelen combinar estrategias globales y locales (algoritmos genéticos, recocido simulado, aprendizaje por refuerzo y métodos híbridos) para abordar entornos complejos y no convexos. Las instituciones financieras implementan estas soluciones mediante computación en la nube para el paralelismo, GPU para la aceleración de Monte Carlo, fuentes de datos en tiempo real para la reoptimización adaptativa y rigurosas pruebas de estrés para garantizar su robustez.
La optimización actual refleja la complejidad de los sistemas que gobierna. La no convexidad nos permite modelar la naturaleza no lineal, sujeta a restricciones e irregular de los sistemas reales, mientras que los métodos estocásticos incorporan la aleatoriedad como parte intrínseca de la toma de decisiones. Juntos, forman un marco unificado para operaciones adaptativas, escalables y robustas en IA, finanzas, energía y logística. En un mundo cada vez más marcado por la incertidumbre y la escala, estas herramientas ya no son opcionales: son fundamentales.
Shapiro, A., Dentcheva, D., y Ruszczynski, A. (2014). Lectures on Stochastic Programming: Modeling and Theory (2nd ed.). Society for Industrial and Applied Mathematics (SIAM). Una referencia completa sobre programación estocástica, que incluye CVaR, modelado de escenarios y fundamentos teóricos.
Boyd, S., y Vandenberghe, L. (2004). Convex Optimization. Cambridge University Press. El texto fundacional sobre optimización convexa, frecuentemente citado para destacar dónde fallan los supuestos convexos.
Simul8 es la plataforma de simulación más rápida, intuitiva y eficaz del mundo, tanto para escritorio como para la web, donde los clientes pueden experimentar con modelos digitales de procesos reales para tomar decisiones fiables e impactantes.
Una simulación es un modelo animado que imita el funcionamiento de un sistema existente o propuesto, como laoperación diaria de un banco, el funcionamiento de una línea de montaje o la asignación de personal en un hospital o centro de llamadas.Con un software de simulación intuitivo como Simul8, puede crear una maqueta visual, similar a la creación de un diagrama de flujo. Al añadir tiempos y reglas a las tareas, recursos y restricciones que conforman su sistema, la simulación puede representar con precisión su proceso real. La simulación ofrece un enfoque muy potente, basado en evidencias, para la toma de decisiones: al usar una representación visual para probar el impacto de los cambios de proceso y los escenarios hipotéticos, puede encontrar un enfoque que brinde los mejores resultados. |
La conductividad eléctrica (EC) de una masa para pastel es una propiedad crítica en procesos de cocción por calentamiento óhmico, ya que determina la distribución de calor y afecta fenómenos como la gelatinización del almidón. Sin embargo, su medición experimental es compleja debido a los gradientes de temperatura que se generan en el dispositivo de medición.
El trabajo desarrollado por Niane y sus colaboradores, titulado “Development of a numerical model for measuring the electrical conductivity (EC) of a cake batter” en la revista “Journal of Food Engineering” de Elsevier presenta el desarrollo de un modelo numérico robusto para estimar la EC de la masa de pastel en función de la temperatura y bajo la influencia de campos eléctricos elevados. Para ello los investigadores utilizaron COMSOL Multiphysics®.
El modelo se desarrolló en COMSOL Multiphysics® usando una geometría bidimensional con simetría axial del dispositivo experimental que se muestra en la Figura 1.
La EC de la masa se modeló como función de la temperatura y del grado de gelatinización del almidón, este último descrito por una cinética de primer orden acoplada a una ley de Arrhenius. La optimización de los parámetros del modelo se realizó mediante el método de Nelder-Mead, comparando perfiles de temperatura experimentales y simulados.
Para optimizar el tiempo de cálculo, se utilizó un modelo bidimensional con simetría axial. La malla consistió en 3648 triángulos, 508 elementos de contorno, 23,274 grados de libertad y una calidad media de malla de 0.812. El tiempo de cálculo requerido fue de 20 segundos, utilizando los siguientes módulos en COMSOL Multiphysics®: Transferencia de Calor, Corriente Eléctrica, Flujo Laminar (para el caso del KCl, donde ocurre convección natural) y Optimización General.

Figura 1. Diagrama de un electrolizador para la electro-hidrogenación directa de tolueno.
El modelo permitió reproducir con alta precisión los perfiles de temperatura medidos experimentalmente, tal y como se muestra en la Figura 2. La Figura 3 muestra las conductividades eléctricas (EC) de la masa para cada potencial eléctrico. Los resultados muestran que la EC aumentó con el incremento del voltaje. Por último, La Figura 4 muestra la tasa de gelatinización experimental y la obtenida a partir del modelo.

Figura 2. Comparativa entre la temperatura medida y calculada, para distinta cantidad de aditivo.
En definitiva, COMSOL Multiphysics® se muestra como una herramienta poderosa para integrar múltiples fenómenos físicos y validar modelos experimentales complejos, proporcionando información crucial para la optimización de procesos también el ámbito gastronómico.

Figura 3. Conductividad eléctrica de la masa de pastel a diferentes potenciales eléctricos.

Figura 4. tasa de gelatinización experimental y la obtenida a partir del modelo.
[1] Niane et al. “Development of a numerical model for measuring the electrical conductivity (EC) of a cake batter”. Journal of Food Engineering (2026) 402 112687.