Imagine un modo de transporte aéreo, eficiente desde el punto de vista energético y ambientalmente amigable. La modelización mecánica de los componentes de transferencia de par en máquinas rotativas completamente superconductoras ha ayudado a los investigadores a extraer nuevas conclusiones sobre cómo optimizar el diseño de aeronaves y, potencialmente, lograr la propulsión eléctrica. Un equipo de investigación trabajó en la distribución de tensión y calor en estas máquinas y presentó sus resultados en la Conferencia de COMSOL 2013 en Boston.

El software más avanzado para gráficos científicos y análisis estadístico ahora incluye gráficos de bosque y densidad Kernel, ANCOVA, análisis de componentes principales, nuevos esquemas de color y mejoras significativas en las leyendas. Su nueva ventana de Propiedades Gráficas optimizada proporciona mayor facilidad de uso.

Systat Software Inc., líder en desarrollo y distribución de prestigioso software científico, ha anunciado la última versión de SigmaPlot 13, el sistema más vanazado para análisis de datos científicos y paquete de gráficos. Esta versión tiene múltiples nuevas funcionalidades de gráficos, incluyendo los gráficos de bosque (Forest) y de densidad Kernel, un gráfico de distribución de probabilidad suavizado, 10 nuevos esquemas de color, funciones estadísticas adicionales para Análisis de Componentes Principales (en inglés PCA) y Análisis de Covarianza (ANCOVA) y mejoras en las leyendas que incluyen el método de etiquetado directo (Direct Labeling).

Sigmaplot 13 proporciona a los investigadores una interfaz de propiedades optimizada sin pestañas, con todas las propiedades mostradas en el mismo sitio y visualización instantánea del gráfico con los cambios de las propiedades. El panel de Propiedades Gráficas es más pequeño y tiene una transparencia opcional para mostrar los cambios del gráfico detrás de él. La versión 13 ha mejorad la facilidad de uso para analizar datos rápidamente y crear gráficos exactos, con calidad de publicación que presenten de la mejor manera los resultados de investigación para presentaciones, publicaciones o en la web.

"Más de 500.000 científicos e ingenieros han utilizado SigmaPlot en todo el mundo. Ha sido durante mucho tiempo el estándar en la industria para el graficado y el análisis de datos en las comunidades científica y de ingeniería porque juega un papel clave permitiendo a los investigadores comunicar visualmente los resultados importantes de investigación." dijo Richard Mitchell, PhD, Científico Sénior en Systat Software, Inc. El nuevo SigmaPlot 13 añade dos nuevos métodos de análisis para extraer información adicional de los datos. El Análisis de Componentes Principales encuentra variables que sucintamente describan los datos. El Análisis de Covarianzas (ANCOVA) mejora la descripción de los datos incluyendo el efecto de variables "molestas". Un total de 24 funciones de probabilidad han sido añadidas y pueden ser utilizadas para ajuste de funciones o visualización de curvas. El método Direct Labeling sitúa los ítems de leyendas junto a sus gráficos en lugar de en una leyenda, lo que hace que la comprensión del gráfico sea mucho más rápidal. Otras funcionalidades de la interfaz de usuario de análisis e importación/exportación junto con el cuadro de diálogo simplificado de Propiedades del Gráfico, introducidos en la versión 12 se combinan para hacer que esta versón sea una mejora significativa" nos indica el Dr. Mitchell.

Disponibilidad

Sigmaplot 13 está disponible en opciones de máquina única, red y licencia departamental para empresas, instituciones gubernamentales, académicas o de investigación.

 

Las herramientas y métodos tradicionales para depurar y analizar código, como los depuradores simples de línea de comando, no son apropiados para los retos de desarrollo de aplicaciones complejas. La tecnología de procesado paralelo, multi-núcleo, demanda una reevaluación del arte del desarrollo de software. Escribir aplicaciones para entornos distribuidos y multi-núcleo requiere código complejo con interacciones y ajustes de tiempo más complejos que nunca. TotalView gestiona esta complejidad dando la capacidad de solucionar problemas y analizar el código dinámica y eficientemente.

TotalView es la solución de depuración más extensa y ajustada a las exigentes aplicaciones multi-núcleo. Gracias a su potencia y facilidad de uso, reduce drásticamente el tiempo de depuración y mejora la productividad de los desarrolladores.

Los algoritmos son críticos en cómo interactúan con los datos. Y en la medida que el volumen y la variedad de los datos aumenta, del mismo modo lo hace nuestra confianza en los algoritmos para darnos las respuestas que buscamos. ¿Pero cuánta fe deberíamos de poner en esos algoritmos, y cómo podemos estar seguros de que no nos están engañando? No son preguntas sencillas, pero utilizando técnicas de diferenciación algorítmica los científicos de datos pueden obtener respuestas más precisas.

La diferenciación algorítmica (DA), a veces llamada diferenciación automática, es una técnica utilizda para determinar la precisión de los algoritmos basada en un cierto conjunto de datos, y para comprobar la susceptibilidad de los algoritmos a la volatilidad de los datos. Los conceptos detrás de DA se originaron hace décadas en los campos de la geología y la meteorología, y se utilizaron para ayudar a aumentar la eficacia de los código HPC utilizados para predecir el tiempo meteorológico o decir a las empresas petrolíferas dónde agujerear para encontrar petróleo.

DA ha demostrado su valía en varios usos dond la precisión de los datos es crítica para alcanzar los objetivos. Si los resultados del test DA muestran que un modelo de datos se rompe cuando se presenta con entradas de datos de la vida real, entonces el propietario puede desechar el modelo y empezar de nuevo. Por el contrario, si DA muestra que un modelo funciona incluso con los datos más sucios, entonces el propietario puede ser capaz de ahorrar dinero disminuyendo la precisión de la colección de datos, como por ejemplo en el sensor de un satélite meteorológico.

Hoy en día, DA se utiliza en varias industrias donde HPC es frecuente, inclyendo el sector aeroespacial y la industria automovilística, donde es utilizado para optimizar los algoritmos que determinan las formas de las alas y las carrocerías de los automóviles, y en finanzas, dond se utiliza para afinar los algotimos que, por ejemplo, componen modelos de valoración de opciones.

Pero como el fenómeno del análisis de datos masivos (big data) va hacia delante y las empresas más pequeñas empiezan a experimentar con la minería de datos, los defensores de DA están preocupados porque algunas de las lecciones duramente aprendidas sobre DA no están llegando tan rápidamente como podrían.

Según Uwe Naumann, Profesor de Ciencias de la Computación en RWTH Aachen University (Alemania) y experto en DA del Numerical Algorithms Group (NAG), la gente y las organizaciones que no comprenden los fundamentos matemáticos detrás de los algoritmos, corren el riesgo de poner demasiada fe en la precisión de los algoritmos y las respuestas que estos generan.

"Nuestro conocimiento en términos de modelado del mundo todavía es razonablemente limitado," dice Naumann a Datanami. "Para mi, solo almacenar una gran cantidad de datos, hacer minería, y obtener alguna clase de respuesta a cualquier prengunta que me haga sobre esos datos utilizando análisis estadístico tiene una componente aleatorio muy grande."

Mucho depende de los datos, incluyendo cuándo se midió, por quién, y con qué precisión. “También depende de los algoritmos que se utilicen para hacer minería de datos," dice Naumann. “Sí, por supuesto que podemos obtener patrones y sí, por supuesto que existen muchos casos prácticos donde los patrones realmente explican algo. Pero optimizando y calibrando estos modelo en ciertas situaciones va a ser, para el futuro inmediato, el componente central. Sin la diferenciación algorítmica será mucho más difícil."

El incumplimiento de las leyes matemáticas podría condenar a algunos proyectos de grandes volúmenes de datos que sean susceptibles al temido factor aleatorio. Si existe algo que ningún jefe ejecutivo quiere oir es que su empresa de minería de datos de 5 millones de dólares se ha convertido en un caro generador de números aleatorios.

Big data no es solo almacenar y procesar datos y moverlos desde A a B,” dice Naumann. “Yo creo que lo que también es importante, sin importar cuántos datos puedas manejar, es que también tengas una muy buena comprensión de la importancia de los datos, e importancia significa sensibilidades sobre lo que estás intentando hacer con los datos, respecto a los datos o potencialmente respecto a cómo esos datos fueron retenidos. Esto es algo que todavía requiere un modelado matemático sofisticado y simulación y, potencialmente, DA como técnica.”

Durante la reciente conferencia ISC en Alemania, NAG anunció una ampliación de su servicio DA. Como parte del servicio, NAG evaluará los algoritmos de un cliente y les dirá que tipos de sensibilidades tiene con los datos, lo que puede ser de gran utilidad para la calibración de parámetros. Es preferible tener acceso al código fuente, o como mínimo acceso al algoritmo o desarrolladores del modelo. NAG también formará a los desarrolladoes en cómo realizar su propio análisis DA, lo que será útil como parte del análisis de regresión en vistas.

NAG está en el negocio de DA desde hace décadas, principalmente con clientes HPC. Ahora que estamos en medio del gran auge del big data, el uso potencial de DA se está expandiendo y lo mismo pasa con el grupo de clientes que puede beneficiarse de él.

“Veo mucha gente que debería utilizarlo," dice Naumann. “Muchos de ellos se dan cuenta en cuanto hablo con ellos y se involucran en el tema. Pero también hay mucha gente que nunca han oido sobre DA. Estoy sorprendido cuando hablo con gente, de la cantidad de ellos que se asombran de lo que les hablo. No se conoce realmente bien todavía.”

Estamos en medio de una fase de transición, donde las organizaciones que están construyendo soluciones de minería de grandes volúmenes de datos sobre nuevas tecnologías, como Apache Hadoop y Apache Spark, están reaprendiendo algunas de las mismas lecciones que los expertos de HPC aprendieron hace años. Utilizando técnicas HPC como DA, los profesionales de big data tienen la oportunidad de impulsar sus proyectos, y potencialmente saltar por encima de sus competidores.

Pero solo hacer correr la voz sobre DA también ha demostrado ser un gran reto. “Al estar en esta fase de transición, vemos más y más gente que tan solo tiene una vaga idea de lo que su software hace, y de cuál es la matemática que hay detrás de su software,” dice Naumann. “Ellos tan solo quieren resolver el problema. No les importa demasiado cómo está hecho o qué pasa detrás. Sobre esta gente yo diría que no comprenden sufientemente. Por otro lado, yo diría que si puedes ocultar la metodología [DA] y solo proporcionarles un número, o una marca roja o verde, eso también funcionaría.”

A medida que los grandes volúmenes de datos se infiltran en nuestro mundo alrededor y los resultados de los algoritmos tienen un mayor impacto en nuestras vidas, nos corresponde a nosotros tener al menos un mínimo de comprensión de la matemática en juego, o al menos comprobarla con alguien que la tenga. Porque si hay una lección que podemos aprender en los grandes volúmenes de datos, es que todos los algoritmos no se han creado de igual forma.

Traducido del artículo "Can You Trust Your Algorithms?" por Alex Woodie en Datanami

En Química, la separación utilizando las diferencias en los patrones de migración juega un importante papel en la comprensión de las propiedades diferentes especies químicas. Para ayudar a identificar las pequeñas diferencias químicas entre moléculas, los investigadores utilizan un tipo de electroforesis conocido como enfoque isoeléctrico. Utilizando un potencial eléctrico aplicado, esta técnica ayuda a definir y separar moléculas basándose en sus puntos isoeléctricos variables. En esta entrada del blog de COMSOL se verá con más detalle este método de separación.

Usaremos el potente software de simulación COMSOL Multiphysics, junto con su módulo de RF. En contraste con el modelado electromagnético tradicional, el modelo puede extenderse para incluir efectos como el incremento de temperatura, las deformaciones estructurales y el flujo de fluido. En un entorno multifísico, esta multiplicidad de efectos físicos puede acoplarse fuertemente y afectar todo el comportamiento de la simulación del dispositivo electromagnético. En el desarrollo del webinar, demostraremos lo fácil que resulta modelar y simular aplicaciones electromagnéticas de radiofrecuencia y microondas con COMSOL Multiphysics y su módulo de radiofrecuencia.