Por Bonnie K. Stone

La inferencia estadística utiliza datos de una muestra de individuos para llegar a conclusiones sobre toda la población. Es una herramienta muy potente. Pero como dice el refrán, "¡con gran poder viene una gran responsabilidad!" Cuando intente hacer inferencias a partir de los datos de una muestra, debe verificar sus suposiciones. La violación de cualquiera de estos supuestos puede dar como resultado falsos positivos o falsos negativos, lo que invalida los resultados. En otras palabras, corre el riesgo de que sus resultados sean incorrectos, que sus conclusiones sean erróneas y, por lo tanto, que las soluciones que implemente no resuelvan el problema (¡a menos que tenga mucha suerte!).

Ha oído el chiste sobre ¿qué sucede cuando asumes? Para esta publicación, preguntemos "¿Qué sucede cuando no puedes verificar tus…

Cuando se habla de Big Data todo el mundo entiende que se hace referencia a conjuntos de datos enormes, tanto estructurados como no estructurados, capturados en multitud de ambientes y que requieren de técnicas de procesamiento de datos especiales para poder extraer la información valiosa que pueden contener.

No todas las aplicaciones informáticas están preparadas para realizar este tipo de procesado tanto por el hecho de tener que manejar mucha información como por la necesidad de disponer de herramientas específicas para encontrar patrones, desechar valores sin efecto, visualizarlos adecuadamente, etc.

El interés creciente por manejar estas cantidades inmensas de datos viene por la posibilidad cada vez más fácil de captarlos y después almacenarlos, que además ofrece la posibilidad de realizar estudios estadísticos y obtener modelos…

por Bill Kahn, vicepresidente senior, ejecutivo de modelado de riesgos - Bank of America

Bill Kahn dirige el grupo de modelado estadístico para banca de consumo en Bank of America. Su equipo construye cientos de modelos usando una amplia gama de técnicas estadísticas y de aprendizaje automático. Estos modelos ayudan a garantizar la estabilidad financiera a individuos, empresas y comunidades en todo el país. En las últimas décadas, Bill ha dirigido grupos de estadísticos en varias firmas de servicios financieros, consultoría y fabricación de los Fortune 500. Tiene una licenciatura en física y un master en estadística por la Universidad de Berkeley y su doctorado en estadística de la Universidad de Yale.

Minitab le pidió a Bill que compartiera sus ideas sobre el aprendizaje automático (Machine Learning - ML) como "una base para la acción"…

por Bruno Scibilia

El beneficio potencial de los datos almacenados en servidores es enorme. Los bancos, empresas de seguros, telefónicas, fabricantes - de hecho las organizaciones de todas las industrias necesitan aprovecharse los datos de que disponen para mejorar sus operaciones, comprender mejor a sus clientes y encontrar una ventaja competitiva.

Con la llegada de la Industria 4.0 y la Internet industrial de las cosas (IIoT), la información llega fluyendo desde muchas fuentes — desde equipos en líneas de producción, sensores en productos, datos de ventas y mucho más. Ser capaz de recoger, cotejar y analizar esta información se está haciendo incluso más crítico a medida que lasa empresas los utilizan para encontrar mayor conocimiento de sus procesos y mejorar la eficiencia y efectividad.

Esta situación representa una cantidad masiva…

¡Atención! Este sitio usa cookies y tecnologías similares. Si no cambia la configuración de su navegador, usted acepta su uso.