Tipos de análisis de datos para la toma de decisiones

Contenidos

tipos_analisis_para_la_toma_de_decisiones-2133140

Como es bien sabido, el análisis de datos es un soporte clave para tomar mejores decisiones. Fundamentalmente, considerando la corriente contexto digital en el que nos encontramos y su importante influencia en los sistemas de información de las instituciones, ahora más complejos. Una moneda con su cruz y su cara, debido a que gracias a esto podemos aprovechar al máximo las nuevas fuentes de datos.


El nuevo panorama, lleno de desafíos y posibilidades, necesita tipos de análisis de datos adaptados a las nuevas necesidades, con el fin de facilitar la toma de decisiones sustentadas en datos. En resumen, se trata de dar respuesta a las demandas que plantean los diferentes tipos de datos, los diferentes enfoques y, fundamentalmente, la necesidad del tiempo real, decisivo en varios casos.

Datos estructurados vs no estructurados

Los análisis basados ​​en datos obtenidos de sistemas híbridos, que incluyen datos estructurados y no estructurados, es un desafío importante que puede proporcionar importantes ventajas competitivas. Así, diseñar arquitecturas sustentadas en un enfoque integrador permitirá realizar análisis que aprovechen ambos paradigmas.

La integración y unificación de fuentes de información de ambos tipos facilita análisis de todo tipo, ya sea para impulsar los procesos internos, para comprender mejor al cliente o para tomar decisiones estratégicas, inclusive en tiempo real. En resumen, se trata de aportar valor a la compañía a través de análisis que aprovechen ambos sistemas.

Análisis cualitativo vs cuantitativo

Al mismo tiempo de la naturaleza de los datos que queremos analizar, existen otros factores decisivos al momento de decidirnos por uno u otro tipo de técnicas de análisis. En particular, la carga de trabajo

El analisis cualitativo recopila datos sin medición numérica para construir teorías, descubrir o refinar preguntas, revelar situaciones, describir eventos, hechos o patrones y explicarlos para ayudar en la toma de decisiones.

Por su parte, análisis cuantitativo busca probar hipótesis y teorías o determinar patrones de comportamiento a partir de una colección de datos del mismo tipo, basados ​​en medición numérica y análisis estadístico. Para cada uno de ellos se usan instrumentos de recolección de datos cuantitativos o cualitativos, respectivamente.

Mientras que los primeros se centran en la observación, escalas de actitudes, análisis de contenido o cuestionarios, los instrumentos cualitativos se centran en la observación, historias de vida, entrevistas, grupos focales o documentos.

Cada uno de ellos tendrá su propio Diseño de la investigación. Las cuantitativas se pueden dividir en analíticas empíricas (descriptivas, correlacionales, experimentales, etc.), etnográficas, casos de estudio, históricas analíticas, de investigación evaluativa, colaborativas o participativas, digamos.

Esta es un área en la que no existen modelos de análisis predeterminados que deban adherirse estrictamente. Al momento de verificar la calidad de la investigación se utiliza el intercambio de opiniones entre investigadores o la verificación con los integrantes, entre otros métodos.

Técnicas de procesamiento y análisis de datos

Al mismo tiempo de la naturaleza de los datos que queremos analizar, existen otros factores determinantes al momento de seleccionar una u otra técnica de análisis. En particular, la carga de trabajo o las potencialidades del sistema para afrontar los retos que plantea el análisis de big data con respecto a capacidad de almacenamiento, procesamiento y mayor o menor latencia analítica.

Respecto a este último aspecto, Apache Hadoop es un framework diseñado para el procesamiento por lotes, aún cuando entre su rico ecosistema encontramos componentes como Spark, ideal para trabajar juntos y trabajar en tiempo real. A su vez, puede hacerlo de forma autónoma, constituyendo una interesante alternativa como técnica de análisis de datos inmediato, con un margen de menos de segundos.

El procesamiento de flujo o flujo es otra funcionalidad ampliamente utilizada dentro de la analítica de Big Data, junto con video, voz, geoespacial, analítica de lenguaje natural, simulación, modelado predictivo, optimización, extracción de datos y, decididamente, generación de consultas y reportes. En realidad, al tomar decisiones para obtener el mayor valor comercial, se puede aplicar una amplia variedad de análisis avanzados.

Fuente de la imagen: cooldesign / FreeDigitalPhotos.net

(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = «//connect.facebook.net/es_ES/all.js#xfbml=1&status=0»;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));

Suscribite a nuestro Newsletter

No te enviaremos correo SPAM. Lo odiamos tanto como tú.