Los análisis basados en datos obtenidos de sistemas híbridos, en los que tengan cabida datos
estructurados y no estructurados son un importante reto que pueden brinda r importantes ventajas
competitivas. Así pues, diseñar arquitecturas basadas en un enfoque integrador posibilitará
análisis que aprovechen las ventajas de ambos paradigmas.
El análisis cualitativo recolecta datos sin medición numérica con el fin de construir teorías,
descubrir o afinar preguntas, revelar situaciones, describir sucesos, hechos o patrones y explicarlos
para que ayuden en la toma de decisiones.
Por su parte, el análisis cuantitativo busca probar hipótesis y teorías o establecer patrones de
comportamiento a partir de una recolección de datos del mismo tipo, con base a la medición
numérica y análisis estadístico. Para cada uno de ellos se utilizan instrumentos de recolección de
datos cuantitativos o cualitativos, respectivamente.
Mientras los primeros están basados en la observación, las escalas de actitudes, el análisis de
contenido o los cuestionarios, los instrumentos cualitativos lo hacen en la observación, las historias
de vida, las entrevistas, los grupos de enfoques o los documentos.
Cada uno de ellos tendrá su propio diseño de investigación. Los cuantitativos pueden dividirse en
empírico analíticos (descriptivos, correlacionales, experimentales, etc.), etnográficos, estudios de
caso, histórico analíticos, investigaciónes evaluativas, colaborativa o participativas, pongamos por
caso.
Se trata de un área en la que no hay modelos predeterminados de análisis que deban cumplirse a
rajatabla. A la hora de verificar la calidad de la investigación se utiliza el intercambio de opiniones
entre investigadores o la comprobación con los participantes, entre otros métodos.
Técnicas de procesamiento y análisis de datos
Además de la naturaleza de los datos que queremos analizar, hay otros factores decisivos a la hora
de decantarse por unas u otras técnicas de análisis. En particular, la carga de trabajo o las
potencialidades del sistema de cara a afrontar los desafíos que plantea el análisis de los grandes
datos en cuanto a la capacidad de almacenamiento, procesamiento y una mayor o menor latencia
analítica.
El procesamiento en stream o de flujo es otra funcionalidad muy utilizada dentro de las analíticas
de Big Data, junto con la analítica de vídeo, de voz, geoespacial, de lenguaje natural, simulación,
modelado predictivo, optimización, extracción de datos y, por supuesto, la consulta y generación de
informes. De hecho, a la hora de tomar decisiones que permitan obtener el mayor valor de negocio
se pueden aplicar una gran variedad de analíticas avanzadas.