Anda di halaman 1dari 2

Datos estructurados vs desestructurados

Los análisis basados en datos obtenidos de sistemas híbridos, en los que tengan cabida datos
estructurados y no estructurados son un importante reto que pueden brinda r importantes ventajas
competitivas. Así pues, diseñar arquitecturas basadas en un enfoque integrador posibilitará
análisis que aprovechen las ventajas de ambos paradigmas.

La integración y consolidación de fuentes de información de ambos tipos facilita an álisis de todo


tipo, ya sea para mejorar procesos internos como para conocer mejor al cliente o tomar decisiones
estratégicas, incluso en tiempo real. En definitiva, se trata de aportar valor para la empresa
mediante análisis que sacan partido de los dos sistemas.

Análisis cualitativo vs cuantitativo


Además de la naturaleza de los datos que queremos analizar, hay otros factores decisivos a la hora
de decantarse por unos u otros tipos de técnicas de análisis. En particular, la carga de trabajo

El análisis cualitativo recolecta datos sin medición numérica con el fin de construir teorías,
descubrir o afinar preguntas, revelar situaciones, describir sucesos, hechos o patrones y explicarlos
para que ayuden en la toma de decisiones.

Por su parte, el análisis cuantitativo busca probar hipótesis y teorías o establecer patrones de
comportamiento a partir de una recolección de datos del mismo tipo, con base a la medición
numérica y análisis estadístico. Para cada uno de ellos se utilizan instrumentos de recolección de
datos cuantitativos o cualitativos, respectivamente.

Mientras los primeros están basados en la observación, las escalas de actitudes, el análisis de
contenido o los cuestionarios, los instrumentos cualitativos lo hacen en la observación, las historias
de vida, las entrevistas, los grupos de enfoques o los documentos.

Cada uno de ellos tendrá su propio diseño de investigación. Los cuantitativos pueden dividirse en
empírico analíticos (descriptivos, correlacionales, experimentales, etc.), etnográficos, estudios de
caso, histórico analíticos, investigaciónes evaluativas, colaborativa o participativas, pongamos por
caso.

Se trata de un área en la que no hay modelos predeterminados de análisis que deban cumplirse a
rajatabla. A la hora de verificar la calidad de la investigación se utiliza el intercambio de opiniones
entre investigadores o la comprobación con los participantes, entre otros métodos.
Técnicas de procesamiento y análisis de datos
Además de la naturaleza de los datos que queremos analizar, hay otros factores decisivos a la hora
de decantarse por unas u otras técnicas de análisis. En particular, la carga de trabajo o las
potencialidades del sistema de cara a afrontar los desafíos que plantea el análisis de los grandes
datos en cuanto a la capacidad de almacenamiento, procesamiento y una mayor o menor latencia
analítica.

En cuanto a este último aspecto, Apache Hadoop es un framework diseñado para un


procesamiento batch, si bien entre su rico ecosistema encontramos componentes como Spark,
idóneo para funcionar conjuntamente y trabajar en tiempo real. A su vez, éste puede hacerlo de
forma independiente, constituyendo una interesante alternativa como técnica de análisis de datos
inmediato, con un margen inferior a segundos.

El procesamiento en stream o de flujo es otra funcionalidad muy utilizada dentro de las analíticas
de Big Data, junto con la analítica de vídeo, de voz, geoespacial, de lenguaje natural, simulación,
modelado predictivo, optimización, extracción de datos y, por supuesto, la consulta y generación de
informes. De hecho, a la hora de tomar decisiones que permitan obtener el mayor valor de negocio
se pueden aplicar una gran variedad de analíticas avanzadas.

Anda mungkin juga menyukai