Logo Studenta

Datos-inteligentes-y-su-explotacion-a-traves-de-una-herramienta-de-Business-Intelligence-BI

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO 
FACULTAD DE ESTUDIOS SUPERIORES ACATLÁN 
 
 
 
 
 
 
TESINA DE MATEMÁTICAS APLICADAS Y COMPUTACIÓN 
 
 
 
 
 
 
 
 
Datos inteligentes y su explotación a través de una 
herramienta de Business Intelligence (BI) 
 
 
Que para el título de: 
LICENCIADA EN MATEMÁTICAS APLICADAS Y COMPUTACIÓN 
 
 
 
Presenta: 
LILA BERENICE NAVARRETE LUCAS 
 
Asesor: 
JAVIER ROSAS HERNÁNDEZ 
 
 
 
 
 Santa Cruz Acatlán, Estado de México 2016 
 
UNAM – Dirección General de Bibliotecas 
Tesis Digitales 
Restricciones de uso 
 
DERECHOS RESERVADOS © 
PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL 
 
Todo el material contenido en esta tesis esta protegido por la Ley Federal 
del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). 
El uso de imágenes, fragmentos de videos, y demás material que sea 
objeto de protección de los derechos de autor, será exclusivamente para 
fines educativos e informativos y deberá citar la fuente donde la obtuvo 
mencionando el autor o autores. Cualquier uso distinto como el lucro, 
reproducción, edición o modificación, será perseguido y sancionado por el 
respectivo titular de los Derechos de Autor. 
 
 
 
2 
 
Índice general 
 
Presentación 
Introducción . . . . . . . . . . . . . . . . . . . . . . . 3 
Objetivo y justificación . . . . . . . . . . . . . . . . . . . 4 
Alcance . . . . . . . . . . . . . . . . . . . . . . . . . . 5 
 
1. Capítulo I Calidad de datos (CDD) 
1.1 Importancia de la calidad de datos . . . . . . . . . . . . 7 
1.2 Dimensiones en la calidad de datos . . . . . . . . . . . 10 
 1.3 Proceso de calidad de datos . . . . . . . . . . . . . . . 13 
 
2. Capítulo II Datos con conocimiento 
2.1 Bases de datos inteligentes . . . . . . . . . . . . . . . . 20 
2.2 Neuromarketing . . . . . . . . . . . . . . . . . . . . . 26 
2.3 Analítica web y redes sociales . . . . . . . . . . . . . . 31 
 
3. Capítulo III Explotación de datos con Business Intelligence 
3.1 Business Intelligence . . . . . . . . . . . . . . . . . . . 36 
3.2 Minería de datos . . . . . . . . . . . . . . . . . . . . . 40 
3.3 Mercado Business Intelligence . . . . . . . . . . . . . . 51 
3.4 Implantación de un Business Intelligence . . . . . . . . . 57 
 
4. Capítulo IV Decidir con inteligencia 
4.1 Tendencias en Calidad de Datos y Business Intelligence . 63 
4.2 ¿Cómo elegir la herramienta adecuada? . . . . . . . . . 68 
4.3 Evaluación de costos para un Business Intelligence . . . 72 
 
 
Conclusiones 78 
Bibliografía 80 
Agradecimientos 82 
 
 
 
 
 
 
 
 
 
 
 
 
3 
 
Introducción 
 
Muchos hablan de datos, pero, en realidad y a profundidad se sabe: ¿qué importancia existe al 
tener datos con calidad en una base?, ¿existe la conciencia de que los datos son información útil 
en un negocio?, y, ¿cuál es el papel que juega explotar datos con una herramienta como Business 
Intelligence?. La lógica contestaría que juegan un papel importante, y que la explotación con BI es 
una buena alternativa para sacar el mejor provecho posible a la información; pero, ¿hasta dónde 
vale la pena invertir en los datos?, ¿cómo hacerlo? y ¿cómo y en qué beneficia a un negocio?, por 
supuesto sin descartar la interrogante que a los empresarios más interesa: ¿vale la pena el costo-
beneficio? 
 
Esta tesina considera un análisis de las diferentes fuentes que actualmente tienen un mejor aporte 
a las organizaciones en cuanto a datos, datos que evidentemente beneficiarán más a un negocio. 
Se menciona también cómo lograr tener datos inteligentes o con calidad en las bases de datos, 
cosa que ha sido un tema aún sin controlar y dónde se espera mayor crecimiento en esta década. 
 
Se abordarán temas de Business Intelligence, tales como conceptos básicos, funcionamiento 
general y las diversas herramientas que se ofrecen en el mercado para la explotación de datos, 
esto a su vez, pretende dar a conocer los puntos a considerar para elegir la herramienta BI a la 
medida de las necesidades de un negocio. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4 
 
 
Objetivo 
 
Analizar los beneficios de la calidad de datos y conocer cómo encaminar un negocio a su logro, así 
como también conocer las alternativas de herramientas de explotación de datos que brinda 
Business Intelligence y saber cómo elegir la más adecuada para cada tipo de negocio. 
 
 
 
Justificación 
 
Es importante conocer las mejores alternativas para que un negocio invierta en calidad y 
explotación de sus datos. 
 
En los últimos tiempos los datos son determinantes para decidir hacía dónde enfocar productos y 
servicios, sin embargo, no siempre beneficia a un negocio esta inversión, por lo general es 
necesario primero definir el enfoque del negocio, el tamaño de éste y conforme a estos 
parámetros seleccionar la mejor alternativa para mantener la calidad de datos y su correcta 
explotación, con ésto, no se pretende dar a entender que los datos pasan a segundo término si se 
trata de un negocio pequeño, lo que significa es que si es un negocio pequeño quizá con que 
mantenga calidad de datos desde una hoja de Excel y su explotación con una tabla dinámica será 
suficiente; pero si se trata de un negocio más grande, posiblemente valga la pena invertir en una 
herramienta más potente como BI para explotar sus datos y mantenerlos actualizados en la base 
de datos. 
 
Las herramientas BI y de calidad de datos por lo general son costosas, sin mencionar que también 
el personal con conocimientos para operar las herramientas, es por eso que es imprescindible 
saber determinar cuál es la mejor alternativa a elegir, si se considerara este análisis previo muchas 
empresas ahorrarían miles de pesos al invertir en la herramienta adecuada. 
 
 
 
 
 
 
 
 
 
 
5 
 
Alcance 
Esta tesina contempla un análisis profundo de los beneficios que se alcanzan cuando existe calidad 
de datos en un negocio, así como también describe cómo encausar un negocio para lograrlo. Por 
otro lado, en el tema de Business Intelligence se pretende dar a conocer las diversas alternativas 
en herramientas que ofrece el mercado, y de esta manera sea posible tener conocimiento de cuál 
herramienta elegir de acuerdo al tipo de datos, y sobre todo al tipo de necesidades del negocio. 
 
En general, la finalidad es proveer de fundamentos y análisis para tomar la mejor decisión al 
momento de introducir la calidad de datos en una empresa, así como la explotación de esos datos 
con alguna de las herramientas que BI ofrece. 
 
Los temas que principalmente se abordarán son: 
 
Calidad de datos (CDD) y bases de datos 
Neuromarketing y analítica web 
Business Intelligence (BI), tipos de herramientas y productos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6 
 
Capítulo I Calidad de Datos (CDD) 
 
Introducción 
Concepto de dato1: Del latín datum (“lo que se da”), un dato es una información que permite 
llegar al conocimiento de algo, es decir, con la interpretación de un conjunto de datos en contexto 
(a lo que se le llama información), son comprendidos y usados con utilidad en alguna decisión ya 
que por sí solos no tienen sentido. 
 
Los datos constituyen un elemento fundamentalpara la toma de decisiones objetivas, para una 
organización moderna representan un recurso estratégico. Actualmente existe gran interés por 
lograr lo que se ha denominado “gestión del conocimiento”, que implica, tomar los datos 
generados en los procesos empresariales y convertirlos en información al agregarles valor 
mediante procesos de agrupación, clasificación, etc., convirtiendo información en conocimiento, a 
través de procesos de separación, evaluación y comparación. 
 
Sin la existencia de datos no se llegaría jamás a obtener conocimiento, sin embargo, no basta con 
la existencia de datos y la voluntad de tomar decisiones basadas en ellos. Es necesario que la 
información o conjunto de datos, cuente con la calidad adecuada, es decir, que con base en los 
datos se favorezca una decisión sobre otra y se tenga la certeza de que los datos posean atributos 
relevantes para ser útiles a las necesidades que se demandan, fácil de entender e interpretar, 
libres de errores, entre otros. 
 
 
La calidad de datos debe cubre los siguientes aspectos generales2: 
 
• Definición de los objetivos de la calidad de datos. 
• Definición, establecimiento y gestión de las normas de calidad. 
• Comprobación de la conformidad con las normas de calidad previamente definidas. 
• Identificación de los ámbitos en los que se debe mejorar la calidad de datos. 
• Establecimiento de indicadores de la calidad de datos. 
• Evaluaciones y publicación de los informes para la gerencia. 
• Concienciación y formación de los equipos sobre la problemática de la calidad de datos. 
 
 
 
 
 
1 Ver Definicion.de, Definición de datos. Consulta: 15-Junio-2013 de http://definicion.de/datos/ 
2 Ver PowerData, La calidad de los datos, Consulta 26-Septiembre-2014. p.6, de http://cdn2.hubspot.net/hub/239039/file-1441123554-
pdf/docs/PWD_-_CALIDAD_DATOS_-_RADIOGRAFIA.pdf 
7 
 
1.1 Importancia de la calidad de datos 
 
 1.1.2 Importancia de la calidad de datos 
En pocas ocasiones existe conciencia de las consecuencias que trae consigo la deficiente calidad de 
datos, debido a ésto, es importante identificar sus causas y de esta manera sea posible combatir el 
problema desde origen. 
 
Considerando el ejemplo que al realizar las compras en el supermercado se tiene una lista de 
artículos para comprar, y esta lista contiene errores, se tendrían consecuencias a causa del error. 
Aunque posiblemente sean menores por tratarse de pocos productos, hasta quizá el error sería 
enmendado rápidamente y sin gran esfuerzo; pero, si el mismo error sucediera en compras 
masivas en un almacén posiblemente no tenga el mismo nivel de gravedad, o en envíos de 
productos a clientes, si se paga o se cobra por error a quien no se debía, en el sector de medicina o 
investigación donde se diagnostique erróneamente a causa de los datos, el error sería mayor. 
 
El termino calidad de datos3 (CDD) se refiere a los procesos, técnicas, algoritmos y operaciones 
relacionados con la finalidad de mejorar los datos de un negocio. Es necesario adecuar los datos al 
uso que se les pretende dar, al igual que se hace con los productos y servicios, considerando el 
contexto operacional, que el dato satisfaga las expectativas de los usuarios, sean útiles para el fin 
para el que son utilizados, fáciles de entender de interpretar, y además correctos. 
 
Las consecuencias que trae consigo la falta de CDD en un negocio pequeño o grande son no sólo 
de falta de credibilidad y confianza por parte de todos, también son monetarias, re-trabajos en 
ocasiones con muchas áreas involucradas para corregir errores heredados. Teniendo como 
consecuencia principal que en vez de que los esfuerzos sean concentrados en analizar y buscar 
nuevas oportunidades de negocio, concentran su energía en corregir y no perder lo que ya se 
tiene ganado. 
 
La mala CDD influye de manera significante y profunda en la efectividad y eficiencia de las 
organizaciones así como en todo el negocio, ocasionando en algunos casos a pérdidas 
multimillonarias. Cada día se hace más notoria la importancia y necesidad en distintos contextos 
de un nivel de calidad adecuado para los datos. 
 
 
 
 
 
3 Comparar PowerData, La calidad de los datos, Consulta 14-Agosto-2014. p.5, de http://cdn2.hubspot.net/hub/239039/file-
1441123554-pdf/docs/PWD_-_CALIDAD_DATOS_-_RADIOGRAFIA.pdf 
8 
 
1.1.3 Pros y contras de la calidad de datos 
Disponer de datos de alta calidad es un factor decisivo en el éxito de una empresa, interviene 
directamente con la eficiencia de los procesos operativos y el potencial para aportar valor añadido 
al negocio. Cuando existen datos con calidad deficiente los procesos de toma de decisiones son 
ineficientes, por tanto, las decisiones se toman erróneamente afectando sectores empresariales 
como clientes, marketing, proveedores, productos, procedimientos de trabajo, economía, 
empleados, etc., generando costos y esfuerzos extras para el negocio. 
Existen empresas donde se cuenta con datos correctos, pero no de forma oportuna, esto de igual 
manera los sitúa en desventaja, por lo que es importante revisar si los procesos y tecnología con 
los que se cuentan son suficientes para cumplir satisfactoriamente esta necesidad. 
 
Una desventaja más en la falta de CDD es que limita la automatización de procesos, pues qué 
sentido tendría invertir en automatizar-optimizar procesos con datos que finalmente serán 
ineficiente, que no ofrecen ninguna garantía en cuanto a confianza y que no aportarán valor al 
negocio. 
 
Indudablemente, en la medida que se invierta en CDD se tendrá oportunidad de explotar más 
sectores clave que permiten potencializar el negocio, tales como marketing, gestión, captación de 
clientes, mejora de servicio, entre otros. 
 
 
 
1.1.4 Origen de la mala calidad de datos 
 
Aunque la tecnología es importante para la CDD, no es la única solución que aporta mejora, 
también al enfocarse en encontrar las causas de los problemas se aumenta la CDD, pues se está 
actuando no sólo sobre los efectos del problema sino en cómo detectar las causas de los errores, a 
este proceso de detección del problema fuente se le conoce como el diagnóstico de la calidad de 
los datos. 
Existen varios puntos clave que repercuten directamente en el origen de errores en los datos: 
 
Data Entry o Entrada de datos: Las entradas de información manual son una de las mayores 
fuentes de errores, algunos se producen por ruido en la comunicación, errores tipográficos, 
incluso, por desconocimiento de la información se llega a dejar vacios los campos. 
 
Datos externos: Es muy común que se incorporen datos externos de forma automática en los 
sistemas de información, y si no se toman las precauciones adecuadas estarían provocando 
problemas de CDD, por ejemplo, si se quiere incorporar una lista al catalogo de productos 
existente en la base de datos y no se han comparado previamente lo que ya existe contra lo 
9 
 
nuevo, quizá sólo cambian entre sí datos como el ID o formato pero el producto ya existe, 
entonces se tendría duplicidad en el catálogo de productos. 
 
Errores en procesos transaccionales: Muchos de los procesos transaccionales o procesos 
automáticos corre con errores que no siempre son detectados, por ejemplo cuando premisas o 
condiciones del negocio cambian y no son actualizadas en los procesos. Se está tan acostumbrado 
a que todo es automático que con el paso del tiempo se pierde la noción del impacto que generan 
los cambios en cada proceso de negocio, y se deja de dar el continuo mantenimiento adecuado. 
 
Migraciones: Cuando se realiza una migración de datos sin haber analizado en profundidad los 
cambios que hay que aplicar a la información una consecuencia será la ausencia de CDD, la 
existencia de valores obsoletos o en un formato distinto al esperado en el nuevosistema, 
duplicidades, entre otros. 
 
Nuevas aplicaciones: Con el constante crecimiento de la tecnología se crean frecuentemente 
nuevas aplicaciones en las organizaciones, sin definir ni tener en cuenta los estándares de CDD. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
10 
 
1.2 Dimensiones en la calidad de datos 
 
1.2.1 Dimensiones de la calidad de datos 
Para garantizar la CDD se requiere un esfuerzo planeado, permanente y constante; teniendo como 
implicación no sólo el costo sino también el contar con un diseño apropiado de la base de datos, 
todo esto con la finalidad de definir correctamente atributos y tipos de datos en ella, y de esta 
manera realizar un adecuado diseño de procesos de producción de datos, garantizando que 
lleguen a la base de datos libres de defecto y con las características que satisfagan la calidad 
deseada. 
 
La calidad que exista en un esquema interviene directamente en la que exista en los datos, es 
decir, si se tuvieran datos con buena calidad pero un esquema de base de datos relacional sin 
normalizar esto provocaría un problema mayor como la redundancia, por lo que es importante 
considerar que ambos aspectos son imprescindibles y dependen uno del otro para que exista la 
calidad. 
 
Las dimensiones en la calidad de datos son las características o cualidades que poseen los datos 
para ser considerados como adecuados, existen diferentes dimensiones, de las cuales se 
mencionan 7 entre las más destacadas: completitud, conformidad, consistencia, precisión o 
exactitud, duplicidad, integridad, actual u oportuno. 
 
Citando el ejemplo donde se hace una lista de los productos que se comprarán en el 
supermercado, es posible detectar que existe falta de dimensión en casos como los que se 
describen a continuación: 
 
 Si se olvida incluir la cantidad a comprar o un producto (problema de completitud). 
 Cuando hay error en la cantidad anotada de algún producto (problema de exactitud). 
 Se considera la misma lista durante todo un mes (problema de actualidad). 
 
La calidad de datos se relaciona directamente con cada una de las dimensiones para que pueda 
existir, por eso la calidad de datos es denominada un concepto “multifacético”, pues depende y es 
función de las dimensiones que la definen, cada dimensión refleja un aspecto distinto de la calidad 
de los datos. 
 
A continuación se describen las 7 dimensiones que más destacan en la calidad de datos: 
 
Completitud 
Consiste en asegurarse de que la información de la base de datos contenga datos completos, y 
además que la existencia de cada uno de ellos sea relevante. Por ejemplo, suponiendo que al 
definir la tabla “estudiantes” contenga datos como: nombre, número de estudiante, rfc, etc. Si la 
tabla tuviera además el campo fecha de nacimiento este no sería relevante puesto que este 
11 
 
mismo dato se obtendría también del campo rfc; pero si ambos campos faltaran en la tabla, se 
tendría un problema de completitud porque no habría forma de saber la edad del estudiante. 
 
Conformidad 
Se refiere a que los datos que contienen los campos de una tabla estén en formato estándar y 
legible. Por ejemplo, si en un banco se tiene el campo número de cliente y este campo en algunas 
tablas es de tipo numérico y en otras de tipo carácter, se tiene un problema de conformidad por 
falta de unificación en el tipo formato. 
 
Consistencia 
Consiste en evitar que haya información contradictoria entre datos que hacen referencia directa o 
indirectamente al mismo dato; por ejemplo, si una tabla guarda edad de 10 años y fecha de 
nacimiento es 24-Ene-1983 existe un problema de consistencia entre estos 2 campos. 
 
Precisión / Exactitud 
Es la correcta y precisa asociación entre los estados del sistema de información y los objetos del 
mundo real, si los datos no son precisos no sería posible utilizarlos. Por ejemplo, en el cálculo de 
un crédito hipotecario a 10 años, no es lo mismo calcularlo con una tasa de interés de 12% que 
con una del 12.899879. 
 
Duplicación 
Es importante saber si se tiene la misma información en formatos iguales o similares dentro de la 
tabla, por ejemplo, si dentro de la misma tabla se tienen los campos RFC, CURP y fecha de 
nacimiento, posiblemente valga la pena sólo conservar el campo CURP pues de este se obtendría 
el RFC y fecha de nacimiento. 
 
Integridad 
Consiste en saber si toda la información relevante de un registro está presente de forma que sea 
capaz de utilizarse. Teniendo el ejemplo de un error que frecuentemente sucede con el dato 
nombre completo cuando es almacenado en un sólo campo, donde el orden del nombre puede 
variar en escribirse como: nombres, apellido paterno y apellido materno, o bien, apellido paterno, 
apellido materno y nombres, este error de integridad se evita guardando en tres campos distintos 
cada parte del nombre completo, y de esta manera sea posible utilizar el dato. 
 
Oportuno / actual 
Es indispensable que los datos estén actualizados oportunamente además de mantenerlos 
vigentes, citando un ejemplo donde impacta la falta de esta dimensión, es posible imaginar ¿qué 
pasaría en la bolsa de valores si el valor del dólar no se actualizara un día?, quizá el error sería muy 
grave por falta de actualización oportuna del dato, este error impactaría no sólo a mercados 
financieros sino también a países donde la economía depende del valor de este dato. 
12 
 
Entender la importancia de las dimensiones es el primer paso para mejorar la calidad de datos, al 
identificar y separar los defectos de los datos es posible clasificarlos por dimensiones, permitiendo 
aplicar las técnicas adecuadas para mejorar tanto la información como los procesos que la crean y 
manipulan. 
 
1.2.2 Relaciones entre las dimensiones 
 
Las dimensiones no son independientes entre sí, se relacionan de manera cercana y por esta 
misma característica es importante tomar precauciones al invertir esfuerzo en mejorar un aspecto 
(dimensión) de la calidad de datos, pues seguramente el cambio impactaría directa o 
indirectamente otras dimensiones. Dependiendo del contexto en el cual este situado se elegirá la 
mejora de dimensiones que sean consideradas de mayor valor para la calidad de datos, e ignorar 
las que no la perjudican de manera significativa. 
 
Las relaciones negativas más comunes, en las dimensiones de CDD son: 
 Cuando se presta mayor atención a mantener datos exactos, completos o consistentes, 
por lo general se descuida mantenerlos actualizados, en consecuencia del tiempo que es 
necesario invertir en actividades de chequeo y corrección. 
 Otra de las relaciones negativas es que una base con muchos datos (completitud), tiene 
mayor probabilidad de acarrear errores de inconsistencia en datos. 
 
Por otro lado, también existen relaciones positivas entre las dimensiones de CDD, por ejemplo, 
mejorar más de un factor, por esta razón, es importante identificar en primera instancia cuáles son 
las dimensiones que se requiere mejorar de acuerdo al contexto de aplicación, para luego evaluar 
si es posible realizarlo conjuntamente. 
 
Algunas de las relaciones positivas más comunes, en las dimensiones de CDD son: 
 La corrección de errores de tipeo (al digitar el teclado), mejora la exactitud en los datos. 
 Al mantener datos actualizados se mejoraría la exactitud, pues más datos corresponderían 
a la realidad. 
 Cuando se tienen datos con precisión y exactitud, por consecuencia también son 
consistentes entre sí. 
 
 
 
 
 
 
 
13 
 
 1.3 Proceso de calidad de datos 
 
 
1.3.1 Ciclo de vida de la calidad de datos 
Una vez que se decide implementar calidad de datos en un negocio, es preciso considerar que es 
un proyecto de mejora continua, es por eso, que es importante tener claros y definidos los 
procedimientos a seguir en cada una de sus fases. 
 
El flujo a seguir durante un proyecto de calidad de datos4, es el siguiente:1. Definir las reglas de negocio de calidad de datos, unidades funcionales y establecer 
objetivos de cumplimiento. Las reglas serán documentadas y validadas por las unidades de 
negocio involucradas, de ser necesario también por la alta dirección. 
2. Implementar las reglas para verificar el cumplimiento de las mismas en los datos 
existentes. 
3. Generar y publicar informes de errores, excepciones e inconsistencias. 
4. Validar los resultados por parte de las unidades de negocio. 
5. Establecer iniciativas de corrección siguiendo las reglas de calidad de datos, así como 
describir y reportar periódicamente las iniciativas aplicadas, documentando los 
porcentajes de corrección. 
 
La imagen 1 muestra el ciclo de vida de calidad de datos. 
 
4 Ver PowerData, La calidad de los datos, Consulta 1-Septiembre-2014. p.21, de http://cdn2.hubspot.net/hub/239039/file-1441123554-
pdf/docs/PWD_-_CALIDAD_DATOS_-_RADIOGRAFIA.pdf 
 
Imagen 1: Ciclo de vida de calidad de datos, Consultada el 1-Sep-2014, p.21, Sitio del documento: 
http://cdn2.hubspot.net/hub/239039/file-1441123554-pdf/docs/PWD_-_CALIDAD_DATOS_-_RADIOGRAFIA.pdf. 
14 
 
 Antes de iniciar cualquier proceso de calidad de datos, es preciso que la empresa defina el “nivel 
de aceptación de los datos”, este nivel dependerá del uso que se le dé a la información, por 
mencionar un ejemplo, probablemente en el sector de correo directo sea suficiente con tener 
entre un 70% y un 80% de datos exactos; por el contrario, en la industria farmacéutica, es 
aconsejable disponer al menos de un 99% de datos correctos. No obstante, no se conoce 
compañía que quiera, necesite o esté dispuesta a pagar por tener datos perfectos, porque el costo 
es muy elevado. La cuestión a plantear es: ¿cómo se va a utilizar la información y dónde está el 
límite de lo aceptable?, comentó Arvind Parthasarathi, presidente en YarcData responsable de la 
gestión de productos y de calidad de la información para especialistas en integración de datos. 
 
Es posible considerar como primer paso, definir la calidad de datos para establecer los niveles de 
cumplimiento con respecto a las expectativas del negocio, así como especificar los roles y las 
responsabilidades asociadas. 
 
Por otro lado, es importante conocer el esquema arquitectónico y la entrada de los datos, para 
anticiparse, aislar y descubrir la raíz de los errores en los flujos de información. 
 
Al establecer mecanismos de supervisión se identifican oportunamente los problemas, 
permitiendo reaccionar antes de que se degrade la CDD. También, es necesario llevar a cabo un 
seguimiento de la evolución de los datos a lo largo del tiempo para la detección de su posible 
deterioro, y finalmente, identificar las tendencias relacionadas con la calidad de los datos que 
anticipan avisos de posibles transgresiones en las reglas de calidad establecidas. 
 
Con base en el ciclo de vida que sigue la calidad de datos, es posible deducir alertas y controles 
que incluyan: 
• Elementos cubiertos por los SLAs (niveles de servicio) acordados. 
• Impactos en el negocio mapeado por los flujos. 
• Dimensiones de calidad de datos asociadas a cada elemento. 
• Dimensiones de calidad de datos en cada aplicación. 
• Parámetros de medición. 
• Umbral de aceptabilidad. 
• Responsables a notificar en caso de que se traspase ese umbral y plazos de respuesta. 
• Estructura de escalado. 
 
Teniendo en cuenta al finalizar el proceso de CDD, lo importante que es dar a conocer el resultado 
obtenido. Esto es, crear reportes que muestren el nivel de mejora y porcentaje de cumplimiento 
contra lo esperado en conformidad con las reglas de negocio establecidas, las incidencias 
presentadas durante el proceso y las acciones en base al proceso de escalado a seguir para 
comunicar la no-observancia de los niveles de calidad establecidos. 
 
 
 
15 
 
1.3.3 Procesos de calidad de datos 
 
Para trabajar con calidad de datos, es necesario tener una visión compartida entre las distintas 
áreas de negocio, del proceso a seguir durante las distintas fases que involucra calidad de datos. 
 
PowerData, una empresa con más de 10 años siendo especialista en gestión de datos y Business 
Intelligence, sugiere considerar los siguientes procesos principales durante la calidad de datos: 
 
1. Perfilado de datos: Consisten en evaluar los datos en cuanto a sus estructura, contenido. 
Por ejemplo, suponiendo la evaluación del campo fecha de nacimiento, en estructura 
avaluaría que el campo sea de tipo fecha (date), y en contenido que sea una fecha válida. 
 
Dentro del proceso de perfilado se incluyen subprocesos como parte de lo que es 
necesario considerar, éstos son: 
 
Localizar: Ubica el conjunto de datos que requieren ser evaluados y monitoreados por 
tener información o incongruencias de alto impacto. 
 
Medir, monitorear y reportar: Estos tres subprocesos, tienen una relación muy estrecha 
pues están controlados y contenidos dentro de las métricas a reportar. Por ejemplo, al 
medición del campo 'nombre' a través de un reporte scorecarding, dentro del reporte se 
estará actualizando el comportamiento futuro del campo (monitorización), mostrando de 
forma tangible la mejora en cada uno de los ciclos del proceso de calidad (medición), de 
esta manera se tiene un reporte que muestra el avance logrado. 
 
Es importante realizar un reporte al inicio del ciclo de vida del proceso de calidad de datos 
y otro al final, para comprobar la evolución del proceso. 
 
2. Limpieza de datos: Básicamente dentro de este proceso se lleva a cabo la corrección de 
errores encontrados en los datos. Dentro de este proceso se incluyen tres subprocesos 
como parte de lo que es necesario considerar, los subprocesos son: 
Determinar: En esta fase del proceso se identifica cuál es el conjunto de datos a evaluar. 
 
Estandarizar: Es unificar el tipo de dato a guardar, por ejemplo, el teléfono: 
+34.609.039.049 convertirlo en 609039049. 
 
Corregir: Existen muchos datos que dependen de otros dentro de la base de datos, o que 
existen en fuentes oficiales para su validación y/o corrección, por ejemplo el código postal, 
es posible corregirlo con base en la vía y la localidad. 
 
16 
 
3. Mejora de datos o enriquecimiento: Dentro de este proceso se considera la incorporación 
de datos en la base, permitiendo aumentar la completitud en los datos. Calcular un dato 
en base a otro existente enriquecerá la base de datos del negocio, por ejemplo, en la 
detección del género en base al nombre. 
 
4. Matching: Como su nombre lo indica, este proceso se encarga de encontrar datos con 
coincidencias y relaciones entre sí, permitiendo formar de todo esto un consolidado y 
fusionar aquellos datos que se encuentren duplicados. 
 
La imagen 2 muestra de forma ilustrativa la relación que existe entre los distintos procesos y el 
ciclo que siguen en la calidad de datos: 
 
 
 
 
 
 
 
 
Imagen 2: Proceso de calidad de datos. 
17 
 
1.3.4 Limpieza de datos 
 
La limpieza de datos (data cleaning o data cleansing), es el descubrimiento, corrección o 
eliminación de datos erróneos dentro de una base. Este proceso identifica datos incompletos, 
incorrectos, inexactos o no pertinentes, para su posterior sustitución, modificación o eliminación. 
 
Algunos problemas a los que se enfrenta la limpieza de datos es cuando éstos provienen de 
diferentes fuentes de información, citando los casos más comunes a continuación: 
 
 Inconsistencia en nombres: Cuando se utiliza el mismo nombre para representar distintos 
objetos (por ejemplo: el nombre ‘CUENTA’ en una tabla se refiere al código del cliente, y 
en otra a su cuenta bancaria), o distintos nombres representan el mismo objeto, (por 
ejemplo: en una tabla el código de cliente es ‘CUENTA’ y en otra es ‘COD_CLIENTE’). 
 Inconsistencia en estructura: Se refiere a cuando el mismo objetose representa de 
manera distinta en diferentes fuentes de información, por ejemplo: el sexo con valores 
F/M o 0/1. 
 Diferentes interpretaciones del mismo valor (por ejemplo: una medida expresada en 
minutos o segundos). 
 
Ramesh Menon, director de Identity Systems5, afirma que la solución consiste en utilizar 
tecnología de comparación de datos para aislar el “registro de oro”, es decir, lograr una vista única 
de la información a través de múltiples repositorios de datos. 
 
Una cuestión aparentemente sencilla pero difícil de cumplir, es lograr que en una organización 
decida qué información estará disponible para compartir, ocasionando que existan casos como 
cuando dos departamentos distintos de la misma organización tienen definiciones diferentes. 
Muchos procesos de integración fracasan por no ser capaces de acordar quién es propietario de la 
información y qué datos pueden intercambiarse. 
 
 
 
 
 
 
 
 
 
 
 
 
5 Identity Systems. Una empresa de Intellisync(R) (NASDAQ: SYNC) y líder mundial en tecnología de búsqueda y coincidencia de 
identidad. Proporciona software de correspondencias y búsqueda de identidades a organizaciones como AT&T, FedEx y el servicio de 
administración tributaria. EUA (2015). 
18 
 
Capítulo II. Datos con conocimiento 
 
 Introducción 
Los datos alimentados de conocimiento se ha convertido en una nueva manera de explotar la 
información y decidir en los negocios, en el pasado sólo se pretendía jugar con datos palpables y lo 
más cercano posible a la realidad. Con el paso del tiempo lo cercano a la realidad no depende sólo 
de los datos sino de aspectos intangibles como el capital intelectual, como son: 
 
 Capital humano: Conocimiento y la experiencia que se extrae de las personas que forman 
parte de la organización. 
 Capital estructural: Es el conocimiento que se queda en la empresa por ejemplo, los 
procesos. 
 Capital relacional: El conocimiento que se extrae de la relación con el entorno, por 
ejemplo la interacción con clientes, campañas, proveedores, etc. 
 
En este capítulo se abordarán de manera general, las técnicas y herramientas que aportan datos 
con conocimiento a los sistemas de información, con la finalidad de contar con una mejor visión de 
hacia dónde está avanzando la tecnología en cuanto a los datos y con qué objetivo. 
 
Una base de datos es una colección de datos agrupados con un propósito específico en una o más 
entidades lógicas6, donde por lo general la información está soportada por un sistema de gestión 
de base de datos (SGBD). 
 
Desde mediados de los años 50's a la fecha, la expectativas de administración de datos han ido 
creciendo y evolucionando conforme avanza la tecnología. Los primeros sistemas de 
procesamiento de datos ejecutaron las tareas administrativas sólo para reducir el papeleo, 
recientemente se han expandido hacia la producción y la gestión de la información, lo que se ha 
convertido en un recurso vital para las compañías. 
 
Por otro lado, la evolución de los SGBD ha proporcionado métodos para analizar los datos, 
encontrar correlaciones y dependencias entre ellos, sin embargo, el análisis de datos ha cambiado 
y adquirido mayor importancia a causa de tres factores principales: 
 
1. Incremento de la potencia de las computadoras: Esto permite a su vez, incrementar la 
capacidad de almacenamiento de datos, capacidad de cálculos matemáticos o entre datos 
y mejorar el rendimiento. 
2. Incremento del ritmo de adquisición de datos: La cantidad de datos almacenados crece 
rápidamente en número y tamaño, por esta razón es preciso considerar que los datos 
almacenados se ve no sólo por el espacio visible de ocupación, sino también por la 
automatización de técnicas de recogida de estos. 
 
6 Comparar: Charlis Raga. Bases de datos. Fecha de Consulta: Enero 2014. Disponible en: 
http://www.monografias.com/trabajos7/bada/bada.shtml 
19 
 
3. Nuevos sistemas de conocimiento: Constantemente surgen nuevos métodos de 
aprendizaje y representación de conocimiento, algunos desarrollados en IA (Inteligencia 
Artificial), estadística, física u otras áreas de la ciencia, su objetivo es complementar las 
técnicas ya utilizadas e inducir algún evento. 
 
Una de las necesidades principales de la explotación de datos es incorporar herramientas que 
permitan acceder a ellos y manipularlos, tales como: 
 Productos que efectúen análisis sobre los datos almacenados. 
 Ser capaces de realizar operaciones entre datos estructurados y no estructurados. 
 Responder eficientemente a consultas no planificadas y tener capacidad de 
procesamiento. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
20 
 
2.1 Bases de Datos Inteligentes 
 
 2.1.1 Bases de datos alimentadas de conocimiento 
Una base de datos inteligente (BDI) es donde convergen la integración de bases de datos y los 
fundamentos teóricos de la Inteligencia Artificial (IA), adicionando a la estructura del motor de 
base relacional un motor de inferencia, el cual es capaz de deducir hechos a partir de la base de 
datos aplicando axiomas deductivos o reglas de inferencia. 
 
Durante los inicios de la inteligencia artificial, las técnicas no eran suficientes para resolver 
problemas orientados a las aplicaciones y en satisfacer las necesidades de la investigación, esto 
dió lugar a la aparición de: 
a. Sistemas basados en conocimiento (Knowledge Based Systems): Es un sistema 
computarizado capaz de resolver problemas en el dominio específico en el que posee 
conocimiento. 
b. Ingeniería Cognoscitiva: Rama de la inteligencia artificial que estudia los sistemas basados 
en el conocimiento. 
 
La diferencia entre los sistemas basados en el conocimiento y los programas convencionales es 
que éstos últimos utilizan algoritmos para resolver problemas, mientras que los sistemas basados 
en conocimiento resuelven problemas donde las soluciones algorítmicas no existen o son muy 
costosas para ser implementadas. Por ejemplo, un programa convencional calcularía el interés a 
cobrar en los próximos 10 años en un crédito hipotecario, mientras que un sistema basado en 
conocimiento, deduciría a qué créditos ofrecer una mejor tasa en 10 años (probablemente sólo 
considerando algunas métricas lógicas del comportamiento que han tenido). 
 
La necesidad de extender los sistemas de bases de datos a sistemas de bases de datos inteligentes, 
permite elevar su utilidad al punto de construir conocimiento a partir de datos simples, y que éste 
conocimiento controle e interprete la estructura en su conjunto. El conocimiento está 
determinado por las reglas y convenios que se aplican en un dominio de problema en particular, 
asimismo, el desarrollo de una base de datos inteligente implica, la representación del 
conocimiento definido por mecanismos lógicos. 
 
 
 2.1.2 Inteligencia Artificial 
La inteligencia artificial es considerada una rama de la computación, relaciona un fenómeno 
natural con una analogía artificial a través de programas de computadora o máquinas. De acuerdo 
a Schalkoff (1990), la inteligencia artificial (IA) es el campo de estudio que se enfoca a la 
explicación y emulación de la conducta inteligente en función de procesos computacionales. 
 
Uno de los objetivos principales del desarrollo de sistemas de IA no es reemplazar completamente 
a los humanos, sino duplicar su nivel productivo para ciertas tareas definidas. 
21 
 
 
Algunas de las principales ramas de la inteligencia artificial se muestran en la imagen 3, y a 
continuación se menciona una breve explicación de cada una, poniendo especial enfoque en los 
sistemas expertos. 
Robótica: Consiste en desarrollas dispositivos mecánicos o computarizados con la capacidad de 
realizar tareas que generalmente requieren alta precisión, repetitivas o implican algún tipo de 
riesgo paralos humanos. 
 
Sistemas de visión: Son equipos y software que permiten a las computadoras capturar, almacenar 
y manipular imágenes visuales y fotografías. Por ejemplo, los sistemas de visión se utilizan para 
darle visión a los robots y con base en eso se tomen decisiones. 
 
Procesamiento de lenguaje natural: Son programas que tienen como entrada lenguajes humanos, 
para introducirlos en un conjunto estándar de instrucciones que son ejecutadas por una 
computadora. Los programas de procesamiento de lenguaje natural, permiten que las personas 
usen su lenguaje natural al momento de interactuar con programas como los sistemas de 
administración de bases de datos (DBMS), o sistemas de apoyo para la toma de decisiones. 
El objetivo de estos procesadores es eliminar paulatinamente la necesidad de aprender lenguajes 
de programación o comandos personalizados para comunicarse con las computadoras, incluso, 
combinándolos con dispositivos de reconocimiento de voz, el usuario dará instrucciones a la 
máquina para que realice tareas, sin la necesidad de usar el teclado. 
 
Sistemas de aprendizaje: Es la combinación que existe entre el software y equipo para incitar a que 
la computadora reaccione a situaciones con base en la retroalimentación que recibe. 
 
Redes neuronales: Es un sistema de computación que pretende simular la forma de razonar del 
cerebro humano, estas redes procesan varias piezas de información al mismo tiempo y aprenden a 
reconocer patrones a través de ensayo y error. Las redes neuronales tienen la capacidad de: 
 Recuperar información incluso cuando falla algún nodo. 
 Modificar rápidamente los datos almacenados a partir de una nueva información. 
Imagen 3 Ramas de la Inteligencia Artificial 
22 
 
 Descubrir relaciones y tendencias en grandes bases de datos. 
 Resolver problemas complejos en los que se cuenta con poca o nula información . 
 
Lógica difusa: Se basa en las reglas que no tienen límites discretos, sino que prolongan 
continuamente, permitiendo a un sistema manejar mejor la ambigüedad. La lógica difusa es muy 
útil para reflejar como tiende a pensar el humano en términos relativos no absolutos, por ejemplo 
un red eléctrica. 
 
Algoritmos genéticos y computación evolutiva: Es un método de búsqueda dirigida basada en 
probabilidad, modelos lógico-matemáticos e inspirada en los mecanismos de evolución 
propuestos por Darwin, Mendel, Lamark. La computación evolutiva se basa en imitar la evolución 
biológica tal y como se entiende hoy en día, es decir, tal y como sucede en la naturaleza. 
 
Agentes inteligentes: Son programas de computadora que revisan automáticamente grandes 
cantidades de datos, seleccionan y entregan la información más adecuada para el usuario, 
considerando requisitos contextuales o específicos. Estos agentes son particularmente útiles en la 
WEB, su propósito es realizar tareas con mayor rapidez, frecuencia y precisión de lo que lo haría 
un usuario humano. 
 
Sistemas expertos: Son programas inteligentes de computadora que usan el conocimiento y los 
procedimientos de inferencia, para resolver problemas que requieren el conocimiento y/o 
experiencia de un humano. Hace un amplio uso del conocimiento especializado tal como un 
experto humano y trabaja sobre un dominio específico. 
 
La minería de datos también es parte de las ramas de la Inteligencia Artificial, sin embargo por la 
amplitud del tema se explicará más adelante en el capítulo 3. 
 
 2.1.2.1 Sistemas expertos 
Un sistema experto (SEs) es un sistema computarizado que imita el proceso de razonamiento de 
un experto humano en un área o campo de conocimiento específico, intentando emular ese 
conocimiento heurístico (técnica informal para la resolución de un problema), los estudios 
y desarrollos de los SEs comenzó a mediados de la década del 60 y hoy en día han evolucionado. 
 
Al ser una base que se alimenta del conocimiento, se posicionan en un nivel superior en 
comparación con los programas convencionales al tratar con datos inciertos, estos sistemas se 
componen de los módulos7: 
 
1. Base de conocimientos: La base de conocimiento almacena toda la información específica 
relativa al campo de conocimiento deseado, por ejemplo el conocimiento de los expertos 
 
7 Comparar: Epistemowikia. Heurística e Inteligencia Artificial. Fecha de Consulta: 19-Oct-2014, Disponible en: 
http://cala.unex.es/cala/epistemowikia/index.php?title=Heur%C3%ADstica_e_Inteligencia_Artificial 
http://es.wikipedia.org/wiki/Sistema_formal
23 
 
como en el caso de reglas, procedimientos y datos al área del problema. Este 
conocimiento se codifica según una notación específica que incluye reglas, predicados, 
redes semánticas, frames y objetos. 
2. Una base de hechos: En esta base se encuentran los datos relativos a los problemas que se 
quieren resolver con la ayuda del sistema. La memoria de trabajo almacena los resultados 
intermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que 
puede utilizarse para explicar la forma en la que el sistema ha deducido la información 
durante una sesión de trabajo, o describir el comportamiento del propio sistema. Al 
comienzo del período de trabajo, en la base de hechos sólo se encontrarán los datos 
introducidos por el usuario del sistema, y a medida que actúa el motor de inferencia, 
almacena las inducciones y deducciones que lleva a cabo el sistema para conseguir las 
conclusiones. 
3. Motor de inferencia: Es un programa que a partir del "conocimiento" resuelve el problema 
especificado, combinando hechos y preguntas en particular para llegar a una conclusión 
determinada. Por lo general, las reglas de la base de conocimiento son silogismos 
demostrativos, por ejemplo si A es cierto entonces se deduce B. En este caso, el motor de 
inferencias selecciona, valida y activa las reglas que permiten obtener la solución 
correspondiente al problema en cuestión. 
4. Interface con el usuario: Es el medio de comunicación entre el sistema experto y el 
usuario. 
 
Hayes-Roth8 considera como las características más importantes de los sistemas expertos: 
 Resolución de problemas normalmente atacados por expertos humanos. 
 Utilizan razonamiento heurístico, utilizando lo que los expertos consideran que son 
reglas empíricas efectivas, de ser preciso también interactúan con los humanos de 
forma adecuada, incluyendo el lenguaje natural. 
 Utilizan la manipulación y razonamiento sobre descripciones simbólicas. 
 Funcionan con datos inciertos y contemplan múltiples hipótesis. 
 Explican su proceso de razonamiento y justificar sus conclusiones. 
 Aplican técnicas de búsqueda e infieren nuevos conocimientos a partir de los 
existentes. 
 
A su vez, algunos de los sistemas expertos más demandantes son: 
 Sistemas de diagnosis: Se sigue un proceso de búsqueda de las razones del 
funcionamiento incorrecto de un sistema a partir de la información disponible en la base 
de datos. Los sistemas de diagnosis se utilizan tanto para aplicaciones de diagnóstico 
médico, como de averías. 
 Sistemas de pronóstico: Pretende deducir las consecuencias a partir de una situación, su 
objetivo es determinar el curso del futuro, en función de los datos que se tienen del 
 
8 Hayes-Roth Frederick. Lenat D.B. & Waterman, D.A (1983). Building Expert Systems, Pag.51. Addison-Wesley. Reading. Massachusetts. 
EUA. 
24 
 
pasado y presente. Se aplica a problemas como predicciones meteorológicas, predicciones 
demográficas, inclusive previsiones de la evolución. 
 Sistemas de planificación: Estos sistemas establecen una serie de acciones a realizar con 
base en la secuencia definida por un conjunto de objetivos. Sobresale la simulación que 
busca representar un estado real y evaluar distintas variables para determinar caminos 
óptimos. Los planes y las decisionesen la producción se desarrollan y se llevan a cabo en 
un mundo de representaciones simbólicas de hechos y conjeturas, que por lo general, no 
están en los datos de las bases sino en la experiencia y/o conocimiento de expertos. 
 
 
 2.1.3 Arquitectura de una base de datos inteligente 
Los sistemas gestores de bases de datos inteligentes no existen como tal, sino que en la 
arquitectura de una base de datos inteligente intervienen múltiples factores y condiciones los 
cuales, se derivan de estrategias implementadas por el programador y las necesidades del sistema 
a desarrollar. 
 
El principal objetivo de la interfaz de un sistema inteligente de bases de datos, es proporcionar 
consejo y apoyo a la toma de decisiones, ofrecer opiniones informadas y el por qué de sus 
razonamientos. Al mismo tiempo que es necesario que el directivo u operador manipule grandes 
volúmenes de información. 
 
Algunos de los beneficios de contar con un sistema inteligente de bases de datos son: 
 Reducción de tiempos en la toma de decisiones. 
 Apoyo a la toma de decisiones basada en hechos. 
 Mejorar el desempeño de personal no experto. 
 Acelerar la capacitación de personal mediante tutores. 
 Flexibilidad y apoyo a la reorganización y la reingeniería. 
 Contar con un mejor diagnóstico de fallas. 
 Mejora en el mantenimiento del sistema. 
 Optimización en tiempos y movimientos. 
 Mejora de servicio. 
 Mayor retención de conocimiento y experiencia corporativa. 
 
Conforme se vaya avanzando en el contenido de este trabajo es posible identificar que el conjunto 
de estas herramientas intervienen finalmente, tanto en la calidad de datos como en la explotación 
de los mismos. 
 
Para el desarrollo de una base de datos inteligente sobre un motor relacional, por lo general se 
consideran las siguientes condiciones: 
1. Una base de datos relacional: Base principal donde se concentra en tablas los datos útiles 
del sistema. 
25 
 
2. Una base de conocimiento dinámica: Base en intenso, constituida de selección de tuplas 
involucradas en un proceso de inferencia particular. 
3. Módulos de pre proceso: Estos módulos son enfocados al tratamiento de los datos 
inciertos en la base. 
4. Una base de reglas: Se estructuran los procesos de inferencia en marcos de operación 
determinados. 
5. Módulos de acceso binario: Cuando intervienen procesos de selección y filtrado para los 
que no se estructura un campo clave, se requiere de archivos binarios a los que el sistema 
acceda eficiente y rápidamente. 
 
La inteligencia en una base de datos no necesariamente se relacionada con la estructura de la base 
de datos, sino con la explotación de datos que el sistema es capaz de realizar. Así una base de 
datos soportada en SGBD comercial, será una base para implementar inteligencia en el sistema si 
cuenta con un módulo lógico, y es desarrollada en un lenguaje de programación lógica. 
 
A su vez, es necesario que la base de datos inteligente soporte consultas de lenguaje SQL 
(Structured Query Language), con base en esto se crearán funciones y procedimientos 
particulares, de los que se espera resolver lo siguiente: 
 Descubrimiento de conocimiento y búsquedas inteligentes: Se refiere a la aplicación de 
técnicas de inteligencia artificial para extraer conocimiento a partir del análisis de los 
datos. 
 Tratamiento de la Incertidumbre: También llamado conocimiento con incertidumbre, es el 
procesamiento lógico de condicionales, dentro de las que se encuentran: datos 
inexistentes, inaplicables, desconocidos o indefinidos. 
 
A pesar de los avances de los últimos años en las bases de datos inteligentes, todavía se enfrentan 
desafíos por resolver entre los que principalmente destacan: 
 Los mecanismos de explicación son limitados, esto se deriva de que las herramientas no 
siempre son capaces orientar al usuario en cómo han llegado a los datos. 
 Los formatos de entrada de datos complejos son limitados, por ejemplo, hay menor 
posibilidad de manipular gráficos, textos, multimedia, fórmulas matemáticas, entre otros. 
La complejidad con determinados tipos de datos no es sólo en bases de datos relacionales, 
también en bases de datos espaciales o geográficas donde por lo general se trabaja con 
mapas y referencias cartográficas. Esto hace además de compleja la manipulación de 
datos, una base pesada por el tipo de información que contiene, un problema similar se 
tiene con bases de datos multimedia, donde los datos son complejos de manejar y 
pesados para almacenarlos. 
 Técnicas de validación insuficientes, incapacidad de hacer validaciones cruzadas, 
validaciones que garanticen confiabilidad en los datos conservando su integridad. 
 Gran consumo de recursos y soporte limitado a ciertas plataformas, formatos, tamaños. 
 
 
26 
 
2.2 Neuromarketing 
 
2.2.1 ¿Cómo se integra el neuromarketing a los datos? 
El neuromarketing estudia el cerebro evaluando las zonas cerebrales que intervienen en el 
proceso compra-selección de un producto, sin hacer preguntas al consumidor, es posible predecir 
comportamientos e identificar los motivos del impacto emotivo que produce el producto o 
servicio seleccionado. 
 
El neuromarketing se integra de recursos para investigar, segmentar y desarrollar estrategias en 
un mercado determinado. 
Los recursos que utiliza el neuromarketing se basan en el conocimiento de procesos cerebrales 
ligados a la percepción sensorial, básicamente en la investigación de un mercado, responderá a las 
siguientes interrogantes: 
 
 ¿Cómo se procesa la información en la memoria? 
 ¿Qué emociones causó? 
 ¿Qué nivel de atención tuvo, y qué fue lo que lo ocasionó? 
 ¿Qué mecanismo actúan en el aprendizaje, toma de decisiones del cliente? 
 Se pretende saber sin que el cliente diga una sola palabra: ¿Cuál fue su emoción y 
racionalidad?. 
 
Para que exista inteligencia de negocios en primera instancia es necesario tener información 
confiable sobre el mercado, lo cual implica indagar hasta entender qué y cómo piensan los 
clientes. 
Algunos de los métodos que se han venido utilizando sin éxito son encuestas y entrevistas a 
profundidad, debido a que sólo proporcionan información superficial. El neuromarketing ha 
venido a reemplazar este tipo de técnicas de investigación de mercados, y al mismo tiempo, a 
alimentar las bases de datos que necesitan de ese conocimiento para crear informes y que los 
directivos tomen las mejores decisiones en el negocio. 
Es notable que no hay que analizar lo que dicen los clientes y cómo se comportan pues son 
contradictorios. La realidad es que la mayor parte de las decisiones que se toman son originadas 
por motivos inconscientes, por lo mismo, es preciso indagar en las causas que determinan las 
conductas de consumo, lo cual es posible estudiando directamente donde se originan 
pensamientos y comportamientos: en el cerebro. 
En la historia del marketing existen casos que confirman lo anterior, tal como: "participantes de 
muestras significativas manifestaban estar convencidos de la aceptación de un nuevo producto 
afirmando que lo comprarían y no lo hicieron9". El ¿por qué?, es simplemente a causa del 
 
9 Ver: Néstor Braidot. Neuromarketing, Neuroeconomía y Negocios. Editorial Planeta. Ed. 2006. p.8 
27 
 
funcionamiento de nuestra mente, emociones y decisiones que se originan en un proceso mental 
que está por debajo de nuestro umbral de conciencia. Detrás de la parte racional se esconde una 
verdad sin acceso consciente, eso hace que se crea expresar el sentir propio, aunque, en realidad 
no sea así. 
 
Por otro lado, tampoco es posible quedarse inerte sobre analizando los acontecimientos ya que la 
gestión de negocios del día a día se ve impactada por variaciones intensas en periodos cada vez 
más breves, por lo que es necesario actuar con rapidez y asumir los riesgos de cada decisión. Paraesto es preciso contar con herramientas para reducir estos riesgos, herramientas dinámicas y 
flexibles al diseñar estrategias de negocio pues la estabilidad es prácticamente imposible. 
 
Un negocio inteligente se sustenta en la estrategia para ser competitivo, por lo mismo, es 
importante tener la capacidad de transformar la información obtenida en conocimiento nuevo, 
con la inteligencia necesaria de generar soluciones diferentes. En otras palabras, la información de 
hoy convertirla en información anticipatoria y no sólo información al instante sobre un mercado 
que en pocos días es posible cambiar. Es en este punto donde converge el neuromarketing, sus 
técnicas y herramientas de análisis, con la recogida de datos y explotación que se necesita realizar 
al tener esta información en bases de datos. 
 
El neuromarketing se utiliza en diversas áreas del marketing como: investigación de mercados, 
comportamiento de clientes, diseño de productos, validación e impacto de publicidad, entre otras. 
En la mayoría de los casos el proceso de selección es automático, tienen que ver hábitos, fuerzas 
en torno a la historia y personalidad del consumidor, el contexto social y físico que lo rodea. 
La zona emocional del cerebro es la primera fuerza que actúa en los procesos mentales, este 
hemisferio es fundamental en la decisión que tome, por ejemplo: si al degustar una bebida asocia 
el sabor a algo desagradable o un recuerdo doloroso es seguro que no lo compre, aunque el precio 
y calidad sean razonables. Lo anterior tiene que ver, con que la zona racional del cerebro no 
funciona separada de la zona emocional, sino ambos sistemas se comunican e intervienen en la 
conducta y comportamiento conjuntamente. 
En una investigación de mercado no sólo es necesario estudiar lo que el cliente “dice” qué piensa 
o recuerda. Es importante también saber cuál es la causa que está detrás de esa conducta, esto es, 
tomando tres características básicas que estudia el neuromarketing: atención, emoción y 
memoria. 
• La atención: Es la característica más fácil de lograr en un anuncio. 
• La emoción: Es necesario que esta característica suba y baje permanentemente para que sea 
bueno, si la emoción es muy alta por mucho tiempo produce agotamiento. 
• La memoria: Lo más difícil de lograr, para que suceda se asociará la emoción a algo personal que 
le recordará cada que venga a su mente el producto. Cuando se logra que alguien lo mantenga en 
sus recuerdos significa que el anuncio es bueno. 
 
28 
 
El neuromarketing es una fuente de datos importante para el mercado del negocio, la tecnología 
cada vez más sofisticada, permite que los datos sean recolectados de estudios de neuromarketing, 
y se almacenen en las bases de datos. De esta manera, no sólo es posible conocer y medir el 
impacto de una campaña de marketing, sino también visualizar y diseñar nuevas campañas 
anticipándose a ofrecer lo que los clientes están esperando. Permitiendo al mismo tiempo, 
alimentar los datos de análisis de neuromarketing, y de conocimiento constante del mercado de 
estudio. 
 
A toda empresa le interesa ser líder en su ramo, una de las principales encomiendas para lograrlo 
es tener mayor captación de clientes. Esto es posible hacerlo con técnicas de neuromarketing para 
conocer qué les gusta y así saber qué ofrecerles. Sin embargo, no es posible que el trabajo de 
neuromarketing se limite a una ardua labor de investigación y tener como resultado sólo una 
campaña exitosa. El neuromarketing es sólo el punto de partida para integrar los datos recabados 
en las bases de datos, y llevar una continuidad alimentando constantemente las bases con los 
resultados obtenidos de las campañas, otros estudios de neuromarketing, datos del negocio, entre 
otros; de tal manera que la información contenida en las bases sea explotada y a partir de eso 
surjan nuevas campañas, segmentos de clientes y demás tendencias que favorezcan el rumbo del 
negocio. 
 
2.2.2 La razón y la emoción 
El neuromarketing no sólo tiene aplicación al mundo de investigación de mercados. Conocer los 
mecanismos de los campos cerebrales se aplican también a su campo de acción: producto, 
precios, branding (hacer o crear una marca), posicionamiento, targetting (mercado objetivo de 
clientes a quien va dirigido el producto), planeamiento estratégico, canales de marketing, en sí, se 
aplica a todos los factores que determinan el comportamiento de compra consumo, o bien 
cualquier otro tema de investigación. 
 
Por citar un ejemplo: 
En el campo de la salud es posible observar claramente la capacidad natural del cerebro para 
aliviar el dolor crónico, el secreto muchas veces radica en estimular el núcleo accumbens 
(estructura del cerebro responsable del afecto placentero) a través de un falso fármaco o 
medicamento que es promocionado como de gran alivio. De esta manera quien después de haber 
estimulado la idea de aliviarse dentro del núcleo accumbens recibe el falso medicamento con la 
idea de aliviase después de tomarlo, lo asombroso es que funciona tal como se ha pensado. Todo 
parece indicar que el cerebro es engañado con base a promesas que generen una dosis oportuna 
de expectativas positivas, el resultado de esta dinámica conlleva la liberación por parte de esta 
estructura cerebral, de una abundante cantidad de un neurotransmisor llamado dopamina, el cual 
actúa de manera analgésica sobre el organismo. 
 
El núcleo accumbens desempeña un rol importante como parte del sistema de recompensa del 
cerebro. Cuando esta estructura se activa, la persona se siente más inclinada al cambio, a asumir 
riesgos, ya que posee una mayor expectativa de obtener una gratificación. 
29 
 
 
El estudio de la razón y la emoción mantiene una relación muy estrecha con el neuromarketing y a 
su vez con las bases de datos. A partir de los datos recabados en las bases de datos es posible 
determinar qué tipo de estrategias promocionales conviene diseñar, conocer en qué zonas se ha 
obtenido respuesta favorable a los diversos tipos de publicidad, medios audiovisuales, marcas, y 
cualquier otro factor que sea foco del negocio. 
 
 
2.2.3 Tecnologías utilizadas en el Neuromarketing 
Las tecnologías aplicadas en el neuromarketing más comunes: 
 Resonancia Magnética funcional (fMRI): Permite ver en un monitor cómo y dónde se 
activa el cerebro ante cada estímulo mientras éste trabaja, de acuerdo a las zonas que se 
activen es preciso saber, -entre otras cosas-, cuáles son los atributos que generan 
aceptación, rechazo, indiferencia, etc. Es costosa pero genera resultados completos y 
confiables. 
 Encefalografía (EEG): Mide cambios eléctricos del cerebro. El EEG es la técnica más barata 
y accesible. 
 Magneto Encefalografía (MEG): Mide los cambios magnéticos que se producen en el 
cerebro. 
Imagen 4 Néstor Braidot (2006). Núcleo accumbens. 
30 
 
 Tomografía (PET): Consiste en monitorear funciones fisiológicas que posiblemente sufran 
alteraciones con la actividad cerebral como son el metabolismo, el flujo de sangre, el 
volumen de sangre y la oxigenación de la sangre. 
 Biofeedback: Es la técnica más sencilla y barata de todas, registra la actividad eléctrica de 
los músculos a través de pequeños electrodos colocados en contacto con diversas zonas 
del cuerpo, mientras es posible observar en el monitor de una computadora la ausencia o 
presencia de emociones, así como también su intensidad. De esta manera es posible 
analizar el nivel de aceptación o rechazo a algo. 
 
En el campo de neuromarketing y las bases de datos todavía se tiene tarea por delante, por 
principio, tener técnicas automáticas para recolectar los datos, contar con el perfil adecuado y 
"know-how" para convertir los datos en conocimiento, y a su vez, el conocimiento en impacto. 
 
La finalidad es que los estudios de neuromarketing y la tecnología permitan usar el conocimiento, 
para posteriormente generarun impacto positivo en las acciones de comunicación y promoción 
dentro del marketing. Un ejemplo donde la tecnología contribuye al logro de objetivos del 
neuromarketing es en el Big Data, pues es capaz de crear nuevas dimensiones en la segmentación, 
permitiendo micro-segmentación y así construir estrategias de clientes más elaboradas y 
fortalecidas10 que permitan elaborar campañas de marketing enfocadas a ofrecer lo que el cliente 
necesita, y así garantizar el éxito de las mismas. 
 
La explotación de datos de neuromarketing se lleva a cabo basándose en técnicas de Business 
Intelligence y estadística, algunas de ellas son: análisis de cluster, métodos de segmentación, 
agrupación, árboles de decisión y análisis factorial. Business Intelligence logra un análisis 
exhaustivo de la mente de los consumidores, para que de esta manera las decisiones de negocio 
sean previstas y tomadas anticipadamente, de forma confiable y con un mayor grado de certeza, 
logrando minimizar riesgos de negocio. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
10 Comparar: Esmeralda Díaz-Aroca., Entrevista las claves del Neuromarketing. Fecha de consulta: Octubre 2014. Disponible en: 
http://corinamiranda.com/2014/07/14/neuromarketing-la-ciencia-de-la-decision-humana/ 
31 
 
2.3 Analítica web y redes sociales 
 
2.3.1 La importancia del análisis web y redes sociales 
La Analítica Web es una parte que conforma al Business Intelligence, consiste en analizar el 
comportamiento de las personas en la web, aunque muchos erróneamente creerían que consiste 
en analizar sitios web. Es una nueva disciplina creciente y con mayor importancia conforme 
transcurre el tiempo, pues es un factor determinante para el éxito de una empresa en internet, ya 
que es la forma de medir su aceptación en todos los medios involucrados en la red, como son: 
sitios web, redes sociales, campañas publicitarias, entre otros. 
 
La comunicación online es el medio con mayor precisión que cualquier otro para conocer a las 
personas, brinda información para saber qué les gusta, qué buscan, qué les motiva más, qué 
formatos y diseños les son más agradables al navegar, qué tipos de contenidos hacen que sean 
recurrentes sus visitas, si utilizan otro tipo de información, como les gusta colaborar o si 
comparten con su círculo bien o mal. Para el estudio de los comportamientos mencionados existe 
un analista web, que juega el papel de psicólogo de la empresa pero en Internet, el analista web 
sabe aprovechar las huellas que consciente o inconscientemente se dejan al navegar en la red. 
 
Para que un negocio aproveche la analítica web, es conveniente que considere tener claras las 
respuestas a las siguientes interrogantes: 
¿Cuál es objetivo que tiene al estar en internet? 
¿Cada miembro del equipo tiene conocimiento de la misión y visión?, y además, ¿Comparten el 
mismo contexto y consenso? 
 
Lo primero es tener claro el objetivo de tener presencia en Internet, de esta manera llegado el 
momento de analizar los resultados, es posible compararlos contra lo que se tenía pensado 
obtener. 
En segundo lugar, conseguir que la visión sea compartida por todos los integrantes de la 
compañía, desde el dueño hasta el último en la empresa, tendrán objetivos y contexto además de 
claros, compartidos, permitiendo que el progreso fluya mejor. 
 
Ventajas del análisis web 
 Tomar decisiones de marketing más eficientes. 
 Mejorar la estrategia de posicionamiento en Internet. 
 Incrementar la cartera de clientes y optimizar el diseño de la página web de la empresa. 
 Evaluar en tiempo real el retorno económico. 
 Decidir en qué momento la web del negocio está preparada para abrirse a más 
inversiones. 
 Detectar oportunidades de mejora o de negocio. 
 Comprender mejor los indicadores del rendimiento económico. 
 Conocer qué productos son más rentables. 
32 
 
 Hacer un adecuado seguimiento de clientes y aumentar su fidelidad. 
 Conocer la procedencia y destino de los visitantes. 
 En general, es gestionar todos los aspectos relevantes al negocio en Internet. 
 
 
2.3.2 Cómo hacer análisis web 
 
El uso de Internet ha venido experimentado un crecimiento constante. Conforme avanza los 
negocios se enfrentan a nuevos comportamientos de compra, y a mercados cada vez más 
dinámicos e inciertos, caracterizados por un gran volumen de datos que serán convertidos 
rápidamente en información útil. 
 
Algunas de las compañías proveedoras se concentraban en el análisis de archivos “log” que se 
generan por servidores de las páginas web. Los archivos log, son archivos de texto plano que 
contienen variables importantes de la interacción de un visitante con la página web, por ejemplo 
páginas vistas, número de hits, errores 404, entre otros. Sin embargo, a pesar del valor de esta 
información, en los primeros años del siglo veintiuno, los diferentes departamentos integrantes de 
las organizaciones empezaron a demandar más información, naciendo el análisis en tiempo real, y 
el etiquetado de las páginas o “tagging”. 
 
Existen también herramientas para administrar las redes sociales, éstas tienen como objetivo 
facilitar el cumplimiento de estrategias en este tipo de medios, a través de una gestión unificada 
de la actividad. Coordinar tanto la gestión como la planificación facilita el trabajo de todo el 
equipo involucrado, permitiendo optimizar los canales y obtener una visión global de la situación. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
33 
 
2.3.3 Herramientas básicas para la medición y análisis web 
 
• Google Analytics: Es un servicio gratuito de estadísticas de sitios web, brinda información 
agrupada según los intereses de tres tipos distintos de personas involucradas en el 
funcionamiento de una página: ejecutivos, personal de marketing y webmasters. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ClickTale: Esta herramienta permite observar qué realiza un usuario en una página web, detectar 
oportunidades en el funcionamiento, proporciona funcionalidades de un software de analítica web 
como creación de embudos o el seguimiento de campañas. 
 
Sus funcionalidades son: 
 
 Análisis de clicks sobre una página. 
 Análisis del scroll. 
 Análisis de los movimientos del ratón. 
 Análisis de formularios. 
 Realiza mapas de calor (heatmaps) de las áreas o zonas de una página donde el usuario ha 
dado click. 
 Grabación individualizada de comportamiento, entre otras. 
 
Imagen 5 Christina Warren, Google Analytics para Iphone. Fecha de 
consulta Octubre 2014. Tomada del sitio: 
http://mashable.com/2014/07/17/google-analytics-iphone/ 
http://es.wikipedia.org/wiki/Estad%C3%ADstica
http://es.wikipedia.org/wiki/P%C3%A1gina_web
http://es.wikipedia.org/wiki/Ejecutivo_(cargo)
http://es.wikipedia.org/wiki/Marketing
http://es.wikipedia.org/wiki/Webmaster
34 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Google Content Experiments: Esta herramienta es usada para testing, por lo general es una 
segunda alternativa para cuando ya se han realizado análisis de datos puros, y no se llega a tener 
las respuestas suficientes. Google Content ayuda a mejorar cuando en el sitio web existen 
actividades a realizar por los visitantes, tales como: compras, suscripciones, duración, porcentaje 
de abandono. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Qualaroo: Esta herramienta proporciona la manera de hacer preguntas rápidas y fáciles de 
contestar para los usuarios, permitiendo descubrir información sobre el cliente que conducen a 
mejores resultados de negocio. El sitio del producto lo define como "Analytics le dice lo que la 
gente está haciendo, Qualaroo le explica el motivo". 
Imagen 6 Jessica Braman, ClickTale Form Analytics. Fecha de consulta: Octubre 2014. Tomada del sitio: 
http://blog.clicktale.com/2008/06/18/form-analytics-opens-to-the-public/ 
Imagen 7 Google Analytics, Making Google Analytics ContentExperiments Even Better. Fecha 
de consulta: Octubre 2014. Tomada del sitio: http://analytics.blogspot.mx/2012/07/making-
google-analytics-content.html 
35 
 
• Google Analytics Debugger y SiteCat Debugger: Son herramientas complementarias para la 
localización de cookies. 
 
• Ghostery: Es una herramienta que detecta cualquier tipo de cookie en un sitio, además ofrece la 
posibilidad de bloquear scripts de herramientas no deseadas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Tableau: Es un software para análisis y elaboración de conclusiones, cuenta con una amplia 
gama de herramientas interactivas y de visualización de datos centradas en la inteligencia de 
negocios. 
 
 
 
 
 
 
 
 
 
 
 
 
Imagen 8 Craig Peters, Ghostery. Fecha de consulta: Octubre 
2014. Tomada del sitio: 
http://www.ckpcreative.com/blog/2012/09/29/ghostery/ 
Imagen 9 Anónimo, Tableau Mobile. Fecha de consulta Octubre 2014. Tomada del sitio: 
https://itunes.apple.com/us/app/tableau-mobile/id434633927?mt=8 
36 
 
Capítulo III. Explotación de datos con BI 
 
3.1 Business Intelligence (BI) 
 
 
3.1.1 Introducción 
La Inteligencia de negocios ha venido a revolucionar y dar vida a los datos de un negocio. Muchos 
al escuchar el nombre creerían que sólo consiste en comprar e instalar un software para comenzar 
a manejar su negocio con BI. Sin embargo, esto sólo es parte, además del software adecuado se 
necesita contar con CDD para que el software y analistas en BI exploten y aprovechen las 
herramientas que ofrece. 
 
El BI sería el GPS (guía) que ayuda a dar dirección a una empresa y alcanzar los objetivos 
marcados, es lo que le permitirá saber ¿hacia dónde debe ir?, ¿qué decisiones favorecen más el 
crecimiento de la empresa?. 
 
 
3.1.2 ¿Qué es Business Intelligence? 
Business Intelligence es la extracción de información a través de los 
datos, esta información es convertida a conocimiento a través de un 
conjunto de procedimientos11. 
 
Los datos por si solos no nos brindan ninguna información relevante, es 
la unidad mínima de información, pero sabiendo conjuntarlos y darles 
el contexto adecuado es posible tener una interpretación de ese 
conjunto de datos (lo que se conoce como información). La información con la que se cuenta es 
transformada en conocimiento cuando se añade un “know-how” y se interpreta en la herramienta 
BI que favorezca el tipo de datos. 
Esto es lo que hace la diferencia, los datos por sí solos son solamente datos, pero cuando se 
convierten en información permiten tomar decisiones, cuando la información se transforma en 
conocimiento se tiene todo para evaluar la mejor decisión. 
 
 
3.1.3 ¿Qué aporta BI a un negocio? 
Business Intelligence cuenta con herramientas que permitan ver más allá de lo que es aparente en 
un negocio, mismas que facilitan su análisis sobre todo cuando se trata de grandes cantidades de 
datos o datos con cierta complejidad. Además, permite identificar oportunidades considerando 
escenarios de información presente, pasada y predicciones futuras. 
 
11 Comparar: Alejandro Peña Ayala. Inteligencia de Negocios. Instituto Politécnico Nacional (2006). p.27 
Imagen 10 Pirámide analítica de 
Business Intelligence. 
37 
 
 
Algunos al querer explotar sus bases de datos, extraen de ellas o de otras fuentes, datos para 
reportes en Excel; sin prever el impacto en tiempo y costo que a largo plazo generan a la empresa: 
 
Otras desventajas son: 
 
 Diferencia entre los datos que provienen de diferentes fuentes, esto tiene una mayor 
posibilidad de errores, a veces hasta llegando a afectar al cliente y genera gastos extras al 
negocio. 
 Se invierte más tiempo en buscar los datos que en analizarlos. 
 Mayor inversión al asignar personal especialmente para mantener vivos y actualizados 
reportes recurrentes con posibilidad de ser automatizados. 
 Se dejan pasar oportunidades de negocio por no contar con datos de forma oportuna y/o 
confiable, esto genera pérdidas monetarias, de valor añadido y competitividad. 
 No se tiene un precedente de registros históricos que han impactado al negocio, para así 
saber que decidir en el futuro. 
 
Considerando el caso dónde se necesita enviar un tarjeta de crédito al cliente en su domicilio, el 
gerente al comparar datos del reporte detecta que la información es diferente de la que él tienen 
en su sistema, ¿qué pasaría si uno de esos datos diferentes es la dirección?... ¿Es posible confiar 
en la información?. Ahora considere que el gerente pasa por alto la validación, la consecuencia no 
sólo sería enviar la tarjeta a una dirección errónea, sino generaría probablemente: molestia y 
desconfianza del cliente, gastos extras a la empresa, retrabajo, fraude, entre otros. 
 
La integración de sistemas hace que estos conversen entre sí, permitiendo que los datos sean 
tomados de uno y otro. Uno de los principales problemas de muchos años en reportes es tener 
diferentes fuentes de datos al generarlos. Suponiendo que se tiene el mismo reporte 
considerando varios orígenes de datos, y cada uno a su vez reporta diferentes cosas, ¿Será posible 
tomar alguna decisión?... Esto se resuelve de alguna manera al contener todo en un DWH, o 
cargándose las fuentes de datos necesarios para el reporte al BI con un ETL. 
 
La tecnología que ofrece BI provee diversas opciones que permiten explotar los datos de una 
forma más rápida y confiable, y, aunque BI tiene parte del trabajo no todo está bajo su mando. 
Antes de invertir en una herramienta BI es necesario hacerlo en CDD, y de ser posible tenerlos 
almacenados en un DWH. Para garantizar y medir el crecimiento de un negocio es imprescindible 
medir primero los datos, y para medir los datos es necesario tenerlos almacenados en algún lugar. 
 
Además de que Business Intelligence permite analizar muchas empresas con muchos orígenes de 
datos que se necesitan analizar conjuntamente, también permite analizar una misma realidad 
desde perspectivas diferentes, por ejemplo, si se requiere analizar las compras desde la 
perspectiva contable y desde la de operaciones, ambos verían el mismo reporte para ser analizado 
desde la perspectiva de cada área y finalmente tomar decisiones conjuntamente a nivel empresa. 
38 
 
3.1.4 El papel del factor humano en BI 
"Las computadoras son increíblemente rápidas, exactas y estúpidas; los humanos son 
increíblemente lentos, inexactos y brillantes; juntos son poderosos mas allá de la imaginación". 
Albert Einstein. 
 
Las herramientas de Business Intelligence proporcionan al humano los datos necesarios para sólo 
dar el paso de decidir con inteligencia, al final el ser humano sigue teniendo la decisión final, sigue 
siendo quien finalmente analiza la información presentada sólo para tomar decisiones de hacia 
dónde quiere llevar a su empresa. 
 
El termino Business Intelligence quizá confunde en creer que por sólo contar con CDD, software BI 
y un reporte en BI, ya se está decidiendo con inteligencia en la empresa, desafortunadamente no 
es así. Todo requiere una preparación detrás del escenario principal, para que finalmente aparezca 
el protagonista experto, quien con su “know-how” (conocimiento de la operación) tome 
decisiones con base en su experiencia, conocimientos y los datos presentados en BI. 
 
El factor humano no queda fuera de esta tecnología, todo lo contrario, ahora su papel se vuelve un 
complemento importante. Las personas son quienes llevan la dirección de las decisiones con base 
en su conocimiento, además, son los únicos que tendrán el panorama completo del negocio, el 
mercado y hacia dónde es necesario dirigirse. 
 
 
3.1.5 Nube de conceptos BI 
La tecnología avanza tanto que incluso existe una saturación de conceptos que a la gran mayoría 
confunden. Llega un momento en que no es posible saber hacia dónde dirigirse, qué es lo que se 
necesita, qué servicio

Otros materiales