Logo Studenta

f24619840

¡Este material tiene más páginas!

Vista previa del material en texto

Ing. De Sistemas e Informática.
Universidad Nacional de la Amazonia Peruana
Año del dialogo y la reconciliación nacional.
Universidad Nacional
De la Amazonia Peruana.
Facultad de Ingeniería de
Sistemas e Informática
Inteligencia de Negocios y el Datawarehouse.
· Alumnos: 
· Obregón Ríos Junior
· Tuisima Oroche Nick Roy
· Pérez Velásquez Fabbio Cesar
· Mejía Sánchez Diego Andres
· Zambrano Rodríguez Eder
· Docente:
· Ing. José Edgar García Díaz
· Curso:
· Taller de Base de Datos
· Nivel:
· III
· Ciclo:
· V
Iquitos – Perú
2018
Introducción
A continuación presentamos el trabajo correspondiente a inteligencia de negocios, comúnmente conocido como BI por sus siglas en inglés, echaremos un vistazo a los antecedentes de esta práctica, a su desarrollo y las partes que la conforman y manera en que cada una se entrelazan entre sí para formar el sistema completo, mencionaremos un par de aplicaciones y las marcas más conocidas que ofrecen servicios de este tipo para empresas.
En un mundo donde se creía que las bases de datos eran la herramienta principal que proporcionaba información acerca de cualquier departamento, surge lo que ahora conocemos como Inteligencia de Negocios, que son el conjunto de herramientas que le dan sentido a toda esa información almacenada, de una manera atractiva y dinámica.
Lo verdaderamente importante es que ahora podemos realizar cualquier tipo de análisis que creamos más conveniente y que nos permita enfocarnos en distintas áreas de análisis de la empresa para lograr sus objetivos.
Ahora a pesar de tener las mismas herramientas cada organización puede adaptar sus reporte y análisis a las necesidades propias y como resultado crear una estrategia específica que sirva para solución de determinada áreas de oportunidad.
Índice
INTRODUCION
INDICE
1. LA INTELIGENCIA DE NEGOCIOS:
2. DATAWAREHOUSE:
2.1 ARQUITECTURAS
2.2 CONFORMACION DE UN DATAWAREHOUSE
3. EXTRACT – TRANSFORM – LOAD (ETL)
3.1 JERARQUIA DEL CONOCIMIENTO
3.2 PROCESOS DEL ETL
3.3 SUBPROCESOS
3.4 HERRAMIENTAS ETL
3.5 HERRAMIENTAS OPEN SOURCE
4. CUBOS
4.1 CUBOS OLAP
4.2 CUBOS OLTP
5. REPORTING SERVICES (SSRS)
5.1 Conceptos del servidor de informes
5.2 Servidores de informes en modo nativo:
5.3 Reporting Services en modo integrado de SharePoint
5.4 Funciones de programación de Reporting Services
5.5 Elementos de Reporting Services.
6. DEV EXPRESS
6.1 Componentes que incluye
6.2 Ventajas del uso de DevExpress
6.3 Desventajas de DevExpress
1. LA INTELIGENCIA DE NEGOCIOS:
La inteligencia de negocios (BI) y un datawarehouse que nos permiten convertir los datos alojados en nuestras bases transaccionales en información que nos ayudará a tomar mejores decisiones de negocio.
2. DATAWAREHOUSE:
Es como una base de datos diseñada para habilitar las actividades de inteligencia de negocios (BI). Un datawarehouse es una base de datos que existe para ayudar a los usuarios a entender y mejorar el rendimiento de una organización. 
La idea de un datawarehouse es habilitar la posibilidad de que puedas medir tu negocio y, por lo tanto, manejarlo. Muchas veces los términos datawarehouse y datawarehousing se entremezclan y nos confunden. Con los mismos términos solemos referirnos tanto a una base de datos en sí misma como a un ambiente completo en donde intervienen diversos componentes.
2.1 ARQUITECTURAS
· Arquitectura básica de un Datawarehouse: En una arquitectura básica contamos con una única base de datos que constituye nuestro Datawarehouse. Los datos contenidos en dicho Datawarehouse son obtenidos a partir de diversas fuentes de datos: base de datos transaccionales, archivos planos, etc. Los usuarios finales acceden al datawarehouse para obtener información derivada de los sistemas operacionales.
· Arquitectura de un Datawarehouse con área intermedia (Staging Area): De acuerdo al estado y calidad de los datos obtenidos en los sistemas transaccionales pueden requerirse procesos de “limpieza” de los datos (data cleansing). En ocasiones suele usarse un espacio intermedio de almacenamiento que sirve para “limpiar”, consolidar y estandarizar los datos que provienen de diversos sistemas operacionales. A dicho espacio intermedio se lo conoce como Staging Area. Los usuarios finales no hacen consultas sobre los datos alojados en esta área intermedia.
· Arquitectura de un Datawarehouse con área intermedia y Data Mart: Podríamos decir que un Data Mart es un Datawarehouse adaptado a las necesidades de un grupo dentro de la organización. De este modo nuestra compañía podría contar con un Data Mart para el área de compras, otro Data Mart para el área de ventas, etc.
2.2 CONFORMACION DE UN DATAWAREHOUSE
Kimball, utiliza el término “Datawarehouse” en un sentido más amplio y explica que un entorno de Datawarehouse  está conformado por:
· Sistemas operacionales de donde se extrae la información
· Área intermedia para la limpieza, combinación y estandarización de los datos
· Área de presentación con datos resumidos obtenidos del área intermedia
· Herramientas de acceso (query tools, aplicaciones analíticas, etc.)
3. EXTRACT – TRANSFORM – LOAD (ETL):
Simplemente desglosando el acrónimo ETL podemos intuir su significado que es Extraer-Transformar-Cargar.  Las siglas ETL componen una parte muy importante en el mundo del Business Intelligence.
Los procesos Extracción, transformación y carga de datos (ETL) son una parte de la integración de datos, pero es un elemento importante cuya función completa el resultado de todo el desarrollo de la cohesión de aplicaciones y sistemas.
3.1 JERARQUIA DEL CONOCIMIENTO
Mediante la jerarquía del conocimiento se permite relacionar datos con información, conocimiento y sabiduría. En la siguiente figura se representa dicha jerarquía, en la que podemos ver como se relacionan los distintos niveles comentados.
Desde el punto de partida, formado por el conjunto de datos iniciales, se desarrollan los procesos ETL que darán valor útil a estos datos, obteniendo información de los mismos. En el siguiente paso, se explotan los datos, previamente cargados en un repositorio diseñado para este fin, mediante las herramientas de reporting, obteniendo conocimiento de ellos.
Por último, y no siempre se incluye en la jerarquía del conocimiento, nos encontramos la sabiduría, que consiste en la capacidad de tomar decisiones a través de la interpretación del conocimiento obtenido a través de los informes generados.
3.2 PROCESOS DEL ETL:
El proceso ETL consta precisamente de tres fases: extracción, transformación y carga. A continuación se define en qué consiste cada una de ellas.
Para alcanzar esta información es necesario diseñar correctamente los procesos ETL correspondientes en cada caso. A continuación se detalla brevemente el proceso:
· Extracción: Esta fase o proceso consiste en la obtención de datos de las fuentes de origen. Los datos pueden tener diferentes orígenes, ya sean Bases de Datos Relacionales, Bases de Datos No Relacionales, ficheros, etc.
Para realizar de manera correcta el proceso de extracción se deben seguir los siguientes pasos:
· Extraer los datos desde los sistemas de origen.
· Analizar los datos extraídos obteniendo un chequeo.
· Interpretar este chequeo para verificar que los datos extraídos cumplen la pauta o estructura que se esperaba. Si no fuese así, los datos deberían ser rechazados.
· Convertir los datos a un formato preparado para iniciar el proceso de transformación.
Además, una de las prevenciones más importantes a tomar en cuenta durante el proceso de extracción sería el exigir siempre que esta tarea cause un impacto mínimo en el sistema de origen.
Este requisito se basa en la práctica, ya que si los datos a extraer son muchos, el sistema de origen se podría ralentizar e incluso colapsar, provocando que no pudiera volver a ser utilizado con normalidad para su uso cotidiano.
· Transformación: La fase de transformación de unproceso de ETL aplica una serie de reglas de negocio o funciones sobre los datos extraídos para convertirlos en datos que serán cargados. Estas directrices pueden ser declarativas, basarse en excepciones o restricciones, pero para potenciar su pragmatismo y eficacia es preciso asegurarse de que sean:
· Declarativas.
· Independientes.
· Claras.
· Inteligibles.
· Con una finalidad útil para el negocio.
· Carga: En esta parte del proceso se vuelcan los datos procedentes de la fase de transformación al sistema de destino. En este punto se puede hacer un volcado directo, manteniendo un histórico de almacenaje con la fecha de inserción, o se pueden sobrescribir los datos con la nueva información.
3.3 SUBPROCESOS
A continuación destacamos 3 subprocesos, que son los que se ejecutarían dentro de la herramienta:
· Limpieza: Es la recuperación de los datos en bruto, para, posteriormente, comprobar su calidad, eliminar los duplicados y, cuando es posible, corrige los valores erróneos y completar los valores vacíos. Es decir se transforman los datos -siempre que sea posible- para reducir los errores de carga. En este momento disponemos de datos limpios y de alta calidad. La limpieza de datos, en consecuencia, se divide en distintas etapas, que debemos trabajar para dejar los datos bien trabajados y limpios.
· Depurar los valores (parsing)
· Corregir (correcting)
· Estandarizar (standardizing)
· Relacionar (matching)
· Consolidar (consolidating)
· Integración: Este proceso valida los datos que cargamos en el datawarehouse o la BBDD de destino (antes de pasar a su procesamiento) son consistentes con las definiciones y formatos del datawarehouse; los integra en los distintos modelos de las distintas áreas de negocio que hemos definido en el mismo.
· Actualización: Este proceso es el que nos permite añadir los nuevos datos al datawarehouse o base de datos de destino.
3.4 HERRAMIENTAS ETL:
ETL- consume entre el 60% y el 80% del tiempo de un proyecto de Business Intelligence. Suelo empezar con este dato siempre a hablar de las herramientas ETL por la importancia que tienen dentro de cualquier proyecto de manejo de datos. Tal es así, que podemos afirmar que proceso clave en la vida de todo proyecto y que por lo tanto debemos conocer.
Como vemos, es la recoge todos los datos de las diferentes fuentes de datos (un ERP, CRM, hojas de cálculo sueltas, una base de datos SQL, un archivo JSON de una BBDD NoSQL orientada a documentos, etc.), y ejecuta las siguientes acciones (principales, y entre otras):
· Validar los datos
· Limpiar los datos
· Transformar los datos
· Agregar los datos
· Cargar los datos
Por resumirlo mucho, un proceso de datos cualquiera comienza en el origen de datos, continúa con la intervención de una herramienta ETL, y concluye en el destino de los datos que posteriormente va a ser explotada, representada en pantalla, etc.
· ¿Y por qué la importancia de una herramienta ETL?
Básicamente, ejecutamos las acciones de validar, limpiar, transformar, etc, datos para minimizar los fallos que en etapas posteriores del proceso de datos pudieran darse (existencia de campos o valores nulos, tablas de referencia inexistentes, caídas del suministro eléctrico, etc.).
Este parte del proceso consume una parte significativa de todo el proceso (como decíamos al comienzo), por ello requiere recursos, estrategia, habilidades especializadas y tecnologías. Y aquí es donde necesitamos una herramienta ETL que nos ayude en todo ello.
· Entre las herramientas ETL más utilizadas destacan las siguientes:
· PowerCenter- Informatica
· ODI (Oracle Data Integrator) – Oracle
· SAS Data Integrator – SAS
· Datastage – IBM
· Las más populares herramientas y aplicaciones ETL del mercado 
· IBM Websphere DataStage (anteriormente Ascential DataStage y Ardent DataStage) 
· Pentaho Data Integration (Kettle ETL) - Una herramienta Open Source Business Intelligence 
· SAS ETL Studio 
· Oracle Warehouse Builder 
· Informatica PowerCenter 
· Cognos Decisionstream 
· Ab Initio 
3.5 HERRAMIENTAS OPEN SOURCE
· KETL – Kintetic Networks
· Clover ETL – Clover ETL
· Pentaho´s Data Integration – Pentaho
· Talend Open Studio Data Integration – Talend
4. CUBOS
Una de las formas más populares de analizar la información es mediante el uso de cubos OLAP o bases de datos multidimensionales. Básicamente, un cubo es una estructura de datos organizadas mediante jerarquías. Cada indicador se puede evaluar en cualquier de los niveles da jerarquías. 
4.1 CUBOS OLAP:
OLAP (procesamiento analítico en línea) permite a los usuarios extraer fácilmente y de forma selectiva datos y verlos desde diferentes puntos de vista. Considerando que una base de datos relacional puede ser pensada como de dos dimensiones, una base de datos multidimensional considera cada atributo de datos (tal como producto, región geográfica de ventas, y período de tiempo) como una “dimensión" separada. El software OLAP puede localizar la intersección de las dimensiones (todos los productos vendidos en la región oriental por encima de un precio determinado durante un cierto periodo de tiempo) y mostrarla. Atributos tales como períodos de tiempo se pueden desglosar en subatributos.
· Funcionalidad
Se compone de hechos numéricos o medidas, que se clasifican por dimensiones. El cubo de metadatos es típicamente creado a partir de un esquema en estrella o copo de nieve, esquema de las tablas en una base de datos relacional. Las medidas se obtienen de los registros de una tabla de hechos y las dimensiones se derivan de la dimensión de los cuadros.
· Tipos de sistemas OLAP
Tradicionalmente, los sistemas OLAP se clasifican según las siguientes categorías:
· ROLAP: Implementación OLAP que almacena los datos en un motor relacional. Típicamente, los datos son detallados, evitando las agregaciones y las tablas se encuentran desnormalizadas. Los esquemas más comunes sobre los que se trabaja son estrella o copo de nieve, aunque es posible trabajar sobre cualquier base de datos relacional. La arquitectura está compuesta por un servidor de banco de datos relacional y el motor OLAP se encuentra en un servidor dedicado. La principal ventaja de esta arquitectura es que permite el análisis de una enorme cantidad de datos.
· MOLAP: Esta implementación OLAP almacena los datos en una base de datos multidimensional. Para optimizar los tiempos de respuesta, el resumen de la información es usualmente calculado por adelantado. Estos valores precalculados o agregaciones son la base de las ganancias de desempeño de este sistema. Algunos sistemas utilizan técnicas de compresión de datos para disminuir el espacio de almacenamiento en disco debido a los valores precalculados.
· HOLAP (Hybrid OLAP): Almacena algunos datos en un motor relacional y otros en una base de datos multidimensional.
· Otros tipos
Los siguientes acrónimos a veces también se utilizan, aunque no son sistemas tan generalizados como los anteriores:
· WOLAP o Web OLAP: OLAP basado u orientado para la web.
· DOLAP o Desktop OLAP: OLAP de escritorio
· RTOLAP o Real Time OLAP: OLAP en tiempo real
· SOLAP o Spatial OLAP: OLAP espacial
· Las ventajas de un cubo OLAP
El uso de cubos OLAP tiene dos ventajas fundamentales:
· FACILIDAD DE USO: una vez construido el cubo, el usuario de negocio puede consultarlo con facilidad, incluso si se trata de un usuario con escaso o nulos conocimientos técnicos. La estructura jerárquica es sumamente fácil de comprender para la mente humana, y si esta coincide con el modelo de negocio, los resultados suelen ser espectaculares, ya que el cubo se convierte en una gran “tabla dinámica” que el usuario puede consultar en cualquier momento.
· RAPIDEZ DE RESPUESTA: habitualmente, el cubo tiene precalculados las distintas agregaciones, por los que los tiempos de respuesta son muy cortos. Si el cubo esta bien diseñado, resultara igual de rápido consultar las ventas de una ciudad, o las ventas de todo un país, o incluso el total de ventas de la compañía.
· Componentes del OLAP 
Las secciones siguientesdescriben cada componente con más detalle:
· CUBO: Estructura de datos que agrega las medidas mediante los niveles y jerarquías de cada una de las dimensiones que desee analizar. Los cubos combinan varias dimensiones, como tiempo, geografía y líneas de productos, con datos resumidos, como cifras de ventas o inventario. Los cubos no son "cubos" en el sentido estrictamente matemático porque no tienen que tener lados iguales. Sin embargo, son una metáfora adecuada para un concepto complejo.
· MEDIDA: Conjunto de valores basados en una columna de la tabla de hechos del cubo y que suelen ser valores numéricos. Las medidas son los valores centrales del cubo que se procesan, agregan y analizan. Entre los ejemplos normales cabe destacar las ventas, los beneficios, los ingresos y los costos.
· MIENBRO: Un elemento de una jerarquía que representa una o más repeticiones de datos. Un miembro puede ser exclusivo o no. Por ejemplo, 2007 y 2008 representan a miembros únicos en el nivel de año de una dimensión de tiempo, mientras que enero representa a un miembro en el nivel de mes porque puede haber más de una enero en la dimensión de tiempo que contenga los datos de más de un año.
· ELEMENTO CALCULADO: Elemento de una dimensión cuyo valor se calcula en tiempo de ejecución mediante una expresión. Los valores de los elementos calculados se pueden derivar de otros valores de elementos. Por ejemplo, un elemento calculado, Beneficios, se puede determinar restando el valor del elemento, Costos, del valor del elemento, Ventas.
· DIMENSION: Conjunto de una o varias jerarquías de niveles de un cubo que comprende un usuario y utiliza como base para el análisis de datos. Por ejemplo, una dimensión geográfica puede incluir niveles de país o región, estado o provincia y ciudad. O bien, una dimensión de tiempo puede incluir una jerarquía con niveles de año, trimestre, mes y día. En un informe de tabla o gráfico dinámicos, cada jerarquía se convierte en un conjunto de campos que puede expandir o contraer para revelar niveles inferiores o superiores.
· JERARQUIA: Estructura de árbol lógica que organiza los elementos de una dimensión tal que cada elemento tiene un elemento principal y cero o más elementos secundarios. Un elemento secundario es un elemento en el nivel inmediatamente inferior de una jerarquía que está directamente relacionada con el elemento actual. Un elemento principal es un elemento en el nivel inmediatamente superior de una jerarquía que está directamente relacionado con el miembro actual. El valor principal suele ser una consolidación de los valores de todos sus elementos secundarios. 
· NIVEL: En cada jerarquía, los datos se pueden organizar en niveles inferiores y superiores de detalle, como los niveles Año, Trimestre, Mes y Día de una jerarquía de tiempo.
· Diferencias de características entre datos de origen OLAP y los que no son OLAP
Si trabaja con informes de tablas dinámicas y gráficos dinámicos de datos de origen OLAP y de otros tipos de datos de origen, observará algunas diferencias en las características.
· RECUPERACION DE DATOS: Un servidor OLAP devuelve nuevos datos a Excel cada vez que cambie el diseño del informe. Con otros tipos de datos de origen externo, una consulta con todos los datos de origen a la vez, o puede establecer opciones de consulta solo cuando se muestren elementos de campo de filtro de informe diferente. También tiene algunas otras opciones para actualizar el informe. En informes basados en datos de origen OLAP, no está disponible la configuración del campo de filtro de informes, la consulta en segundo plano ni la optimización de la memoria.
· NOTA: La configuración de memoria optimizar también no está disponible para los orígenes de datos OLEDB y los informes de tabla dinámica basados en un rango de celdas.
· TIPOS DE CAMPO: Datos de origen OLAP, los campos de dimensión pueden utilizarse sólo como campos de fila (series), columna (categoría) o página. Campos de medida pueden utilizarse únicamente como campos de valor. Para otros tipos de datos de origen, todos los campos pueden utilizarse en cualquier parte de un informe.
· ACCESO A DATOS DE DETLLE: En datos de origen OLAP, el servidor determina qué niveles de detalle están disponibles y calcula los valores de resumen, por tanto, puede que no estén disponibles los registros de detalle que forman los valores de resumen. No obstante, el servidor puede proporcionar campos de propiedades que sí se pueden mostrar. Otros tipos de datos de origen no tienen campos de propiedad, pero se puede mostrar el detalle subyacente de los valores de los campos de datos y elementos, así como los elementos que no contienen datos. 
· CRITERIO DE ORDENACION INICIAL: En datos de origen OLAP, los elementos aparecen primero en el orden en que los devuelve el servidor OLAP. Después puede ordenar o reorganizar los elementos manualmente. En otros tipos de datos de origen, los elementos de un nuevo informe aparecen ordenados primero en orden ascendente por nombre de elemento.
· CALCULOS: Los servidores OLAP proporcionan valores resumidos directamente para un informe, por lo que no puede cambiar las funciones de resumen para campos de valor. Para otros tipos de datos de origen, puede cambiar la función de resumen para un campo de valor y usar varias funciones de resumen para el mismo campo de valor. No puede crear campos calculados o elementos calculados en informes con datos de origen OLAP.
· SUBTOTALES: En los informes con datos de origen OLAP, no puede cambiar la función de resumen de los subtotales. Con otros tipos de datos de origen, se pueden cambiar funciones de resumen de subtotales y mostrar u ocultar subtotales para todos los campos de fila y columna. En los datos de origen OLAP, se pueden incluir o excluir los elementos ocultos al calcular subtotales y totales generales. 
4.2 CUBOS OLTP
OLTP sus siglas significan Procesamiento de Transacciones En Línea (OnLine Transaction Processing). Es un tipo de procesamiento que facilita y administra aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones (gestor transaccional). Los paquetes de software para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas con una red informática distribuida.
El término puede parecer ambiguo, ya que puede entenderse "transacción" en el contexto de las "transacciones computacionales" o de las "transacciones en bases de datos". También podría entenderse en términos de transacciones de negocios o comerciales. OLTP también se ha utilizado para referirse a la transformación en la que el sistema responde de inmediato a las peticiones del usuario.
· Requerimientos:
El procesamiento de transacciones en línea cada vez necesita más recursos para las transacciones que se propagan por una red y que pueden integrar a más de una empresa. Por esta razón, el software actual para sistemas OLTP utiliza procesamiento cliente-servidor y software de intermediación (middleware) que permite a las transacciones correr en diferentes plataformas en una red.
En grandes aplicaciones, la eficiencia del OLTP puede depender de lo sofisticado que sea el software de gestión de transacciones (como CICS en plataformas IBM) o de que tácticas de optimización se utilizan para facilitar la gran cantidad de actualizaciones concurrentes que se pueden producir en una base de datos orientada a OLTP.
En los sistemas de bases de datos descentralizados más exigentes, los programas de intermediación OLTP distribuyen el procesamiento de transacciones entre varios ordenadores en una red. A menudo OLTP se integra en una arquitectura orientada a servicios o en un servicio Web.
· Beneficios
El procesamiento de transacciones en línea tiene dos claros beneficios: la simplicidad y la eficiencia.
· Sobre la simplicidad:
· La reducción de la documentación y la obtención de previsiones de ingresos y gastos de forma más rápida y precisa son ejemplos de cómo OLTP hace las cosas más simples para las empresas.· También proporciona una base concreta para la estabilidad de una organización gracias a las actualizaciones oportunas.
· Otro factor es la simplicidad de permitir a los consumidores la elección de la forma en que desean pagar, por lo que es mucho más atractivo que la de hacer transacciones.
· Sobre la eficiencia:
· OLTP amplía la base de consumidores para una organización.
· Los procesos individuales se ejecutan mucho más rápido.
· Inconvenientes
· OLTP es una gran herramienta para cualquier organización, aunque en su utilización hay algunas cuestiones en las que se debe pensar ya que pueden suponer un problema: la seguridad y los costes económicos o de tiempo.
· Sobre la seguridad:
Una de las ventajas de OLTP es también un posible problema. La disponibilidad a todo el mundo que estos sistemas ofrecen a las empresas hace a sus bases de datos mucho más susceptibles a los intrusos y hackers.
· Sobre los costos:
· En las transacciones B2B, las empresas deben ir fuera de línea (offline) para completar ciertos pasos de algunos procesos, causando que los compradores y proveedores pierdan algunos de los beneficios de eficiencia que el sistema proporciona.
· Tan simple como es un sistema OLTP, la más simple perturbación en el sistema tiene el potencial de causar una gran cantidad de problemas, que a su vez pueden causar una pérdida de tiempo y dinero.
· Otro coste económico es la posibilidad de que se produzcan fallos en el servidor, esto puede causar retrasos en el servicio e incluso la pérdida de gran cantidad de información importante. Para eliminar este riesgo o, al menos mitigarlo, se debe invertir en mecanismos de seguridad.
5. REPORTING SERVICES (SSRS)
Es un sistema de software de generación de informes basado en servidor de Microsoft. Es parte de un conjunto de servicios de Microsoft SQL Server , incluidos SSAS ( SQL Server Analysis Services ) y SSIS ( SQL Server Integration Services ). Administrado a través de una interfaz web , se puede utilizar para preparar y entregar una variedad de informes interactivos e impresos. El servicio SSRS proporciona una interfaz en Microsoft Visual Studio para que los desarrolladores, así como los administradores de SQL puedan conectarse a las bases de datos SQL y usar herramientas SSRS para formatear los informes SQL de muchas maneras complejas
5.1 Conceptos del servidor de informes
Report server conceptsUn servidor de informes es un equipo que tiene instalada una instancia de Reporting ServicesReporting Services .A report server is a computer that has an instance of Reporting ServicesReporting Services installed. Un servidor de informes almacena internamente elementos como informes paginados y móviles, elementos y recursos relacionados con informes, programaciones y suscripciones.A report server internally stores items such as paginated and mobile reports, report-related items and resources, schedules, and subscriptions. Un servidor de informes se puede configurar como un único servidor independiente o como una granja escalada, o se puede integrar con SharePoint Server.A report server can be configured as a stand-alone single server or as a scale out farm, or it can be integrated with SharePoint Server. Se interactúa con los elementos del servidor de informes mediante el servicio web Reporting ServicesReporting Services , un proveedor WMI, acceso mediante dirección URL o mediante programación a través de scripts.You interact with report server items through the Reporting ServicesReporting Services Web service, WMI provider, URL access, or programmatically through scripts. 
5.2 Servidores de informes en modo nativo:
Native mode report serversUn servidor de informes configurado en modo nativo es un equipo que tiene SQL ServerSQL Server Reporting ServicesReporting Services instalado y configurado como un servidor independiente.A report server configured in native mode is a computer that has SQL ServerSQL Server Reporting ServicesReporting Services installed and configured as a stand-alone server. Para interactuar con el servidor de informes, los informes y los elementos relacionados con informes se usa un explorador con el portal webweb portal o comandos de acceso mediante URL, SQL Server Management Studio o mediante programación a través de scripts.
5.3 Reporting Services en modo integrado de SharePoint:
Un servidor de informes integrado con SharePoint tiene dos configuraciones posibles.A report server integrated with SharePoint has two possible configurations. En SQL Server Reporting Services (SSRS)SQL Server 2016 Reporting Services (SSRS), Reporting ServicesReporting Services se instala con SharePoint Server como un servicio compartido de SharePoint.In SQL Server 2016 Reporting Services (SSRS)SQL Server 2016 Reporting Services (SSRS), Reporting ServicesReporting Services is installed with SharePoint Server as a SharePoint shared service. 
5.4 Funciones de programación de Reporting Services:
Aproveche las funciones de programación de Reporting Services para que pueda ampliar y personalizar su funcionalidad de generación de informes, con API para integrar o extender datos e informar sobre el procesamiento en aplicaciones personalizadas.
5.5 Elementos de Reporting Services.
La plataforma de Reporting Services de Microsoft se compone básicamente de cuatro elementos importantes:
· Obtención de datos
Reporting Services puede extraer información (prácticamente) de cualquier fuente de datos. Sin límites. De forma natural, se comunica con SQL Server, pero también puede acceder a bases de datos (BBDD) de terceros como MySQL, Oracle, Informix, etc. En el caso de Reporting Services 2005 también se puede consultar Analisys Services.
· Diseño de informes
En las versiones actuales, Reporting Services incorpora por defecto Microsoft SQL Report Builder, una herramienta muy sencilla de usar -como si se tratara de un Word- y, en cambio, con mucha potencia para realizar los informes.
· Exportación de informes
La plataforma de Ms presenta una amplia gama de formatos de archivos para poder exportar al consumidor final. Entre ellas, PDF, XLS, HTML, CSV. No sólo eso, permite expandir la gama a los formatos de entrega personalizados que se deseen.
· Suscripción a informes
Suscribirse a SSRS permite ejecutar informes determinados y definir fecha de entrega (recurrentes si se quieres) vía mail a la cuenta especificada e incluso con un formato definido o entregar reportes en carpetas o sitios de red.
You interact with the report server, reports, and report related items by using a browser with the portal webweb portal or URL access commands, SQL Server Management Studio, or programmatically through scripts.
6. DEV EXPRESS
DevExpress es una de las más completas suites de componentes de UI para el desarrollo en todas las plataformas de .NET como Windows Forms, ASP.NET, MVC, Silverlight y Windows 8 XAML.
6.1 Componentes que incluye
A continuación se presentan los componentes y las fuentes en las que se pueden consultar para mayor información:
· Tablas 
· Calendario
· Editor HTML
· Hojas de cálculo
· Editores de datos
· Gráficas
6.2 Ventajas del uso de DevExpress
Si bien en la actualidad existe un sin número de suites de componentes muy buenas, DevExpress se encuentra sobre ellas por varias razones, como son:
· Cuenta con controles para todas las plataformas de Microsoft Windows.
· Posee más de 70 controles mediante los cuales se pueden diseñar aplicaciones de alta complejidad.
· La creación de los componentes es semi – automática, DevExpress se encarga de realizar todo el código necesario para la visualización y llenado de los componentes según la plataforma utilizada.
· Permite llenar de manera sencilla cada uno de los componentes con información traída de una conexión de base de datos.
· Mejora el rendimiento de las aplicaciones al optimizar el código de llenado de las vistas.
· Funciona en cualquier explorador. (Aplicaciones Web)
6.3 Desventajas de DevExpress
Las principales desventajas son:
· Solo funciona para plataformasde  Microsoft.
· Existen algunas limitantes al incluir los componentes, ya que estos ya tienen características y comportamientos definidos.
· Requiere licencia.
4

Continuar navegando

Otros materiales