Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Universidad Politécnica de Madrid Escuela Técnica Superior de Ingenieros Informáticos Grado en Ingeniería Informática Trabajo Fin de Grado Gestionar clúster Hyper-V para desplegar máquinas virtuales Autor: María Garazhyy Cruz Tutor(a): Raúl Gutiérrez Gil Madrid, mayo 2022 2 Este Trabajo Fin de Grado se ha depositado en la ETSI Informáticos de la Universidad Politécnica de Madrid para su defensa. Trabajo Fin de Grado Grado en Ingeniería Informática Título: Título del Trabajo, con Mayúscula en Todas las Palabras que no Sean Conectivas (Artículos, Preposiciones, Conjunciones) mayo 2022 Autor: María Garazhyy Cruz Tutor: Raúl Gutiérrez Gil LENGUAJES Y SISTEMAS INFORMÁTICOS E INGENIERÍA DE SOFTWARE ETSI Informáticos Universidad Politécnica de Madrid 3 Agradecimientos Realizar este proyecto de fin de carrera ha sido posible gracias a los profesores, que me han acompañado durante los últimos cuatro años de carrera y a la propia universidad y su personal. Me han ofrecido la posibilidad de formarme y crecer como persona, tener una perspectiva diferente a la que tenia antes de cursar la carrera y que me ha permitido tomar acertadamente las decisiones en la vida. Dentro de la universidad he conocido a compañeros increíbles con los que he creado un entorno sano de aprendizaje y apoyo y con los que estoy segura de poder contar en los momentos más difíciles y de tensión durante muchos años más. Gracias, a los profesores, por ofrecernos un punto de vista profesional y una enseñanza que nos permite poder desarrollar un criterio propio y ser críticos ante cualquier situación que se nos presente. Gracias, a la facultad por promover la diversidad y la tolerancia a los distintos pensamientos desde el respeto, y fuera de ideologías, algo que hoy en día se echa en falta. También agradecer a mis padres por insistir en mis estudios y a mi hermano por aconsejarme en la elección de la carrera cuando no estaba segura de saber qué hacer y que resulto en acierto. A Alex, por estar siempre presente, calmar mis nervios y guiarme. A mi grupo de amigos: Elisa ,Alejandro ,Luisa ,Alberto ,Jaime ,Saul, Julián, Luis, Javi y Elma, por todos los momentos compartidos tanto dentro de la universidad como fuera, nuestro respaldo y empujón para seguir cuando más lo necesitábamos y preocuparnos los unos de los otros. Por último, gracias a mi tutor de empresa Pedro, y a David que me han ofrecido toda la ayuda y el entorno para el desarrollo del presente trabajo. 4 Resumen Durante el último año la compañía de TI, Investum, que brinda servicios y soluciones digitales ha tenido grandes beneficios por lo que ha decidido seguir expandiéndose, adquiriendo la empresa NUEVA NEVADA SL. Después de esta última adquisición se necesita una nueva arquitectura con un directorio activo que englobe las dos empresas y un entorno para poder realizar una migración de los datos, por lo que se hará una simulación del proceso de creación del entorno. Para dicha simulación, el objetivo será montar una infraestructura que va a albergar todos los servicios tal como lo harían en la futura migración. Este trabajo se desarrollará en la empresa INVESTUM dentro del área de soporte de Microsoft. Con el desarrollo de este sistema se pretende poder administrar las dos empresas de manera conjunta y proporcionar mayor disponibilidad, escalabilidad, aumentar el rendimiento y el balance de carga entre todos los servidores. Para la implementación de este sistema se han elegido herramientas utilizadas por el departamento de Microsoft para dar soporte a este servicio, tanto el sistema operativo como los programas usados en los servidores. En este documento se identifican distintas herramientas, así como la forma y los requisitos para su instalación. 5 Abstract During the last year, the IT company, Investum, which provided digital services and solutions, has had great benefits, so it has decided to continue expanding, acquiring the company NUEVA NEVADA SL. After this last acquisition, a new architecture is needed with an active directory that holds the two companies and an environment to be able to perform a data migration, to perform this architecture, a simulation of the environment creation process will be carried out. For this simulation, the objective will be to set up an infrastructure that will host all the services as they would be in the future migration. This work is developed in the INVESTUM company within the Microsoft support area. With the development of this system, it is intended to be able to manage the two companies jointly and provide greater availability, scalability, increase performance and load balance in all the servers. For the implementation of this system, tools used by the Microsoft department have been chosen to support this service, both the operating system and the programs used in the servers. This document identifies different tools, as well as the way and requirements for their installation. 6 Índice de contenidos Contenido 1 Introducción 8 2 Análisis 10 2.1 Estado del Arte 10 2.2 Análisis del sistema 13 2.2.1 Software de virtualización 13 2.2.2 Sistema operativo 14 2.3 Análisis de requisitos 14 2.3.1 Requisitos Hardware 14 2.3.2 Requisitos Software 16 3 Desarrollo 18 3.1 Instalación de máquinas 18 3.2 Configuración de las máquinas 20 4 Pruebas del sistema 22 5 Análisis de impacto sobre la Sostenibilidad 27 6 Resultados y conclusiones 28 7 Bibliografía 29 8 Anexos 30 Anexo I. Configuración del nombre de las máquinas 30 Anexo II. Configuración IP. 30 Anexo III. Agregar roles y características a las máquinas. 31 Anexo IV. Creación del cluster 35 Anexo V. Añadimos maquina al dominio 38 Anexo VI. Instalación de SQL Server 2019 40 Anexo VII. Instalación de management studio 48 Anexo VIII. Instalación de System Center Virtual Machine Manager 49 Anexo IX. Instalación de la máquina PFC-DC1. 58 7 Índice de Figuras Ilustración 1. Estructura cluster 8 Ilustración 2. Tipos de Hypervisores 9 Ilustración 3. Estructura Hyper-V 12 Ilustración 4. Administrador del servidor 15 Ilustración 5. Hyper-V manager 16 Ilustración 6. Creación del disco D de 50GB para los logs de la máquina PFC-VMM 17 Ilustración 7. Asignación e inicialización del disco D de 50GB para los logs de la máquina PFC- VMM 18 Ilustración 8. Enable nested virtualization 19 Ilustración 9. Nubes en SCVMM 20 Ilustración 10. Plantilla VM BASE 21 Ilustración 11. Configuración redes lógicas 21 Ilustración 12. Red de VM 22 Ilustración 13. Roles de usuario en VMM 23 Ilustración 14. Script para la creación de máquinas 23 Ilustración 15. Máquinas en ejecución 24 8 11 Introducción El objetivo de este proyecto consiste en crear una arquitectura para conseguir un manejo centralizado de dos empresas. Por este motivo se desplegará un clúster de máquinas virtuales usando tecnología de Hyper-V desarrollado por Microsoft. Un clúster consta de un conjunto de computadoras independientes y conectadas entre sí mediante una red, de tal manera que funcionan como un solo servidor. Los clústeres son, normalmente, usados con más de un nodo para aprovechar el paralelismo y así dividirse las tareas, o hacerlas a la vez aumentando el rendimiento y equilibrando la carga de trabajo. La implantación de un sistema de clúster está ganando cada vez más popularidad entre las empresas por sus diversas ventajas y beneficios: 1) Continuidad y disponibilidad del servicio: Como hemos mencionado anteriormente, un clúster trabaja con varios nodos por lo que si uno de ellos falla el resto se hace cargo automáticamente del trabajo eliminando interrupciones del servicio. 2) Equilibrio de las cargas de trabajo: Se puede distribuirlos flujos de trabajo estableciendo métodos de balanceo de dicha carga. Con esto evitamos bloqueos, saturaciones y bajadas de velocidad ya que estas situaciones afectan a la productividad de la empresa. 3) Protección ante ataques: Los clústers ofrecen recuperación de información ante ataques de hackers mediante virus, troyanos, software espía y programas maliciosos, etc. 4) Escalabilidad: Los sistemas de clústering permiten agregar más nodos a medida que se van necesitando ya sea por incremento de la demanda o cuestiones de la propia empresa. Existen diferentes maneras de clasificar los clústers de servidores por lo que en este proyecto se clasificará según la solución que nos ofrecen: ● Clúster de alto rendimiento: utilizan servidores de gran potencia para procesar grandes cantidades de datos a mucha velocidad. ● Clúster de alta disponibilidad: están pensados para ofrecer las mejores garantías ante fallas en la red, o bien en el hardware o el software. ● Clúster de alta eficiencia: lo que se busca con estos clústeres es la máxima eficiencia en el procesamiento de los datos, ya que permiten realizar grandes cantidades de tareas en el menor tiempo posible. La tecnología cluster permite a las organizaciones incrementar su capacidad de procesamiento, pero conlleva altos costes en su instalación. La instalación de un servidor clúster tiene un cierto grado de complejidad que variará en función de cómo queramos tener desarrollado el sistema. Dicha instalación se va a dividir en dos partes fundamentales: ● Instalación de los roles y características de cada servidor: En primer lugar, es necesario realizar una óptima instalación de cada uno de los servidores que configurarán el clúster como la instalación del 9 rol de acceso remoto u otro sistema operativo, redireccionamiento IP, enrutamiento, etc. ● Configuración de los servidores: El segundo paso consiste en configurar los distintos valores de cada servidor del clúster, teniendo en cuenta aspectos como el equilibrio de cargas, el enrutamiento y la conectividad. Dado que queremos garantizar las ventajas que ofrece un cluster de alto rendimiento, para la implementación de nuestro sistema dispondremos de un clúster con tecnología Hyper-V formado por una máquina con el rol de servicios de dominio, dos nodos con el rol de Hyper-V y una máquina con System Center Virtual Machine Manager (SCVMM) y SQL Server 2019 que servirá para la administración de dicho clúster y de otros servidores virtuales que vamos a crear[Ilustración 1]. Ilustración 1. Estructura cluster El presente trabajo estará dividido en: ● Análisis del sistema tanto análisis del mercado como el análisis técnico y asignación del hardware y software. ● Diseño, donde se define la arquitectura , funciones a desarrollar por el sistema y estilo global. ● Implementación y desarrollo del diseño planteado ● Pruebas para evaluar el cumplimiento de dicho sistema [ ] 10 22 Análisis 2.1 Estado del Arte La virtualización es un recurso muy popular entre las empresas que permite la ejecución simultánea de dos o más sistemas operativos y aplicaciones en un único dispositivo físico. Para ello, es necesario un programa o software(Hypervisor)que permite crear lo que se denominan máquinas virtuales, las cuales pueden ser servicios, redes o servidores que se montan en un PC o servidor físico. Un hipervisor, conocido también como monitor de máquinas virtuales, es un proceso que crea y ejecuta máquinas virtuales. Un hipervisor permite que un ordenador host preste soporte a varias máquinas virtuales invitadas mediante el uso compartido virtual de sus recursos, como la memoria y el procesamiento. En general, hay dos tipos de hipervisores. Los hipervisores de tipo 1, denominados «hipervisores bare metal», se ejecutan directamente en el hardware del host. Los hipervisores de tipo 2, denominados «alojados», se ejecutan como una capa de software sobre un sistema operativo, como otros programas informáticos(Ilustración 2). Ilustración 2. Tipos de Hypervisores Los hipervisores de tipo 1 no tienen que cargar ningún sistema operativo ya que se ejecutan directamente en el hardware del host por lo que se considera de mayor rendimiento y el más eficiente además de ser más seguros debido a que no presentan fallas y vulnerabilidades propios de los sistemas operativos. Cada máquina virtual está aislada de la otra y ese aislamiento las protege contra actividades maliciosas o amenazas. Por otro lado, los hipervisores tipo 2 generalmente se instalan en un sistema operativo existente. Esto lo convierte en un hipervisor alojado, ya que depende del sistema operativo de la máquina 11 host para llevar a cabo operaciones, como administrar llamadas a la CPU, administrar recursos de red, administrar memoria y almacenamiento. Algunos de los programas de virtualización para crear máquinas virtuales más usados por las empresas son VMware, Citrix y Microsoft Hyper-V Server. En el caso de VMware, en hipervisores como VMware Workstation Player y VMware Fusion y vSphere / ESXi usan un hipervisor de tipo 2 y las principales características son: ● Cuenta con numerosas herramientas y funciones para entornos empresariales. ● Permite compartir archivos fácilmente entre el host y el sistema virtualizado. ● Es compatible con lectores de tarjetas inteligentes. ● Permite crear instantáneas para restaurar el estado de una VM fácilmente. ● Cuenta con una herramienta para compartir máquinas virtuales. El Hyper-V es un hipervisor desarrollado por Microsoft, de tipo 1 y tiene: ● Entorno informático: una máquina virtual de Hyper-V incluye las mismas partes básicas que un equipo físico, como memoria, procesador, almacenamiento y redes. Todas estas partes tienen características y opciones que se pueden configurar según la necesidad de cada cliente. ● Recuperación ante desastres y copia de seguridad: para la recuperación ante desastres, el Hyper-V crea copias de máquinas virtuales, diseñadas para almacenarse en otra ubicación física, de modo que pueda restaurar la máquina virtual desde la copia. ● Optimización : cada sistema operativo compatible tiene un conjunto personalizado de servicios y controladores, denominados servicios de integración , que facilitan el uso del sistema operativo en una máquina virtual de Hyper-V. ● Portabilidad : características como la migración en vivo, la migración de almacenamiento y la importación y exportación facilitan el traslado o la distribución de una máquina virtual. ● Conectividad remota: Hyper-V incluye Conexión a máquina virtual, una herramienta de conexión remota para su uso con Windows y Linux. La herramienta de Escritorio remoto proporciona acceso a la consola, por lo que puede ver lo que sucede en el invitado. ● Seguridad : el arranque seguro y las máquinas virtuales blindadas ayudan a protegerse contra malware y otros accesos no autorizados a una máquina virtual y sus datos. También existen algunas limitaciones en el Hyper-V como: ● Problemas reproducibles en el sistema host: los posibles contratiempos que sufra la máquina física pueden presentarse también en las máquinas virtuales. ● Incompatibilidad con otros programas para virtualizar. Citrix Hypervisor, antes conocido como Citrix XenServer es un hipervisor de tipo 1 con características como: 12 ● Consolidación de varias máquinas virtuales (VM) en un servidor físico ● Reducir la cantidad de imágenes de disco separadas que se administrarán ● Permite una fácil integración con las infraestructuras de almacenamiento y redes existentes ● Permite programar un mantenimiento sin tiempo de inactividad mediante la migración en vivo de máquinas virtuales entre hosts de Citrix Hypervisor ● Asegura la disponibilidad de las VM mediante el uso de alta disponibilidad para configurar directivas que reinicien las VM en otro servidor en caso de que se produzca un error● Aumento de la portabilidad de las imágenes de VM, ya que una imagen de VM funciona en una variedad de infraestructuras de implementación Alternativa a las máquinas virtuales Una vez analizados los distintos entornos y programas para la virtualización con máquinas virtuales, analizaremos ahora, otras tecnologías. Veremos como alternativa para crear un cluster, el uso de contenedores. Los contenedores se usan para agrupar y aislar entre si aplicaciones o grupos de aplicaciones que se ejecutan sobre un mismo núcleo de sistema operativo. Aplicándolo a nuestro caso, y si queremos simular el entorno con contenedores, la estructura del cluster quedaría; una máquina física, una plataforma de virtualización y una maquina virtual con un sistema habilitado para alojar contenedores. En este caso, en vez de crear cuatro máquinas virtuales con cuatro sistemas operativos (como vamos a hacer en el presente trabajo) tendríamos solo un sistema operativo y encima, las diferentes aplicaciones de los nodos del cluster en distintos contenedores. Los contenedores y las máquinas virtuales tienen sus usos particulares, de hecho, muchas implementaciones de contenedores usan máquinas virtuales como sistema operativo host en lugar de ejecutarse directamente en el hardware[1]. Los beneficios de realizar el entorno con este sistema de contenedores serian: menos superficie de ataque, menos configuraciones y más movible ya que llevando el contenedor a otro entorno sigue funcionando sin necesidad de reinstalaciones. Podemos afirmar que si se requiere de mayor eficiencia y rendimiento se aplicarían contenedores, pero si precisamos de un entorno más seguro y aislado, como es nuestro caso, un cluster de máquinas virtuales sería lo recomendable. Al sistema de contenedores también se podría implementar los kubenetes para orquestar contenedores administrando las cargas de trabajo de los mismos y pudiendo escalar a varios servidores[2]. Algunos programas para crear contenedores y son Windows Server Container, Hyper-V Container y Docker, entre otros. 13 22.2 Análisis del sistema Para analizar el sistema que vamos a desarrollar vamos a enfocarnos en el software de virtualización y el sistema operativo que se usará. 2.2.1 Software de virtualización Para la resolución del presente trabajo se usará el programa de virtualización de Hyper-V para crear las máquinas virtuales y que es con el que vamos a trabajar en todo momento. El Hyper V ofrece el necesario soporte para la virtualización por hardware, esto significa que cada equipo virtual que se ejecute correrá encima de un hardware virtual como un disco duro, tarjeta de red, CPU, memoria RAM, entre otros. Podemos ver su estructura en la siguiente imagen(Ilustración 3): Ilustración 3. Estructura Hyper-V Una vez se tengan creadas las máquinas virtuales, el usuario debe también poder administrarlas. El conjunto de herramientas de gestión que ofrece Hyper V permite, además: ● Crear y eliminar máquinas virtuales. ● Monitorear el tiempo de actividad, el uso del ancho de banda, consumo de CPU y RAM. ● Efectuar copias de seguridad. ● Asignar recursos. ● Disponer de la herramienta de gestión adecuada es una de las principales claves para el éxito de la virtualización. En nuestro caso administramos las máquinas desde el System Center Virtual Machine Manager. Para la realización del presente proyecto se ha optado por el hipervisor Hyper- V ya que el departamento donde se hace la implementación utiliza sistemas exclusivamente propios de Microsoft. 14 También hay que tener en cuenta los sistemas operativos cliente que proveen soportar Hyper V a los usuarios se mencionan a continuación(que en nuestro caso se trata de Windows 10): Windows ● Windows 10 en 32 y 64 bits. ● Windows 8/8.1 en 32 y 64 bits. ● Windows 7/7 Service pack 1 en versiones de 32 y 64 bits. ● Windows Vista Service Pack 2 compatible con Windows Server 2016/2012R2/2012/2008 Linux ● Debian. ● Ubuntu. ● Oracle Linux. 22.2.2 Sistema operativo El sistema operativo al igual que el software de virtualización, al pertenecer al grupo de soporte Microsoft de la compañía se usará el mismo que se usa en el resto de los servidores de la compañía, y es Windows Server 2019[3]. El sistema operativo de Windows Server 2019 es una distribución de Microsoft para el uso en servidores y tiene ventajas como la fácil administración, bastante documentación oficial para su fácil manejo y un aprendizaje sencillo. También proporciona un control administrativo integral sobre el almacenamiento de datos y permite compartir servicios entre múltiples usuarios. Las prestaciones que ofrece sobre herramientas de virtualización, la administración de recursos y la seguridad permiten a las empresas crear un centro de datos dinámico y optimizado. 2.3 Análisis de requisitos Para la resolución del presente proyecto se han planteado los siguientes requisitos del entorno y será la planificación real que se llevará a cabo para desplegar las máquinas del cluster. 2.3.1 Requisitos Hardware La razón por la cual se ha optado por las siguientes características hardware ha sido después de revisar Requisitos de hardware para Windows Server[4] de la página de Microsoft. Teniendo en cuenta que no tenemos restricciones hardware para la creación del sistema hemos añadido un extra a las características mínimas requeridas. 15 ● Información de la máquina 1 Controlador de dominio Nombre de la máquina: PFC-DC1 IP:10.10.0.1 MASCARA: 255.255.255.0 SIN GATEWAY Disco1(C): 60 GB de disco principal Disco2(P):10GB para la paginación Disco3(D): 5GB para logs Disco4(E): 5GB para base de datos de AD Procesador: 4 CPUs RAM: 4 Gb de RAM ● Información de la máquina 2 Primer nodo del Cluster Nombre de la máquina: PFC-CLU1 IP:10.10.0.11 MASCARA: 255.255.255.0 DNS: 10.10.0.1 Disco1(C): 60 GB de disco principal Disco2(P): 10GB para paginación Disco3(D): 1GB para quorum Disco4(E): 200GB para máquinas virtuales (Quórum y disco de máquinas virtuales son discos compartidos en hyperv) Procesador: 8 CPUs RAM: 16GB de RAM ● Información de la máquina 3 Segundo nodo del Cluster Nombre de la máquina: PFC-CLU2 IP:10.10.0.12 MASCARA: 255.255.255.0 DNS 10.10.0.1 Disco1(C): 60 GB de disco principal Disco2(P): 10GB para la paginación Disco3(D): 1GB para quorum Disco4(E): 200GB para máquinas virtuales (Quórum y disco de máquinas virtuales son discos compartidos en hyperv) Procesador: 8 CPUs RAM: 16GB de RAM ● Información de la máquina 4 Controlador de dominio Nombre de la máquina: PFC-VMM1 16 IP:10.10.0.21 MASCARA: 255.255.255.0 DNS 10.10.0.1 Disco1(C): 60 GB de disco principal Disco2(P):10GB para la paginación Disco3(D): 50GB para los logs Disco4(E): 50GB para base de datos SQL Procesador: 4 CPUs RAM: 8 Gb de RAM En los discos para los logs vamos a guardar los ficheros que nos explican el comportamiento de nuestros sistemas o programas. Por otro lado, también hay que añadir el disco de paginación que se trata de una asignación en el disco duro que se comporta como memoria RAM virtual y es empleada por Windows para almacenar los procesos cargados en memoria actualmente y que superan el máximo de memoria RAM que tiene el sistema. Los discos de quórum de clúster son para almacenar la base de datos de configuración del clúster. 2.3.2 Requisitos Software El sistema operativo que se va a usar en cada máquina es Windows Server 2019 puesto que es el sistema operativo del host físico y las licencias que heredan las máquinas después de la virtualización son gratuitas. La clave gratuita para la activación de las máquinas virtuales de Windows Server las proporciona Microsoft en su página web[5]. Una vez tenemos las máquinas instaladas con su respectivo hardware y sistema operativo, procedemos a la instalación de los roles y características necesariaspara el correcto funcionamiento del cluster. Dichas configuraciones las agregamos desde el administrador del servidor como podemos ver en la Ilustración 4. Ilustración 4. Administrador del servidor 17 Para las máquinas PFC-CLU1 y PFC-CLU2 el rol que vamos a añadir es Hyper- V y la característica de cluster de conmutación por error[6]. Por otro lado, para PFC-DC1 los roles que vamos a instalar son Servidor DNS y servicios de dominio de Active Directory junto a la característica de Administración de directivas de grupo. En PFC-DC1 también se configuran los Servicios de Dominio de Active Directory. Por último, para PFC-VMM1 se dejan los roles y características por defecto, pero es donde se van a instalar los programas de SQL Server 2019 y System Center Virtual Machine Manager. 18 33 Desarrollo Una vez planteado el diseño se comenzará con la primera parte de la implementación. 3.1 Instalación de máquinas El primer paso es la creación de las cuatro máquinas que va a tener nuestro entorno: PFC-CLU1, PFC-CLU2, PFC-DC1 y PFC-VMM1. Esto se realizará desde el Hyper-V Manager del servidor físico HYPERV[Ilustración 5]. Para ello, se elegirá una carpeta del directorio de HYPERV donde se van a instalar las máquinas, posteriormente se asigna la memoria destinada a cada máquina que se especificó en los requisitos y se elige la conexión de Red Pruebas Privada(Anexo IV). Ilustración 5. Hyper-V manager Una vez creadas las máquinas, se crean los respectivos discos que se habían descrito en los requisitos hardware[Ilustración 6] y se agrega el sistema operativo (que previamente se había instalado en un repositorio para posteriormente replicarlo) en el disco C de cada máquina. Una vez creados los discos desde las propiedades de la máquina de Hyper.V Manager, se tienen que asignar e inicializar en el Administrador de Discos dentro de cada máquina como vemos en la Ilustración 7. En el administrador de discos indicamos el tamaño del volumen simple que vamos a añadir, asignamos la letra de la unidad y etiqueta del volumen. 19 Ilustración 6. Creación del disco D de 50GB para los logs de la máquina PFC-VMM 20 Ilustración 7. Asignación e inicialización del disco D de 50GB para los logs de la máquina PFC-VMM 33.2 Configuración de las máquinas Una vez se tengan las máquinas instaladas con el sistema operativo y los requisitos de hardware cumplidos, pasamos a la configuración de los equipos. El orden de configuración que se ha seguido es el siguiente: 1. Cambio el nombre a los equipos[Anexo I] 2. Configuración de la IP pública en las cuatro máquinas e IP privada de los dos nodos del cluster PFC-CLU1 y PFC-CLU2 [Anexo II], 3. Configuración de los roles y características de cada máquina, en el Anexo III viene un ejemplo para la instalación de los roles y características de una de las máquinas. Para la instalación de los roles de Hyper-V y clúster de conmutación por error de las máquinas PFC-CLU1 y PFC-CLU2 se hace el mismo procedimiento. 4. Creación de cluster de las máquinas PFC-CLU1 y PFC-CLU2 en el Anexo IV vienen los pasos. 5. Añadimos las cuatro máquinas al dominio(Anexo V). 6. Instalación de SQL Server 2019[7] en PFC-VMM1, en este paso instalamos el programa para la administración de las bases de datos, que en este caso es un gestor de base de datos relacionales. La clave del producto fue proporcionada por la empresa. Los pasos de la instalación están en Anexo VI. 21 7. Instalación de Microsoft SQL Server Management Studio[8] en PFC- VMM1. Este programa es un entorno integrado para administrar cualquier infraestructura de SQL y los pasos están en el Anexo VII. 8. Instalación de prerrequisitos para instalar SCVMM. Para el correcto funcionamiento de System Center Virtual Machine Manager, se requiere de la instalación de Microsoft Visual C++ ,que es un compilador para los lenguajes de programación C, C++ y C++ / CLI de Microsoft y es uno de los requisitos para poder usar SCVMM. El segundo requisito es la instalación de Windows Assessment and Deployment Kit que es un conjunto de herramientas que sirve para personalizar, evaluar e implementar sistemas operativos Windows en equipos nuevos. 9. El último paso es la instalación de System Center Virtual Machine Manager que es donde vamos a probar nuestro sistema, los pasos los podemos ver en el Anexo VIII . Otras configuraciones intermedias que se han realizado entre los pasos anteriores fue habilitar la virtualización anidada en el servidor físico HYPERV para poder ejecutar el programa Hyper-V dentro de las máquinas virtuales PFC- CLU1 y PFC-CLU2[9], esto lo hacemos desde el PowerShell y se muestra en la siguiente Ilustración 8. Ilustración 8. Enable nested virtualization 22 44 Pruebas del sistema Para realizar las pruebas del sistema se va a trabajar en el System Center Virtual Machine Manager de la máquina PFC-VMM1. El objetivo será configurar varias nubes con dos o tres máquinas y donde cada nube tendrá diferentes permisos para acceder a los recursos de la empresa dependiendo del rol de usuario proporcionado a cada nube. Vamos a crear un escenario donde hay dos departamentos, uno de Windows y otro de Linux, por lo que se requerirá una nube para cada departamento, con diferentes permisos de acceso. También se añadirá una tercera nube para Internet Information Server, será un servidor web extensible que provee un conjunto de servicios para sistemas operativos Windows. Para tener una visión conceptual, las nubes quedarían como en la Ilustración 9. Ilustración 9. Nubes en SCVMM Antes de crear las máquinas(de la Ilustración 9) en el SCVMM para las pruebas, se va a crear una plantilla con nombre VM-BASE (Ilustración 10) para poder usar de base y así crear las máquinas de manera más rápida y sencilla. En la plantilla se configura el hardware, el sistema operativo y las redes que van a tener las máquinas creadas a partir de dicha plantilla. 23 Ilustración 10. Plantilla VM BASE También se agrega el cluster PFC-CLUSTER con las dos máquinas PFC-CLU1 y PFC-CLU2, y se configura una red lógica[10] para poder asignarla a una red física[11]. Esto se implementa en el tejido de VMM y le ponemos el nombre de VM_NET (este paso lo hacemos para poder crear una red física), las redes en las máquinas virtuales se basan en redes lógicas que proporcionan una interfaz para la conexión a una red física[Ilustración 11]. Ilustración 11. Configuración redes lógicas Teniendo una red lógica se procede a crear redes de VM que se asignan a sitios de red que existen dentro de sus redes físicas(Ilustración 12 ). 24 Ilustración 12. Red de VM Una vez teniendo una plantilla base y configurada la red lógica y física, podemos crear las nubes. Creamos las tres nubes mencionadas IIS_VMM, UNIX_VMM y WINDOWS_VMM. Al crear cada nube indicamos el grupo de host, la red lógica, la biblioteca y la capacidad de cada nube. Ahora se crean los roles de usuario para poder asignarlos a cada nube, esto nos va a permitir especificar lo que los usuarios pueden hacer en el entorno de VMM(Ilustración 13). En el rol de IIS asignamos como tipo de perfil Administrador de inquilinos lo que permite crear, implementar y administrar servicios propios y máquinas virtuales a través de la consola de VMM. El segundo rol es de UNIX que se le ha asignado el rol de Administrador delegado en el cual se puede realizar todas las tareas en objetos dentro del ámbito, pero no pueden modificar la configuración de VMM ni modificar el rol de usuario administrador. Por último, al rol de WINDOWS se le ha asignado el perfil de Administrador de solo lectura con el cual se puede ver las propiedades, estados, las nubes y los servidores de la biblioteca. 25 Ilustración 13. Roles de usuario en VMM Una vez teniendo todo lo necesario configurado, se procede a crear algunas máquinaspara cada nube. Para crear dichas máquinas ejecutaremos un script desde el PowerShell ISE (Ilustración 14) en la máquina PFC-VMM1. Para ejecutar el script se crea un archivo de texto con los nombres de las máquinas, se usa la plantilla creada previamente y se elige el cluster donde se van a albergar las máquinas(si cae el cluster donde se alberga la máquina, se hará cargo el otro cluster de dicha máquina). La nube se asigna a cada máquina cuando está creada, desde propiedades. Ilustración 14. Script para la creación de máquinas Finalmente, podemos ver las máquinas creadas, disponibles y en ejecución en la Ilustración 15, preparadas para hacer la migración de los servicios de la empresa NUEVA NEVADA SL. 26 Ilustración 15. Máquinas en ejecución 27 55 Análisis de impacto sobre la Sostenibilidad Para la realización del presente proyecto, se ha optado por un entorno con servidores virtuales ya que estos ayudan a las empresas a poder almacenar y gestionar sus recursos sin necesidad de invertir en una infraestructura física, esto supone una reducción de costes. Las soluciones de virtualización[12] aparte de reducir los costos económicos, también reducen la emisión de dióxido de carbono y el consumo energético. Otra medida de la virtualización es la automatización de desconexión de los servidores y ordenadores durante los períodos de inactividad, como por la noche o los fines de semana lo que se traduce en un decremento del consumo energético. En el contexto de este trabajo se tiene una infraestructura de servidor físico(HYPERV) que alberga hosts virtuales siendo alguno de ellos PFC-CLU1, PFC-CLU2,PFC-DC1 y PFC-VMM1, los cuales usamos para implementar la solución de este sistema. Esta infraestructura física la gestiona una empresa externa. Dicha empresa cubre un 90% del consumo energético con energía renovable en sus centros de datos, y se enfocan en la eficiencia energética. También promueve políticas de energía con bajas emisiones de carbono, comparte conocimientos sobre la adquisición de energía renovable y fomenta la innovación. Teniendo en cuenta estos detalles del entorno podemos afirmar que hemos contribuido a algunos de los objetivos de desarrollo sostenible como energía asequible y no contaminante puesto que la mayor parte de la energía utilizada por la empresa es renovable. El consumo y la producción responsable ya que no hace falta producir hardware adicional y por último acción por el clima por la reducción de producción de dióxido de carbono y otros gases que producen el efecto invernadero. Por motivos de privacidad de la empresa donde se realiza el proyecto, no se va a dar el nombre de la empresa externa que gestiona la infraestructura. 28 66 Resultados y conclusiones Remontándonos a las necesidades descritas en el resumen, podemos concluir que hemos cumplido en satisfacer dichas necesidades creando el entorno con éxito para poder simular en el futuro la migración del sistema, de la nueva empresa adquirida y así, gestionar las dos empresas de manera simultánea. Habiendo visto las diferentes posibilidades de implementación del entorno como es el uso de contenedores a través de los kubernetes, finalmente se ha optado por el cluster de maquinas virtuales usando el programa hipervisor de Hyper-V para su virtualización ya que ofrece un entorno más seguro y aislado. El proceso de desarrollo principalmente esta dividido en la instalación de las maquinas con los requisitos hardware planteados y la configuración de cada una de las maquinas siguiendo los requisitos software descritos. Con todo instalado y configurado se ha podido desplegar las máquinas virtuales desde el System Center Virtual Machine Manager, dichas maquinas simularían el entorno donde se migraría el sistema de la empresa NUEVA NEVADA SL. Para las pruebas del despliegue de las maquinas, hemos creado siete maquinas distintas con su propio sistema operativo y funcionado. Las distintas maquinas se encuentran repartidas en tres nubes con su correspondiente rol de usuario y con sus respectivos permisos dependiendo de sus necesidades. Como futuro trabajo que se podría haber implementado, pero no se ha hecho debido a la escasez del tiempo, es la simulación de la propia migración del sistema de la empresa NUEVA NEVADA SL al entorno de INVESTUM que finalmente se ha quedado en una preparación del posible entorno. Algunas posibles mejoras que se pueden realizar en este trabajo de fin de carrera es implementar el sistema con contenedores y poder comparar el rendimiento de la implementación actual con algún tipo de benchmark. Para poder realizar este trabajo se ha requerido principalmente conocimientos de algunas de las asignaturas cursadas en la carrera como Redes de Computadores para poder crear el dominio y configurar la tarjeta de red(IPs públicas y privadas), Administración de sistemas para poder manejar entornos Windows, Bases de Datos para la configuración de SQL Server, Proyecto de instalación informática para comprender las instalaciones informáticas, sus estándares y normativas y poder relacionarlo con la sostenibilidad. Con esto puedo concluir que he puesto en práctica la teoría de bastantes asignaturas y he podido relacionarlo con el entorno laboral. 29 77 Bibliografía [1]https://docs.microsoft.com/es-es/virtualization/windowscontainers/about/containers- vs-vm (Contenedores frente a máquinas virtuales) [2]https://azure.microsoft.com/es-es/topic/kubernetes-vs-docker/ (Kubernetes o Docker) [3] https://www.microsoft.com/es-es/windows-server/trial (Descarga Sistema operativo) [4]https://docs.microsoft.com/es-es/windows-server/get-started/hardware-requirements (Requisitos sistema para instalación de Windows Server 2019) [5]https://docs.microsoft.com/es-es/windows-server/get-started/automatic-vm- activation (clave activación licencia) [6]https://docs.microsoft.com/es-es/windows-server/failover-clustering/create-failover- cluster#verify-the-prerequisites (Requisitos cluster) [7]https://www.microsoft.com/es-es/sql-server/sql-server-2019 (SQL Server 2019) [8]https://docs.microsoft.com/es-es/sql/ssms/download-sql-server-management-studio- ssms?view=sql-server-ver16 (Descarga de SQL Server Management Studio) [9]https://docs.microsoft.com/es-es/virtualization/hyper-v-on-windows/user- guide/nested-virtualization (Habilitar Nested Virtualization) [10]https://docs.microsoft.com/es-es/system-center/vmm/network-logical?view=sc- vmm-2022 (Redes Lógicas) [11]https://docs.microsoft.com/es-es/system-center/vmm/manage-networks?view=sc- vmm-2022 (Configurar el tejido de red de VMM) [12]https://web.archive.org/web/20091007205439/http://www.madrimasd.org/informaci onidi/biblioteca/publicacion/doc/VT/VT19_green_IT_tecnologias_eficiencia_energetica _sistemas_TI.pdf (green IT: tecnologías para la eficiencia energética en los sistemas TI) 30 88 Anexos A continuación, se adjuntan los anexos en los cuales viene expuesta la configuración y la forma de instalar el software utilizado. Anexo I. Configuración del nombre de las máquinas Cambiamos el nombre de los equipos en configuraciones avanzadas. Se repite en las cuatro máquinas. Anexo II. Configuración IP. Configuramos la IP pública a la máquina PFC-VMM1 en conexiones de red. El proceso se repetirá para las 4 máquinas, pero solo se mostrará para una máquina. De la misma manera configuraremos la IP privada para la Comunicación de las máquinas PFC-CLU1 y PFC-CLU2 dentro del cluster. 31 AAnexo III. Agregar roles y características a las máquinas. Instalación en PFC-DC1 de los roles Servidor DNS y servicios de dominio de Active Directory. También añadimos la característica de Administración de directivas de grupo desde el administrador del servidor. Seleccionamos la instalación basada en características o roles. 32 Seleccionamos servidor donde se instalarán los roles, eneste caso es PDC-DC. 33 Seleccionamos el rol de Servidor DNS y Servicios de dominio de Active Directory, los demás roles vienen por defecto. Agregamos Administración de directivas de grupo como característica. Especificaciones de Servidor DNS. 34 Confirmación de las selecciones. Se termina la instalación. 35 AAnexo IV. Creación del cluster Una vez instalada la característica de Cluster de conmutación por error en las maquinas PFC-CLU1 y PFC-CLU2 , entramos en el administrador de clústeres de conmutación por error y creamos nuestro cluster con las máquinas PFC- CLU1 y PFC-CLU2. El nombre del cluster será PFC-CLUSTER. Seleccionamos los servidores que estarán dentro del cluster. 36 Ejecutamos todas las pruebas para asegurar un correcto funcionamiento. Confirmación de las configuraciones. Se valida la configuración y el resultado aparece como correcto 37 Se asigna el nombre y la dirección IP al cluster. Confirmación de las opciones elegidas. 38 Resumen de la finalización AAnexo V. Añadimos maquina al dominio En las siguientes capturas vamos a ver el proceso para añadir la máquina PFC-VMM1 al dominio PFC. Este proceso se repetirá en cada una de las máquinas. 39 40 AAnexo VI. Instalación de SQL Server 2019 Microsoft SQL Server lo usaremos para almacenar toda la información de la empresa en bases de datos relacionales, como también para administrar dichos datos sin complicaciones. 41 Usamos la clave del producto proporcionada por nuestra empresa. Aceptamos los términos de la licencia. 42 No marcamos la casilla de actualizaciones automáticas para no tener imprevistos. Se comprueba que tenemos el setup correcto por lo que se puede proceder a la instalación. 43 Marcamos las características que vamos a necesitar que en este caso dejamos las que vienen por defecto. Creamos una única instancia, que es la que usaremos para conectarnos desde SQL Server Management Studio. 44 Microsoft ya proporciona la configuración de servidor más recomendada. Elegimos el español como idioma predeterminado. 45 Creamos la contraseña de administrador para la base de datos. Elegimos la ruta para cada directorio. 46 47 Se verifica la configuración seleccionada. Comienza la instalación. Termina con exito. 48 AAnexo VII. Instalación de management studio Instalamos la interfaz para el SQL Server. Elegimos la localización de la instalación y reiniciamos el equipo para completar la instalación. 49 AAnexo VIII. Instalación de System Center Virtual Machine Manager Comenzamos configurando las características antes de su instalación 50 a Por defecto viene el servidor de administración VMM pero seleccionamos también la consola VMM para poder tener una interfaz de gestión. 51 Añadimos la información y la clave del producto proporcionada por la empresa donde se realiza el proyecto. Aceptamos los términos de licencias. 52 Información de recopilación de datos que viene por defecto Desactivamos las actualizaciones automáticas para evitar posibles interrupciones durante la implementación del proyecto. 53 Seleccionamos la carpeta donde vamos a guardar el programa que por defecto se guarda en Program Files. Configuramos la base de datos y el usuario administrador. 54 Configuramos la cuenta de dominio. 55 Dejamos los puertos por defecto. 56 Configuramos biblioteca. Resumen previo a la instalación de las características elegidas. 57 Comienzo de instalación. Vemos que la instalación terminó sin fallos y que podemos arrancar el programa. 58 Finalmente así queda la interfaz del programa. AAnexo IX. Instalación de la máquina PFC-DC1. Se procede a hacer la instalación en el Hyper-V Manager de la máquina PFC- DC1, de la misma manera se haría con las máquinas PFC-CLU1, PFC-CLU2 y PFC-VMM1. Ponemos el nombre a la máquina y su localización en el host físico HYPERV. 59 Seleccionamos la generación 2 ya que es la versión más actualizada de máquina virtual. 60 Especificamos la memoria que le queremos asignar a la máquina virtual. Configuramos el tipo de conexión. Elegimos asignar un disco a la máquina más adelante. 61 Resumen de las características. Este documento esta firmado por Firmante CN=tfgm.fi.upm.es, OU=CCFI, O=ETS Ingenieros Informaticos - UPM, C=ES Fecha/Hora Thu Jun 02 17:21:24 CEST 2022 Emisor del Certificado EMAILADDRESS=camanager@etsiinf.upm.es, CN=CA ETS Ingenieros Informaticos, O=ETS Ingenieros Informaticos - UPM, C=ES Numero de Serie 561 Metodo urn:adobe.com:Adobe.PPKLite:adbe.pkcs7.sha1 (Adobe Signature)
Compartir