Logo Studenta

Gestão de Clúster Hyper-V

¡Este material tiene más páginas!

Vista previa del material en texto

1
Universidad Politécnica
de Madrid
Escuela Técnica Superior de 
Ingenieros Informáticos
Grado en Ingeniería Informática
Trabajo Fin de Grado
Gestionar clúster Hyper-V para desplegar 
máquinas virtuales
Autor: María Garazhyy Cruz
Tutor(a): Raúl Gutiérrez Gil
Madrid, mayo 2022
 
2 
 
Este Trabajo Fin de Grado se ha depositado en la ETSI Informáticos de la Universidad Politécnica 
de Madrid para su defensa. 
Trabajo Fin de Grado 
Grado en Ingeniería Informática 
Título: Título del Trabajo, con Mayúscula en Todas las Palabras que no Sean Conectivas 
(Artículos, Preposiciones, Conjunciones) 
mayo 2022 
Autor: María Garazhyy Cruz 
 
Tutor: 
Raúl Gutiérrez Gil 
LENGUAJES Y SISTEMAS INFORMÁTICOS E INGENIERÍA DE SOFTWARE 
ETSI Informáticos 
Universidad Politécnica de Madrid 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3 
 
Agradecimientos 
Realizar este proyecto de fin de carrera ha sido posible gracias a los profesores, 
que me han acompañado durante los últimos cuatro años de carrera y a la 
propia universidad y su personal. Me han ofrecido la posibilidad de formarme y 
crecer como persona, tener una perspectiva diferente a la que tenia antes de 
cursar la carrera y que me ha permitido tomar acertadamente las decisiones en 
la vida. Dentro de la universidad he conocido a compañeros increíbles con los 
que he creado un entorno sano de aprendizaje y apoyo y con los que estoy 
segura de poder contar en los momentos más difíciles y de tensión durante 
muchos años más. Gracias, a los profesores, por ofrecernos un punto de vista 
profesional y una enseñanza que nos permite poder desarrollar un criterio 
propio y ser críticos ante cualquier situación que se nos presente. Gracias, a la 
facultad por promover la diversidad y la tolerancia a los distintos pensamientos 
desde el respeto, y fuera de ideologías, algo que hoy en día se echa en falta. 
También agradecer a mis padres por insistir en mis estudios y a mi hermano 
por aconsejarme en la elección de la carrera cuando no estaba segura de saber 
qué hacer y que resulto en acierto. 
A Alex, por estar siempre presente, calmar mis nervios y guiarme. 
A mi grupo de amigos: Elisa ,Alejandro ,Luisa ,Alberto ,Jaime ,Saul, Julián, 
Luis, Javi y Elma, por todos los momentos compartidos tanto dentro de la 
universidad como fuera, nuestro respaldo y empujón para seguir cuando más 
lo necesitábamos y preocuparnos los unos de los otros. 
Por último, gracias a mi tutor de empresa Pedro, y a David que me han ofrecido 
toda la ayuda y el entorno para el desarrollo del presente trabajo. 
 
4 
 
 
Resumen 
Durante el último año la compañía de TI, Investum, que brinda servicios y 
soluciones digitales ha tenido grandes beneficios por lo que ha decidido seguir 
expandiéndose, adquiriendo la empresa NUEVA NEVADA SL. 
 
Después de esta última adquisición se necesita una nueva arquitectura con un 
directorio activo que englobe las dos empresas y un entorno para poder realizar 
una migración de los datos, por lo que se hará una simulación del proceso de 
creación del entorno. Para dicha simulación, el objetivo será montar una 
infraestructura que va a albergar todos los servicios tal como lo harían en la 
futura migración. 
 
Este trabajo se desarrollará en la empresa INVESTUM dentro del área de soporte 
de Microsoft. 
Con el desarrollo de este sistema se pretende poder administrar las dos 
empresas de manera conjunta y proporcionar mayor disponibilidad, 
escalabilidad, aumentar el rendimiento y el balance de carga entre todos los 
servidores. 
Para la implementación de este sistema se han elegido herramientas utilizadas 
por el departamento de Microsoft para dar soporte a este servicio, tanto el 
sistema operativo como los programas usados en los servidores. En este 
documento se identifican distintas herramientas, así como la forma y los 
requisitos para su instalación. 
 
 
5 
 
Abstract 
During the last year, the IT company, Investum, which provided digital services 
and solutions, has had great benefits, so it has decided to continue expanding, 
acquiring the company NUEVA NEVADA SL. 
 
After this last acquisition, a new architecture is needed with an active directory 
that holds the two companies and an environment to be able to perform a data 
migration, to perform this architecture, a simulation of the environment 
creation process will be carried out. For this simulation, the objective will be to 
set up an infrastructure that will host all the services as they would be in the 
future migration. 
 
This work is developed in the INVESTUM company within the Microsoft support 
area. 
With the development of this system, it is intended to be able to manage the two 
companies jointly and provide greater availability, scalability, increase 
performance and load balance in all the servers. 
For the implementation of this system, tools used by the Microsoft department 
have been chosen to support this service, both the operating system and the 
programs used in the servers. This document identifies different tools, as well 
as the way and requirements for their installation. 
 
 
 
6 
 
Índice de contenidos 
Contenido 
1 Introducción 8 
2 Análisis 10 
2.1 Estado del Arte 10 
2.2 Análisis del sistema 13 
2.2.1 Software de virtualización 13 
2.2.2 Sistema operativo 14 
2.3 Análisis de requisitos 14 
2.3.1 Requisitos Hardware 14 
2.3.2 Requisitos Software 16 
3 Desarrollo 18 
3.1 Instalación de máquinas 18 
3.2 Configuración de las máquinas 20 
4 Pruebas del sistema 22 
5 Análisis de impacto sobre la Sostenibilidad 27 
6 Resultados y conclusiones 28 
7 Bibliografía 29 
8 Anexos 30 
Anexo I. Configuración del nombre de las máquinas 30 
Anexo II. Configuración IP. 30 
Anexo III. Agregar roles y características a las máquinas. 31 
Anexo IV. Creación del cluster 35 
Anexo V. Añadimos maquina al dominio 38 
Anexo VI. Instalación de SQL Server 2019 40 
Anexo VII. Instalación de management studio 48 
Anexo VIII. Instalación de System Center Virtual Machine Manager 49 
Anexo IX. Instalación de la máquina PFC-DC1. 58 
 
 
 
 
 
 
 
 
 
7 
 
Índice de Figuras 
Ilustración 1. Estructura cluster 8 
Ilustración 2. Tipos de Hypervisores 9 
Ilustración 3. Estructura Hyper-V 12 
Ilustración 4. Administrador del servidor 15 
Ilustración 5. Hyper-V manager 16 
Ilustración 6. Creación del disco D de 50GB para los logs de la máquina PFC-VMM 17 
Ilustración 7. Asignación e inicialización del disco D de 50GB para los logs de la máquina PFC-
VMM 18 
Ilustración 8. Enable nested virtualization 19 
Ilustración 9. Nubes en SCVMM 20 
Ilustración 10. Plantilla VM BASE 21 
Ilustración 11. Configuración redes lógicas 21 
Ilustración 12. Red de VM 22 
Ilustración 13. Roles de usuario en VMM 23 
Ilustración 14. Script para la creación de máquinas 23 
Ilustración 15. Máquinas en ejecución 24 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8 
 
11 Introducción 
 
El objetivo de este proyecto consiste en crear una arquitectura para conseguir 
un manejo centralizado de dos empresas. Por este motivo se desplegará un 
clúster de máquinas virtuales usando tecnología de Hyper-V desarrollado por 
Microsoft. 
Un clúster consta de un conjunto de computadoras independientes y 
conectadas entre sí mediante una red, de tal manera que funcionan como un 
solo servidor. Los clústeres son, normalmente, usados con más de un nodo para 
aprovechar el paralelismo y así dividirse las tareas, o hacerlas a la vez 
aumentando el rendimiento y equilibrando la carga de trabajo. 
 
La implantación de un sistema de clúster está ganando cada vez más 
popularidad entre las empresas por sus diversas ventajas y beneficios: 
 
1) Continuidad y disponibilidad del servicio: Como hemos mencionado 
anteriormente, un clúster trabaja con varios nodos por lo que si uno de 
ellos falla el resto se hace cargo automáticamente del trabajo eliminando 
interrupciones del servicio. 
2) Equilibrio de las cargas de trabajo: Se puede distribuirlos flujos de 
trabajo estableciendo métodos de balanceo de dicha carga. Con esto 
evitamos bloqueos, saturaciones y bajadas de velocidad ya que estas 
situaciones afectan a la productividad de la empresa. 
3) Protección ante ataques: Los clústers ofrecen recuperación de 
información ante ataques de hackers mediante virus, troyanos, software 
espía y programas maliciosos, etc. 
4) Escalabilidad: Los sistemas de clústering permiten agregar más nodos a 
medida que se van necesitando ya sea por incremento de la demanda o 
cuestiones de la propia empresa. 
 
Existen diferentes maneras de clasificar los clústers de servidores por lo que en 
este proyecto se clasificará según la solución que nos ofrecen: 
 
● Clúster de alto rendimiento: utilizan servidores de gran potencia para 
procesar grandes cantidades de datos a mucha velocidad. 
● Clúster de alta disponibilidad: están pensados para ofrecer las mejores 
garantías ante fallas en la red, o bien en el hardware o el software. 
● Clúster de alta eficiencia: lo que se busca con estos clústeres es la 
máxima eficiencia en el procesamiento de los datos, ya que permiten 
realizar grandes cantidades de tareas en el menor tiempo posible. 
 
La tecnología cluster permite a las organizaciones incrementar su capacidad de 
procesamiento, pero conlleva altos costes en su instalación. 
 
La instalación de un servidor clúster tiene un cierto grado de complejidad que 
variará en función de cómo queramos tener desarrollado el sistema. Dicha 
instalación se va a dividir en dos partes fundamentales: 
 
● Instalación de los roles y características de cada servidor: 
 En primer lugar, es necesario realizar una óptima instalación de cada 
uno de los servidores que configurarán el clúster como la instalación del 
9
rol de acceso remoto u otro sistema operativo, redireccionamiento IP, 
enrutamiento, etc.
● Configuración de los servidores:
El segundo paso consiste en configurar los distintos valores de cada 
servidor del clúster, teniendo en cuenta aspectos como el equilibrio de 
cargas, el enrutamiento y la conectividad.
Dado que queremos garantizar las ventajas que ofrece un cluster de alto 
rendimiento, para la implementación de nuestro sistema dispondremos de un 
clúster con tecnología Hyper-V formado por una máquina con el rol de servicios 
de dominio, dos nodos con el rol de Hyper-V y una máquina con System Center 
Virtual Machine Manager (SCVMM) y SQL Server 2019 que servirá para la 
administración de dicho clúster y de otros servidores virtuales que vamos a 
crear[Ilustración 1].
Ilustración 1. Estructura cluster
El presente trabajo estará dividido en:
● Análisis del sistema tanto análisis del mercado como el análisis técnico 
y asignación del hardware y software.
● Diseño, donde se define la arquitectura , funciones a desarrollar por el 
sistema y estilo global.
● Implementación y desarrollo del diseño planteado
● Pruebas para evaluar el cumplimiento de dicho sistema
[ ]
 
10 
 
22 Análisis 
 
2.1 Estado del Arte 
 
La virtualización es un recurso muy popular entre las empresas que permite la 
ejecución simultánea de dos o más sistemas operativos y aplicaciones en un 
único dispositivo físico. Para ello, es necesario un programa o 
software(Hypervisor)que permite crear lo que se denominan máquinas virtuales, 
las cuales pueden ser servicios, redes o servidores que se montan en un PC o 
servidor físico. 
Un hipervisor, conocido también como monitor de máquinas virtuales, es un 
proceso que crea y ejecuta máquinas virtuales. Un hipervisor permite que un 
ordenador host preste soporte a varias máquinas virtuales invitadas mediante 
el uso compartido virtual de sus recursos, como la memoria y el procesamiento. 
En general, hay dos tipos de hipervisores. Los hipervisores de tipo 1, 
denominados «hipervisores bare metal», se ejecutan directamente en el 
hardware del host. Los hipervisores de tipo 2, denominados «alojados», se 
ejecutan como una capa de software sobre un sistema operativo, como otros 
programas informáticos(Ilustración 2). 
 
 
Ilustración 2. Tipos de Hypervisores 
Los hipervisores de tipo 1 no tienen que cargar ningún sistema operativo ya que 
se ejecutan directamente en el hardware del host por lo que se considera de 
mayor rendimiento y el más eficiente además de ser más seguros debido a que 
no presentan fallas y vulnerabilidades propios de los sistemas operativos. Cada 
máquina virtual está aislada de la otra y ese aislamiento las protege contra 
actividades maliciosas o amenazas. Por otro lado, los hipervisores tipo 2 
generalmente se instalan en un sistema operativo existente. Esto lo convierte 
en un hipervisor alojado, ya que depende del sistema operativo de la máquina 
 
11 
 
host para llevar a cabo operaciones, como administrar llamadas a la CPU, 
administrar recursos de red, administrar memoria y almacenamiento. 
Algunos de los programas de virtualización para crear máquinas virtuales más 
usados por las empresas son VMware, Citrix y Microsoft Hyper-V Server. 
En el caso de VMware, en hipervisores como VMware Workstation Player y 
VMware Fusion y vSphere / ESXi usan un hipervisor de tipo 2 y las principales 
características son: 
● Cuenta con numerosas herramientas y funciones para entornos 
empresariales. 
● Permite compartir archivos fácilmente entre el host y el sistema 
virtualizado. 
● Es compatible con lectores de tarjetas inteligentes. 
● Permite crear instantáneas para restaurar el estado de una VM 
fácilmente. 
● Cuenta con una herramienta para compartir máquinas virtuales. 
El Hyper-V es un hipervisor desarrollado por Microsoft, de tipo 1 y tiene: 
● Entorno informático: una máquina virtual de Hyper-V incluye las mismas 
partes básicas que un equipo físico, como memoria, procesador, 
almacenamiento y redes. Todas estas partes tienen características y 
opciones que se pueden configurar según la necesidad de cada cliente. 
● Recuperación ante desastres y copia de seguridad: para la recuperación 
ante desastres, el Hyper-V crea copias de máquinas virtuales, diseñadas 
para almacenarse en otra ubicación física, de modo que pueda restaurar 
la máquina virtual desde la copia. 
● Optimización : cada sistema operativo compatible tiene un conjunto 
personalizado de servicios y controladores, denominados servicios de 
integración , que facilitan el uso del sistema operativo en una máquina 
virtual de Hyper-V. 
● Portabilidad : características como la migración en vivo, la migración de 
almacenamiento y la importación y exportación facilitan el traslado o la 
distribución de una máquina virtual. 
● Conectividad remota: Hyper-V incluye Conexión a máquina virtual, una 
herramienta de conexión remota para su uso con Windows y Linux. La 
herramienta de Escritorio remoto proporciona acceso a la consola, por lo 
que puede ver lo que sucede en el invitado. 
● Seguridad : el arranque seguro y las máquinas virtuales blindadas 
ayudan a protegerse contra malware y otros accesos no autorizados a 
una máquina virtual y sus datos. 
También existen algunas limitaciones en el Hyper-V como: 
● Problemas reproducibles en el sistema host: los posibles contratiempos 
que sufra la máquina física pueden presentarse también en las máquinas 
virtuales. 
● Incompatibilidad con otros programas para virtualizar. 
 
Citrix Hypervisor, antes conocido como Citrix XenServer es un hipervisor de 
tipo 1 con características como: 
 
12 
 
 
● Consolidación de varias máquinas virtuales (VM) en un servidor físico 
● Reducir la cantidad de imágenes de disco separadas que se 
administrarán 
● Permite una fácil integración con las infraestructuras de almacenamiento 
y redes existentes 
● Permite programar un mantenimiento sin tiempo de inactividad 
mediante la migración en vivo de máquinas virtuales entre hosts de Citrix 
Hypervisor 
● Asegura la disponibilidad de las VM mediante el uso de alta 
disponibilidad para configurar directivas que reinicien las VM en otro 
servidor en caso de que se produzca un error● Aumento de la portabilidad de las imágenes de VM, ya que una imagen 
de VM funciona en una variedad de infraestructuras de implementación 
Alternativa a las máquinas virtuales 
Una vez analizados los distintos entornos y programas para la virtualización con 
máquinas virtuales, analizaremos ahora, otras tecnologías. Veremos como 
alternativa para crear un cluster, el uso de contenedores. 
Los contenedores se usan para agrupar y aislar entre si aplicaciones o grupos 
de aplicaciones que se ejecutan sobre un mismo núcleo de sistema operativo. 
Aplicándolo a nuestro caso, y si queremos simular el entorno con contenedores, 
la estructura del cluster quedaría; una máquina física, una plataforma de 
virtualización y una maquina virtual con un sistema habilitado para alojar 
contenedores. En este caso, en vez de crear cuatro máquinas virtuales con 
cuatro sistemas operativos (como vamos a hacer en el presente trabajo) 
tendríamos solo un sistema operativo y encima, las diferentes aplicaciones de 
los nodos del cluster en distintos contenedores. 
Los contenedores y las máquinas virtuales tienen sus usos particulares, de 
hecho, muchas implementaciones de contenedores usan máquinas virtuales 
como sistema operativo host en lugar de ejecutarse directamente en el 
hardware[1]. Los beneficios de realizar el entorno con este sistema de 
contenedores serian: menos superficie de ataque, menos configuraciones y más 
movible ya que llevando el contenedor a otro entorno sigue funcionando sin 
necesidad de reinstalaciones. Podemos afirmar que si se requiere de mayor 
eficiencia y rendimiento se aplicarían contenedores, pero si precisamos de un 
entorno más seguro y aislado, como es nuestro caso, un cluster de máquinas 
virtuales sería lo recomendable. 
Al sistema de contenedores también se podría implementar los kubenetes para 
orquestar contenedores administrando las cargas de trabajo de los mismos y 
pudiendo escalar a varios servidores[2]. 
Algunos programas para crear contenedores y son Windows Server Container, 
Hyper-V Container y Docker, entre otros. 
 
 
 
 
13 
 
22.2 Análisis del sistema 
Para analizar el sistema que vamos a desarrollar vamos a enfocarnos en el 
software de virtualización y el sistema operativo que se usará. 
2.2.1 Software de virtualización 
Para la resolución del presente trabajo se usará el programa de virtualización 
de Hyper-V para crear las máquinas virtuales y que es con el que vamos a 
trabajar en todo momento. 
El Hyper V ofrece el necesario soporte para la virtualización por hardware, esto 
significa que cada equipo virtual que se ejecute correrá encima de un hardware 
virtual como un disco duro, tarjeta de red, CPU, memoria RAM, entre otros. 
Podemos ver su estructura en la siguiente imagen(Ilustración 3): 
 
 
Ilustración 3. Estructura Hyper-V 
 
Una vez se tengan creadas las máquinas virtuales, el usuario debe también 
poder administrarlas. El conjunto de herramientas de gestión que ofrece Hyper 
V permite, además: 
● Crear y eliminar máquinas virtuales. 
● Monitorear el tiempo de actividad, el uso del ancho de banda, consumo 
de CPU y RAM. 
● Efectuar copias de seguridad. 
● Asignar recursos. 
● Disponer de la herramienta de gestión adecuada es una de las principales 
claves para el éxito de la virtualización. 
En nuestro caso administramos las máquinas desde el System Center Virtual 
Machine Manager. 
Para la realización del presente proyecto se ha optado por el hipervisor Hyper-
V ya que el departamento donde se hace la implementación utiliza sistemas 
exclusivamente propios de Microsoft. 
 
14 
 
También hay que tener en cuenta los sistemas operativos cliente que proveen 
soportar Hyper V a los usuarios se mencionan a continuación(que en nuestro 
caso se trata de Windows 10): 
Windows 
● Windows 10 en 32 y 64 bits. 
● Windows 8/8.1 en 32 y 64 bits. 
● Windows 7/7 Service pack 1 en versiones de 32 y 64 bits. 
● Windows Vista Service Pack 2 compatible con Windows Server 
2016/2012R2/2012/2008 
Linux 
● Debian. 
● Ubuntu. 
● Oracle Linux. 
22.2.2 Sistema operativo 
El sistema operativo al igual que el software de virtualización, al pertenecer al 
grupo de soporte Microsoft de la compañía se usará el mismo que se usa en el 
resto de los servidores de la compañía, y es Windows Server 2019[3]. 
El sistema operativo de Windows Server 2019 es una distribución de Microsoft 
para el uso en servidores y tiene ventajas como la fácil administración, bastante 
documentación oficial para su fácil manejo y un aprendizaje sencillo. También 
proporciona un control administrativo integral sobre el almacenamiento de 
datos y permite compartir servicios entre múltiples usuarios. 
Las prestaciones que ofrece sobre herramientas de virtualización, la 
administración de recursos y la seguridad permiten a las empresas crear un 
centro de datos dinámico y optimizado. 
 
2.3 Análisis de requisitos 
Para la resolución del presente proyecto se han planteado los siguientes 
requisitos del entorno y será la planificación real que se llevará a cabo para 
desplegar las máquinas del cluster. 
2.3.1 Requisitos Hardware 
 
La razón por la cual se ha optado por las siguientes características hardware 
ha sido después de revisar Requisitos de hardware para Windows Server[4] de 
la página de Microsoft. Teniendo en cuenta que no tenemos restricciones 
hardware para la creación del sistema hemos añadido un extra a las 
características mínimas requeridas. 
 
 
15 
 
● Información de la máquina 1 
Controlador de dominio 
Nombre de la máquina: PFC-DC1 
IP:10.10.0.1 
MASCARA: 255.255.255.0 SIN GATEWAY 
Disco1(C): 60 GB de disco principal 
Disco2(P):10GB para la paginación 
Disco3(D): 5GB para logs 
Disco4(E): 5GB para base de datos de AD 
Procesador: 4 CPUs 
RAM: 4 Gb de RAM 
 
● Información de la máquina 2 
Primer nodo del Cluster 
Nombre de la máquina: PFC-CLU1 
IP:10.10.0.11 
MASCARA: 255.255.255.0 
DNS: 10.10.0.1 
Disco1(C): 60 GB de disco principal 
Disco2(P): 10GB para paginación 
Disco3(D): 1GB para quorum 
Disco4(E): 200GB para máquinas virtuales (Quórum y disco de 
máquinas virtuales son discos compartidos en hyperv) 
Procesador: 8 CPUs 
RAM: 16GB de RAM 
 
● Información de la máquina 3 
Segundo nodo del Cluster 
Nombre de la máquina: PFC-CLU2 
IP:10.10.0.12 
MASCARA: 255.255.255.0 
DNS 10.10.0.1 
Disco1(C): 60 GB de disco principal 
Disco2(P): 10GB para la paginación 
Disco3(D): 1GB para quorum 
 
Disco4(E): 200GB para máquinas virtuales (Quórum y disco de 
máquinas virtuales son discos compartidos en hyperv) 
Procesador: 8 CPUs 
RAM: 16GB de RAM 
 
 
● Información de la máquina 4 
Controlador de dominio 
Nombre de la máquina: PFC-VMM1 
 
16 
 
IP:10.10.0.21 
MASCARA: 255.255.255.0 
DNS 10.10.0.1 
Disco1(C): 60 GB de disco principal 
Disco2(P):10GB para la paginación 
Disco3(D): 50GB para los logs 
Disco4(E): 50GB para base de datos SQL 
Procesador: 4 CPUs 
RAM: 8 Gb de RAM 
 
En los discos para los logs vamos a guardar los ficheros que nos explican el 
comportamiento de nuestros sistemas o programas. Por otro lado, también hay 
que añadir el disco de paginación que se trata de una asignación en el disco 
duro que se comporta como memoria RAM virtual y es empleada por Windows 
para almacenar los procesos cargados en memoria actualmente y que superan 
el máximo de memoria RAM que tiene el sistema. 
Los discos de quórum de clúster son para almacenar la base de datos de 
configuración del clúster. 
 
 2.3.2 Requisitos Software 
 
El sistema operativo que se va a usar en cada máquina es Windows Server 2019 
puesto que es el sistema operativo del host físico y las licencias que heredan las 
máquinas después de la virtualización son gratuitas. La clave gratuita para la 
activación de las máquinas virtuales de Windows Server las proporciona 
Microsoft en su página web[5]. 
Una vez tenemos las máquinas instaladas con su respectivo hardware y sistema 
operativo, procedemos a la instalación de los roles y características necesariaspara el correcto funcionamiento del cluster. Dichas configuraciones las 
agregamos desde el administrador del servidor como podemos ver en la 
Ilustración 4. 
 
Ilustración 4. Administrador del servidor 
 
17 
 
Para las máquinas PFC-CLU1 y PFC-CLU2 el rol que vamos a añadir es Hyper-
V y la característica de cluster de conmutación por error[6]. 
Por otro lado, para PFC-DC1 los roles que vamos a instalar son Servidor DNS y 
servicios de dominio de Active Directory junto a la característica de 
Administración de directivas de grupo. En PFC-DC1 también se configuran los 
Servicios de Dominio de Active Directory. 
Por último, para PFC-VMM1 se dejan los roles y características por defecto, pero 
es donde se van a instalar los programas de SQL Server 2019 y System Center 
Virtual Machine Manager. 
 
 
18 
 
33 Desarrollo 
Una vez planteado el diseño se comenzará con la primera parte de la 
implementación. 
3.1 Instalación de máquinas 
El primer paso es la creación de las cuatro máquinas que va a tener nuestro 
entorno: PFC-CLU1, PFC-CLU2, PFC-DC1 y PFC-VMM1. Esto se realizará desde 
el Hyper-V Manager del servidor físico HYPERV[Ilustración 5]. Para ello, se elegirá 
una carpeta del directorio de HYPERV donde se van a instalar las máquinas, 
posteriormente se asigna la memoria destinada a cada máquina que se 
especificó en los requisitos y se elige la conexión de Red Pruebas Privada(Anexo 
IV). 
 
Ilustración 5. Hyper-V manager 
 
Una vez creadas las máquinas, se crean los respectivos discos que se habían 
descrito en los requisitos hardware[Ilustración 6] y se agrega el sistema operativo 
(que previamente se había instalado en un repositorio para posteriormente 
replicarlo) en el disco C de cada máquina. Una vez creados los discos desde las 
propiedades de la máquina de Hyper.V Manager, se tienen que asignar e 
inicializar en el Administrador de Discos dentro de cada máquina como vemos 
en la Ilustración 7. En el administrador de discos indicamos el tamaño del 
volumen simple que vamos a añadir, asignamos la letra de la unidad y etiqueta 
del volumen. 
 
 
 
 
19 
 
 
Ilustración 6. Creación del disco D de 50GB para los logs de la máquina PFC-VMM 
 
20 
 
 
Ilustración 7. Asignación e inicialización del disco D de 50GB para los logs de la máquina PFC-VMM 
 
33.2 Configuración de las máquinas 
Una vez se tengan las máquinas instaladas con el sistema operativo y los 
requisitos de hardware cumplidos, pasamos a la configuración de los equipos. 
El orden de configuración que se ha seguido es el siguiente: 
1. Cambio el nombre a los equipos[Anexo I] 
2. Configuración de la IP pública en las cuatro máquinas e IP privada de los 
dos nodos del cluster PFC-CLU1 y PFC-CLU2 [Anexo II], 
3. Configuración de los roles y características de cada máquina, en el Anexo 
III viene un ejemplo para la instalación de los roles y características de 
una de las máquinas. Para la instalación de los roles de Hyper-V y clúster 
de conmutación por error de las máquinas PFC-CLU1 y PFC-CLU2 se 
hace el mismo procedimiento. 
4. Creación de cluster de las máquinas PFC-CLU1 y PFC-CLU2 en el Anexo 
IV vienen los pasos. 
5. Añadimos las cuatro máquinas al dominio(Anexo V). 
6. Instalación de SQL Server 2019[7] en PFC-VMM1, en este paso 
instalamos el programa para la administración de las bases de datos, 
que en este caso es un gestor de base de datos relacionales. La clave del 
producto fue proporcionada por la empresa. Los pasos de la instalación 
están en Anexo VI. 
 
 
21 
 
7. Instalación de Microsoft SQL Server Management Studio[8] en PFC-
VMM1. Este programa es un entorno integrado para administrar 
cualquier infraestructura de SQL y los pasos están en el Anexo VII. 
8. Instalación de prerrequisitos para instalar SCVMM. 
Para el correcto funcionamiento de System Center Virtual Machine 
Manager, se requiere de la instalación de Microsoft Visual C++ ,que es 
un compilador para los lenguajes de programación C, C++ y C++ / CLI 
de Microsoft y es uno de los requisitos para poder usar SCVMM. 
El segundo requisito es la instalación de Windows Assessment and 
Deployment Kit que es un conjunto de herramientas que sirve para 
personalizar, evaluar e implementar sistemas operativos Windows en 
equipos nuevos. 
9. El último paso es la instalación de System Center Virtual Machine 
Manager que es donde vamos a probar nuestro sistema, los pasos los 
podemos ver en el Anexo VIII . 
 
Otras configuraciones intermedias que se han realizado entre los pasos 
anteriores fue habilitar la virtualización anidada en el servidor físico HYPERV 
para poder ejecutar el programa Hyper-V dentro de las máquinas virtuales PFC-
CLU1 y PFC-CLU2[9], esto lo hacemos desde el PowerShell y se muestra en la 
siguiente Ilustración 8. 
 
Ilustración 8. Enable nested virtualization 
 
 
22 
 
44 Pruebas del sistema 
Para realizar las pruebas del sistema se va a trabajar en el System Center 
Virtual Machine Manager de la máquina PFC-VMM1. El objetivo será configurar 
varias nubes con dos o tres máquinas y donde cada nube tendrá diferentes 
permisos para acceder a los recursos de la empresa dependiendo del rol de 
usuario proporcionado a cada nube. 
Vamos a crear un escenario donde hay dos departamentos, uno de Windows y 
otro de Linux, por lo que se requerirá una nube para cada departamento, con 
diferentes permisos de acceso. También se añadirá una tercera nube para 
Internet Information Server, será un servidor web extensible que provee un 
conjunto de servicios para sistemas operativos Windows. Para tener una visión 
conceptual, las nubes quedarían como en la Ilustración 9. 
 
Ilustración 9. Nubes en SCVMM 
 
Antes de crear las máquinas(de la Ilustración 9) en el SCVMM para las pruebas, 
se va a crear una plantilla con nombre VM-BASE (Ilustración 10) para poder usar 
de base y así crear las máquinas de manera más rápida y sencilla. En la plantilla 
se configura el hardware, el sistema operativo y las redes que van a tener las 
máquinas creadas a partir de dicha plantilla. 
 
23 
 
 
Ilustración 10. Plantilla VM BASE 
 
También se agrega el cluster PFC-CLUSTER con las dos máquinas PFC-CLU1 y 
PFC-CLU2, y se configura una red lógica[10] para poder asignarla a una red 
física[11]. Esto se implementa en el tejido de VMM y le ponemos el nombre de 
VM_NET (este paso lo hacemos para poder crear una red física), las redes en las 
máquinas virtuales se basan en redes lógicas que proporcionan una interfaz 
para la conexión a una red física[Ilustración 11]. 
 
Ilustración 11. Configuración redes lógicas 
Teniendo una red lógica se procede a crear redes de VM que se asignan a sitios 
de red que existen dentro de sus redes físicas(Ilustración 12 ). 
 
24 
 
 
Ilustración 12. Red de VM 
Una vez teniendo una plantilla base y configurada la red lógica y física, podemos 
crear las nubes. 
Creamos las tres nubes mencionadas IIS_VMM, UNIX_VMM y WINDOWS_VMM. 
Al crear cada nube indicamos el grupo de host, la red lógica, la biblioteca y la 
capacidad de cada nube. 
Ahora se crean los roles de usuario para poder asignarlos a cada nube, esto nos 
va a permitir especificar lo que los usuarios pueden hacer en el entorno de 
VMM(Ilustración 13). En el rol de IIS asignamos como tipo de perfil Administrador 
de inquilinos lo que permite crear, implementar y administrar servicios propios 
y máquinas virtuales a través de la consola de VMM. El segundo rol es de UNIX 
que se le ha asignado el rol de Administrador delegado en el cual se puede 
realizar todas las tareas en objetos dentro del ámbito, pero no pueden modificar 
la configuración de VMM ni modificar el rol de usuario administrador. Por 
último, al rol de WINDOWS se le ha asignado el perfil de Administrador de solo 
lectura con el cual se puede ver las propiedades, estados, las nubes y los 
servidores de la biblioteca. 
 
25 
 
 
Ilustración 13. Roles de usuario en VMM 
 
Una vez teniendo todo lo necesario configurado, se procede a crear algunas 
máquinaspara cada nube. Para crear dichas máquinas ejecutaremos un script 
desde el PowerShell ISE (Ilustración 14) en la máquina PFC-VMM1. Para ejecutar 
el script se crea un archivo de texto con los nombres de las máquinas, se usa 
la plantilla creada previamente y se elige el cluster donde se van a albergar las 
máquinas(si cae el cluster donde se alberga la máquina, se hará cargo el otro 
cluster de dicha máquina). La nube se asigna a cada máquina cuando está 
creada, desde propiedades. 
 
 
Ilustración 14. Script para la creación de máquinas 
Finalmente, podemos ver las máquinas creadas, disponibles y en ejecución en 
la Ilustración 15, preparadas para hacer la migración de los servicios de la 
empresa NUEVA NEVADA SL. 
 
26 
 
 
Ilustración 15. Máquinas en ejecución 
 
 
27 
 
55 Análisis de impacto sobre la Sostenibilidad 
 
Para la realización del presente proyecto, se ha optado por un entorno con 
servidores virtuales ya que estos ayudan a las empresas a poder almacenar y 
gestionar sus recursos sin necesidad de invertir en una infraestructura física, 
esto supone una reducción de costes. Las soluciones de virtualización[12] 
aparte de reducir los costos económicos, también reducen la emisión de dióxido 
de carbono y el consumo energético. Otra medida de la virtualización es la 
automatización de desconexión de los servidores y ordenadores durante los 
períodos de inactividad, como por la noche o los fines de semana lo que se 
traduce en un decremento del consumo energético. 
En el contexto de este trabajo se tiene una infraestructura de servidor 
físico(HYPERV) que alberga hosts virtuales siendo alguno de ellos PFC-CLU1, 
PFC-CLU2,PFC-DC1 y PFC-VMM1, los cuales usamos para implementar la 
solución de este sistema. Esta infraestructura física la gestiona una empresa 
externa. Dicha empresa cubre un 90% del consumo energético con energía 
renovable en sus centros de datos, y se enfocan en la eficiencia energética. 
También promueve políticas de energía con bajas emisiones de carbono, 
comparte conocimientos sobre la adquisición de energía renovable y fomenta la 
innovación. 
Teniendo en cuenta estos detalles del entorno podemos afirmar que hemos 
contribuido a algunos de los objetivos de desarrollo sostenible como energía 
asequible y no contaminante puesto que la mayor parte de la energía utilizada 
por la empresa es renovable. El consumo y la producción responsable ya que 
no hace falta producir hardware adicional y por último acción por el clima por 
la reducción de producción de dióxido de carbono y otros gases que producen 
el efecto invernadero. 
Por motivos de privacidad de la empresa donde se realiza el proyecto, no se va 
a dar el nombre de la empresa externa que gestiona la infraestructura. 
 
 
28 
 
66 Resultados y conclusiones 
 
Remontándonos a las necesidades descritas en el resumen, podemos concluir 
que hemos cumplido en satisfacer dichas necesidades creando el entorno con 
éxito para poder simular en el futuro la migración del sistema, de la nueva 
empresa adquirida y así, gestionar las dos empresas de manera simultánea. 
Habiendo visto las diferentes posibilidades de implementación del entorno como 
es el uso de contenedores a través de los kubernetes, finalmente se ha optado 
por el cluster de maquinas virtuales usando el programa hipervisor de Hyper-V 
para su virtualización ya que ofrece un entorno más seguro y aislado. 
El proceso de desarrollo principalmente esta dividido en la instalación de las 
maquinas con los requisitos hardware planteados y la configuración de cada 
una de las maquinas siguiendo los requisitos software descritos. 
Con todo instalado y configurado se ha podido desplegar las máquinas virtuales 
desde el System Center Virtual Machine Manager, dichas maquinas simularían 
el entorno donde se migraría el sistema de la empresa NUEVA NEVADA SL. Para 
las pruebas del despliegue de las maquinas, hemos creado siete maquinas 
distintas con su propio sistema operativo y funcionado. Las distintas maquinas 
se encuentran repartidas en tres nubes con su correspondiente rol de usuario 
y con sus respectivos permisos dependiendo de sus necesidades. 
Como futuro trabajo que se podría haber implementado, pero no se ha hecho 
debido a la escasez del tiempo, es la simulación de la propia migración del 
sistema de la empresa NUEVA NEVADA SL al entorno de INVESTUM que 
finalmente se ha quedado en una preparación del posible entorno. 
Algunas posibles mejoras que se pueden realizar en este trabajo de fin de 
carrera es implementar el sistema con contenedores y poder comparar el 
rendimiento de la implementación actual con algún tipo de benchmark. 
Para poder realizar este trabajo se ha requerido principalmente conocimientos 
de algunas de las asignaturas cursadas en la carrera como Redes de 
Computadores para poder crear el dominio y configurar la tarjeta de red(IPs 
públicas y privadas), Administración de sistemas para poder manejar entornos 
Windows, Bases de Datos para la configuración de SQL Server, Proyecto de 
instalación informática para comprender las instalaciones informáticas, sus 
estándares y normativas y poder relacionarlo con la sostenibilidad. Con esto 
puedo concluir que he puesto en práctica la teoría de bastantes asignaturas y 
he podido relacionarlo con el entorno laboral. 
 
 
29 
 
77 Bibliografía 
 
[1]https://docs.microsoft.com/es-es/virtualization/windowscontainers/about/containers-
vs-vm (Contenedores frente a máquinas virtuales) 
[2]https://azure.microsoft.com/es-es/topic/kubernetes-vs-docker/ (Kubernetes o Docker) 
[3] https://www.microsoft.com/es-es/windows-server/trial (Descarga Sistema operativo) 
[4]https://docs.microsoft.com/es-es/windows-server/get-started/hardware-requirements 
(Requisitos sistema para instalación de Windows Server 2019) 
[5]https://docs.microsoft.com/es-es/windows-server/get-started/automatic-vm-
activation (clave activación licencia) 
[6]https://docs.microsoft.com/es-es/windows-server/failover-clustering/create-failover-
cluster#verify-the-prerequisites (Requisitos cluster) 
[7]https://www.microsoft.com/es-es/sql-server/sql-server-2019 (SQL Server 2019) 
[8]https://docs.microsoft.com/es-es/sql/ssms/download-sql-server-management-studio-
ssms?view=sql-server-ver16 (Descarga de SQL Server Management Studio) 
[9]https://docs.microsoft.com/es-es/virtualization/hyper-v-on-windows/user-
guide/nested-virtualization (Habilitar Nested Virtualization) 
[10]https://docs.microsoft.com/es-es/system-center/vmm/network-logical?view=sc-
vmm-2022 (Redes Lógicas) 
[11]https://docs.microsoft.com/es-es/system-center/vmm/manage-networks?view=sc-
vmm-2022 (Configurar el tejido de red de VMM) 
[12]https://web.archive.org/web/20091007205439/http://www.madrimasd.org/informaci
onidi/biblioteca/publicacion/doc/VT/VT19_green_IT_tecnologias_eficiencia_energetica
_sistemas_TI.pdf (green IT: tecnologías para la eficiencia energética en los sistemas TI) 
 
 
 
30 
 
88 Anexos 
 
A continuación, se adjuntan los anexos en los cuales viene expuesta la 
configuración y la forma de instalar el software utilizado. 
 
Anexo I. Configuración del nombre de las máquinas 
Cambiamos el nombre de los equipos en configuraciones avanzadas. Se repite 
en las cuatro máquinas. 
 
 
Anexo II. Configuración IP. 
Configuramos la IP pública a la máquina PFC-VMM1 en conexiones de red. El 
proceso se repetirá para las 4 máquinas, pero solo se mostrará para una 
máquina. De la misma manera configuraremos la IP privada para la 
Comunicación de las máquinas PFC-CLU1 y PFC-CLU2 dentro del cluster. 
 
31 
 
 
AAnexo III. Agregar roles y características a las máquinas. 
Instalación en PFC-DC1 de los roles Servidor DNS y servicios de dominio de 
Active Directory. También añadimos la característica de Administración de 
directivas de grupo desde el administrador del servidor. 
 
Seleccionamos la instalación basada en características o roles. 
 
 
32 
 
 
 
Seleccionamos servidor donde se instalarán los roles, eneste caso es 
PDC-DC. 
 
 
 
 
 
33 
 
Seleccionamos el rol de Servidor DNS y Servicios de dominio de Active 
Directory, los demás roles vienen por defecto. 
 
 
 
Agregamos Administración de directivas de grupo como característica. 
 
Especificaciones de Servidor DNS. 
 
34 
 
 
Confirmación de las selecciones. 
 
 
Se termina la instalación. 
 
35 
 
 
 
 
AAnexo IV. Creación del cluster 
Una vez instalada la característica de Cluster de conmutación por error en las 
maquinas PFC-CLU1 y PFC-CLU2 , entramos en el administrador de clústeres 
de conmutación por error y creamos nuestro cluster con las máquinas PFC-
CLU1 y PFC-CLU2. El nombre del cluster será PFC-CLUSTER. 
 
Seleccionamos los servidores que estarán dentro del cluster. 
 
 
36 
 
Ejecutamos todas las pruebas para asegurar un correcto funcionamiento. 
 
 
 
Confirmación de las configuraciones. 
 
Se valida la configuración y el resultado aparece como correcto 
 
37 
 
 
Se asigna el nombre y la dirección IP al cluster. 
 
Confirmación de las opciones elegidas. 
 
38 
 
 
Resumen de la finalización 
 
AAnexo V. Añadimos maquina al dominio 
En las siguientes capturas vamos a ver el proceso para añadir la máquina 
PFC-VMM1 al dominio PFC. Este proceso se repetirá en cada una de las 
máquinas. 
 
39 
 
 
 
40 
 
 
 
 
AAnexo VI. Instalación de SQL Server 2019 
 
Microsoft SQL Server lo usaremos para almacenar toda la información de la 
empresa en bases de datos relacionales, como también para administrar dichos 
datos sin complicaciones. 
 
41 
 
 
 
Usamos la clave del producto proporcionada por nuestra empresa. 
 
Aceptamos los términos de la licencia. 
 
42 
 
 
 
No marcamos la casilla de actualizaciones automáticas para no tener 
imprevistos. 
 
 
 
Se comprueba que tenemos el setup correcto por lo que se puede proceder a la 
instalación. 
 
43 
 
 
 
Marcamos las características que vamos a necesitar que en este caso dejamos 
las que vienen por defecto. 
 
 
Creamos una única instancia, que es la que usaremos para conectarnos desde 
SQL Server Management Studio. 
 
44 
 
 
Microsoft ya proporciona la configuración de servidor más recomendada. 
 
 
Elegimos el español como idioma predeterminado. 
 
45 
 
 
Creamos la contraseña de administrador para la base de datos. 
 
 
 
Elegimos la ruta para cada directorio. 
 
46 
 
 
 
 
 
 
 
47 
 
 
Se verifica la configuración seleccionada. 
 
 
Comienza la instalación. Termina con exito. 
 
48 
 
 
 
AAnexo VII. Instalación de management studio 
Instalamos la interfaz para el SQL Server. Elegimos la localización de la 
instalación y reiniciamos el equipo para completar la instalación. 
 
 
 
49 
 
 
 
AAnexo VIII. Instalación de System Center Virtual Machine Manager 
 
Comenzamos configurando las características antes de su instalación 
 
 
 
50 
 
 
a 
Por defecto viene el servidor de administración VMM pero seleccionamos 
también la consola VMM para poder tener una interfaz de gestión. 
 
 
51 
 
Añadimos la información y la clave del producto proporcionada por la empresa 
donde se realiza el proyecto. 
 
 
Aceptamos los términos de licencias. 
 
 
52 
 
 
Información de recopilación de datos que viene por defecto 
 
 
 
Desactivamos las actualizaciones automáticas para evitar posibles 
interrupciones durante la implementación del proyecto. 
 
53 
 
 
 
Seleccionamos la carpeta donde vamos a guardar el programa que por defecto 
se guarda en Program Files. 
 
Configuramos la base de datos y el usuario administrador. 
 
54 
 
 
 
 
Configuramos la cuenta de dominio. 
 
55 
 
 
 
Dejamos los puertos por defecto. 
 
 
56 
 
Configuramos biblioteca. 
 
Resumen previo a la instalación de las características elegidas. 
 
 
 
57 
 
Comienzo de instalación. 
 
 
Vemos que la instalación terminó sin fallos y que podemos arrancar el 
programa. 
 
58 
 
 
Finalmente así queda la interfaz del programa. 
 
 
AAnexo IX. Instalación de la máquina PFC-DC1. 
Se procede a hacer la instalación en el Hyper-V Manager de la máquina PFC-
DC1, de la misma manera se haría con las máquinas PFC-CLU1, PFC-CLU2 y 
PFC-VMM1. 
 
Ponemos el nombre a la máquina y su localización en el host físico HYPERV. 
 
59 
 
 
Seleccionamos la generación 2 ya que es la versión más actualizada de 
máquina virtual. 
 
 
 
60 
 
Especificamos la memoria que le queremos asignar a la máquina virtual. 
 
Configuramos el tipo de conexión. 
 
Elegimos asignar un disco a la máquina más adelante. 
 
61 
 
 
Resumen de las características. 
 
 
Este documento esta firmado por
Firmante CN=tfgm.fi.upm.es, OU=CCFI, O=ETS Ingenieros Informaticos -
UPM, C=ES
Fecha/Hora Thu Jun 02 17:21:24 CEST 2022
Emisor del
Certificado
EMAILADDRESS=camanager@etsiinf.upm.es, CN=CA ETS Ingenieros
Informaticos, O=ETS Ingenieros Informaticos - UPM, C=ES
Numero de Serie 561
Metodo urn:adobe.com:Adobe.PPKLite:adbe.pkcs7.sha1 (Adobe
Signature)

Continuar navegando