Logo Studenta

SEGUNDO TRABAJO DE LP3

¡Estudia con miles de materiales!

Vista previa del material en texto

“AÑO DE LA UNIVERSALIZACIÓN 
DE 
LA SALUD” 
 
Tema: Computación de Alto Rendimiento. 
 
Curso: Lenguaje de Programación III 
 
Facultad: Ing. De Sistemas e informáticas. 
 
Profesor: Ing. Roque Pizango Tapullima. 
 
Institución: Universidad Nacional de la Amazonia Peruana 
 
Alumno: 
➢ Obregón Ríos Jhunior Isaías 
 
 
 
 
 
 
 
Iquitos-Perú 
2020 
COMPUTACIÓN DE ALTO PRESTACIONES. 
En la computación de altas prestaciones se trata de sacar el máximo partido a 
los sistemas computacionales que existen actualmente, con el objetivo de 
resolver problemas cuyas necesidades computacionales sobrepasan las de un 
sólo ordenador. 
El campo de computación de alto rendimiento (High performance Computing 
o HPC en inglés) es una herramienta muy importante en el desarrollo de 
simulaciones computacionales a problemas complejos. Para lograr este objetivo, 
la computación de alto rendimiento se apoya en tecnologías computacionales 
como los clusters, supercomputadores o mediante el uso de la computación 
paralela. La mayoría de las ideas actuales de la computación distribuida se han 
basado en la computación de alto rendimiento. 
La computación distribuida o informática en malla es un nuevo modelo para 
resolver problemas de computación masiva utilizando un gran número de 
ordenadores organizados en clústeres incrustados en una infraestructura de 
telecomunicaciones distribuida. 
La computación distribuida o informática en malla es un nuevo modelo para 
resolver problemas de computación masiva utilizando un gran número de 
ordenadores organizados en clústeres incrustados en una infraestructura de 
telecomunicaciones distribuida. 
 
INFRAESTRUCTURA DEL SERVICIO DE 
COMPUTACIÓN DE ALTAS PRESTACIONES. 
El servicio dispone de distintas máquinas con configuraciones adaptadas a 
distintos escenarios y necesidades computacionales. 
Se ofrece una infraestructura de última generación al servicio de 
supercomputación. Consiste en una máquina de memoria distribuida compuesta 
por nodos de gran capacidad computacional, equipada con unidades adicionales 
de procesamiento gráfico. Este nuevo clúster de cómputo pone a disposición de 
los usuarios grandes capacidades de almacenamiento y de cómputo. 
 
 
 
 
 
 
 
 
 
APLICACIONES DE HPC. 
La computación de alto rendimiento (HPC) es un término amplio que en su 
núcleo representa aplicaciones intensivas de cómputo que necesitan 
aceleración. Los usuarios de los sistemas de aceleración de aplicaciones van 
desde imágenes médicas, operaciones financieras, el petróleo y el gas de 
caducidad, a la biociencia, almacenamiento de datos, seguridad de datos, y 
muchos más. En la era de la información, la necesidad de que la aceleración del 
proceso de datos está creciendo de manera exponencial y los mercados que 
despliegan HPC por sus aplicaciones están creciendo cada día. La expansión 
HPC está siendo impulsado por el coprocesador, que es fundamental para el 
futuro de HPC 
TÉCNICAS SERVICIO DE COMPUTACIÓN DE 
ALTAS PRESTACIONES. 
 En el ámbito de la supercomputación se utilizan distintas técnicas 
computacionales de alto rendimiento que incluyen multiprocesadores (memoria 
compartida), multicomputadoras (memoria distribuida), procesadores gráficos 
(GPUs), cloud computing y computación grid. 
El servicio de supercomputación pone a su disposición personal altamente 
cualificado en cualquiera de estas técnicas que proporcionará el asesoramiento 
y apoyo técnico necesario para la elección de la mejor alternativa y su 
implementación más eficiente. 
 
APLICACIONES SERVICIO DE COMPUTACIÓN 
DE ALTAS PRESTACIONES. 
Nuestro equipo está especializado en la computación de altas prestaciones 
aplicada en distintas áreas científicas y tecnológicas destacando: 
➢ Computación de altas prestaciones 
Multicore, GPGPU, Clusters de multicore, computación distribuida, Grid y 
Cloud 
 
➢ Algoritmos de procesamiento de imagen 
o Tomografía Electrónica 3D 
o Reconstrucción Holográfica Digital y Tomografía Óptica 
o Codificación compresión y transmisión de imágenes y vídeo 
o Sistemas de Inspección Visual Automatizados 
 
➢ Optimización Global y Multi-objetivo 
o Computación evolutiva 
o Algoritmos de búsqueda exhaustiva 
 
➢ Modelado y resolución de sistemas 
o Computación matricial de sistemas dispersos 
o Computación de grandes matrices densas 
 
➢ Seguridad de las comunicaciones 
o Protocolos de comunicación cifrada en Internet 
GLOBUS 
La herramienta Globus ha emergido como el estándar de facto para la capa 
intermedia (middleware) de la malla. Globus tiene recursos para manejar: 
La gestión de recursos(Protocolo de Gestión de Recursos en Malla o Grid 
Resource Management Protocol) 
Servicios de Información (Servicio de Descubrimiento y Monitorización o 
Monitoring and Discovery Service) 
Gestión y Movimiento de Datos (Acceso Global al Almacenamiento Secundario, 
Global Access to secondary Storage y FTP en malla, GridFTP) 
La mayoría de mallas que se expanden sobre las comunidades académicas y de 
investigación de Globus Toolkit como núcleo de la capa intermedia. 
 
 
 
XML 
Los servicios web basados en XML ofrecen una forma de acceder a diversos 
servicios/aplicaciones en un entorno distribuido. Recientemente, el mundo de la 
informática en malla y los servicios web caminan juntos para ofrecer la malla 
como un servicio web. La arquitectura está definida por la Open Grid Services 
Architecture (OGSA). La versión 3.0 de Globus Toolkit, que actualmente se 
encuentra en fase alfa, será una implementación de referencia acorde con el 
estándar OGSA. 
Las mallas ofrecen una forma de resolver grandes retos, como el plegamiento 
de las proteínas y descubrimiento de medicamentos, modelización financiera, 
simulación de terremotos, inundaciones y otras catástrofes naturales, 
modelización del clima/tiempo, etc. Ofrecen un camino para utilizar los recursos 
de las tecnologías de la información de forma óptima en una organización. 
COMPUTACIÓN DE CICLOS REDUNDANTES. 
El modelo de computación de ciclos redundantes, también conocido como 
computación zombi, es el empleado por aplicaciones como Seti@Home, 
consistente en que un servidor o grupo de servidores distribuyen trabajo de 
procesamiento a un grupo de computadoras voluntarias a ceder capacidad de 
procesamiento no utilizada. Básicamente, cuando dejamos nuestro ordenador 
encendido, pero sin utilizarlo, la capacidad de procesamiento se desperdicia por 
lo general en algún protector de pantalla, este tipo de procesamiento distribuido 
utiliza nuestra computadora cuando nosotros no la necesitamos, aprovechando 
al máximo la capacidad de procesamiento. 
CLUSTERING 
Otro método para crear sistemas de supercomputadoras es el clustering. Un 
cluster o racimo de computadoras consiste en un grupo de computadoras de 
relativo bajo costo conectadas entre sí mediante un sistema de red de alta 
velocidad (gigabit de fibra óptica por lo general) y un software que realiza la 
distribución de la carga de trabajo entre los equipos. Por lo general, este tipo de 
sistemas cuentan con un centro de almacenamiento de datos único. Los clusters 
tienen la ventaja de ser sistemas redundantes, al estar fuera de servicio el 
procesador principal el segundo se dispara y actúa como un Fail Over. 
GRID 
La computación en grid o en malla es un nuevo paradigma de computación 
distribuida en el cual todos los recursos de un número indeterminado de 
computadoras son englobados para ser tratados como un único superordenador 
de manera transparente. 
Estas computadoras englobadas no están conectadas o enlazadas firmemente, 
es decir no tienen por qué estar en el mismo lugar geográfico. Se puede tomar 
como ejemplo el proyecto SETI@Home, en el cual trabajan computadoras 
alrededor de todo el planeta para buscar vida extraterrestre. 
 
SEGURIDAD 
El punto de la seguridad es delicado en este tipo de computación distribuida pues 
las conexiones se hacen de forma remota y no local, entonces suelen surgirproblemas para controlar el acceso a los otros nodos. Esto puede aprovecharse 
para un ataque de DoS, aunque la red no va a dejar de funcionar porque uno 
falle. Esa es una ventaja de este sistema grid. 
TOLERANCIA A FALLOS 
Los clusters presentan una redundancia física intrínseca debido a la existencia 
de numerosos nodos de cómputo, que puede ser utilizada para el empleo de 
tolerancia a fallos. La ocurrencia de fallo en algún nodo procesador no tiene que 
significar necesariamente la interrupción del suministro del servicio. Una solución 
posible para esto es que el sistema sea reconfigurado, utilizando solamente los 
nodos disponibles. Con el objetivo de aumentar la garantía de funcionamiento de 
los clusters, son esenciales, técnicas de prevención de fallos, detección de 
errores, diagnóstico, recuperación y reconfiguración. 
Es necesario definir una arquitectura que permita ejecutar aplicaciones paralelas 
que requieren HP, HA y HT. Esta arquitectura debe garantizar que se realice la 
ejecución eficiente de una aplicación paralela cuando se utiliza un entorno con 
un elevado número de nodos, durante un largo período de tiempo. Por otro lado, 
es necesario considerar que la probabilidad de fallo aumenta, y puede llegar a 
ocurrir que el fallo ocasione la pérdida total del trabajo realizado. Un Clúster de 
alta disponibilidad intenta mantener en todo momento la prestación de servicio 
encubriendo los fallos que se pueden producir. Por lo tanto para proveer HA es 
necesario utilizar técnicas de tolerancia a fallos que permitan garantizar 
(confiabilidad o garantía de servicio) Fiabilidad (Reliability), Disponibilidad 
(Availability) y Facilidad de mantenimiento (Serviceability) del sistema. La 
disponibilidad de un sistema se puede ver afectada por diferentes averías de sus 
componentes, a pesar de utilizar componentes cotidianos sin características 
especiales de fiabilidad nos interesa disponer de un sistema fiable.

Continuar navegando