Logo Studenta

SISTEMAS OPERATIVOS - Resumen de libro

¡Este material tiene más páginas!

Vista previa del material en texto

SISTEMAS OPERATIVOS
Tarea 1: Lectura Resumen y Test de Conocimientos
Introducción
El libro "Sistemas operativos y aplicaciones informáticas" de Moreno Pérez, nos brinda conocimiento sobre los conceptos básicos de los sistemas operativos y su relación con las aplicaciones informáticas. El autor explica que un sistema operativo es un programa que actúa como intermediario entre el usuario y el hardware de la computadora, permitiendo la gestión de recursos, la ejecución de aplicaciones y el control del sistema. El autor destaca la importancia de los sistemas operativos para el funcionamiento de las aplicaciones informáticas y describe los tipos de aplicaciones que pueden ejecutarse en un sistema operativo, desde aplicaciones de usuario hasta aplicaciones de sistema y de tiempo real.
Contenido
Introducción	1
CAPÍTULO 1.	3
CONCEPTOS DE ORDENADORES Y SERVIDORES DE PROPÓSITO GENERAL	3
Velocidad del bus	4
TIPOS DE MÓDULOS DE MEMORIA	5
Módulos DIMM-DDR	6
DISCOS DUROS Y UNIDADES SSD	6
LOS PROCESADORES ACTUALES	6
TIPOS DE PERIFÉRICOS	6
LA CONTROLADORA DE LOS PERIFÉRICOS	7
EL DRIVER	7
EL ENSAMBLADOR Y EL LENGUAJE MÁQUINA	7
LA EJECUCIÓN DE INSTRUCCIONES MÁQUINA	7
TEST DE CONOCIMIENTOS	8
CAPÍTULO 2.	10
SISTEMAS OPERATIVOS	10
Sistemas de archivos con journaling	13
Multiproceso, multitarea y multiusuario	13
Organización de usuarios	14
Gestionar usuarios y grupos en Linux	15
Los permisos en Linux:	16
La cuenta de administrar o superusuario	17
¿Cuándo deben deshabilitarse las cuentas?	17
PARTICIONAMIENTO LÓGICO Y NÚCLEOS VIRTUALES	17
TEST DE CONOCIMIENTOS	19
CAPÍTULO 1.
CONCEPTOS DE ORDENADORES Y SERVIDORES DE PROPÓSITO GENERAL 
Todo ordenador se puede contemplar desde dos aspectos: su descripción física (cómo es físicamente, analizando los componentes que lo constituyen así como los elementos de interconexión) y su descripción funcional (funciones de sus componentes, cómo interactúan unos con otros, reglas o normas de comunicación, etc.).
Desde el punto de vista funcional, el elemento central del hardware de un ordenador es la UCP o Unidad Central de Proceso, de forma que su arquitectura determina el comportamiento funcional de dicho sistema. El modelo básico de arquitectura empleada en los computadores digitales fue establecido en 1946 por John Von Neumann. 
Este modelo era capaz de ejecutar una serie de instrucciones elementales, que denominó instrucciones máquina, que deben estar almacenadas en la memoria principal con el programa almacenado para poder ser leídas y ejecutadas. El que se pudieran ejecutar diferentes programas hacía que este tipo de máquinas fuesen llamadas de propósito general. 
La unidad de entrada/salida llevaba a cabo la transferencia de información a través de canales asociados a dichas unidades externas, que podían estar formadas por memorias auxiliares o secundarias, que servían de soporte de almacenamiento de gran capacidad, y otras, llamadas “periféricos”, que permitían la comunicación entre el sistema y el medio exterior mediante la carga de datos y programas en la memoria principal o la presentación de resultados, en aquel momento, impresos. 
El microprocesador es la parte más importante de un equipo informático. Se suele denominar micro o CPU (Central Proccess Unit, unidad central de proceso), aunque a veces se suele denominar CPU a la caja que contiene la placa, el micro, la memoria y demás componentes. 
Un microprocesador está compuesto por millones de transistores dentro de un circuito integrado. Los microprocesadores han ido evolucionando a lo largo de la historia incluyendo más chips en la placa de silicio y más núcleos en menos espacio. 
Velocidad del bus 
El bus que comunica el microprocesador con el Northbridge se denomina Front Side Bus (FSB) en los microprocesadores Intel o FSB Hipertransport (HTT), Lightning Data Transport (LDT) o simplemente hipertransport en procesadores AMD®. 
La velocidad del bus viene dada por el ancho del bus (64 bits normalmente) y la velocidad del mismo en MHz. Además, la velocidad del bus del microprocesador suele estar relacionada con la de otros buses como el de memoria, PCI y PCI Express o AGP.
La memoria caché, al ser más rápida que la memoria RAM, acelera el rendimiento dado que almacena los datos que se prevé que más se van a usar. Existen varios tipos de caché: 
L1 o primaria de nivel 1. Están integradas en el núcleo del microprocesador y funcionan a la máxima velocidad. 
L2 y L3 o de nivel 2 y 3. Conectadas al micro mediante el back side bus (bus trasero), el cual es más rápido que el bus frontal. Pueden estar implementadas en el núcleo, encapsuladas o ser externas. La caché L2 es más lenta que la L1, y la L3 que la L2.
Los microprocesadores se fabrican utilizando técnicas más complejas que la fabricación de otros circuitos integrados más simples. El proceso consiste en depositar en una oblea o lámina de silicio una serie de materiales conductores, aislantes y semiconductores en forma de bocadillo para lograr así el deseado microprocesador.
El procesador es todo un complejo universo en sí mismo y, aunque los primeros modelos eran comparativamente muy similares, con su evolución se han ido desarrollando distintos diseños que han afectado a numerosos elementos, siendo de destacar las diferentes tendencias desarrolladas asociadas al juego de instrucciones que empleaban. Podemos decir que frente a esta cuestión caben dos filosofías de diseño: las denominadas arquitecturas CISC y RISC.
La arquitectura CISC (Complex Instruction Set Computer), que ya se daba en los primeros diseños de UCP, se caracterizaba por disponer de un grupo amplio de instrucciones complejas y potentes. El ordenador era más potente a medida que era más amplio su repertorio de instrucciones. 
Para ejecutar una tarea se necesitan más instrucciones en RISC que en CISC, ya que en RISC las instrucciones son más elementales. Pero el hecho de disponer hoy de memorias tan rápidas y buses de alta velocidad hace que existan diversos mecanismos, como el llamado “pipeline”, para que se lleguen incluso a solapar varias instrucciones en un mismo ciclo.
TIPOS DE MÓDULOS DE MEMORIA	
De más antiguos a más nuevos: DIP, SIP, SIMM y RIMM.
Módulos DIMM-DDR 
Los hay de cuatro tipos los cuales contienen el tipo de memoria correspondiente: 
DIMM-SDR. Obsoleto. 168 pines. Utiliza memoria SDRAM
DIMM-DDR. Este tipo de memoria comienza a quedarse obsoleto. Tiene 184 pines. Figura 1.20. Módulo DIMM de memoria
DIMM-DDR2. Tiene 240 pines. Los módulos DIMM-DDR2 no son compatibles con los DIMM-DDR dada la diferencia de pines, aunque sí son compatibles con módulos DIMM-DDR2 más lentos.
DIMM-DDR3. Aunque tienen también 240 pines como el anterior no son compatibles entre sí al tener la muesca de posicionamiento en un lugar diferente. Las memorias DDR3 en prestaciones son superiores a las DDR2 porque mejoran la velocidad de transferencia aunque aumentan el tiempo de latencia.
DISCOS DUROS Y UNIDADES SSD
El sistema operativo y los programas necesitan estar en memoria para ejecutarse. No es posible ejecutar un programa si no está en memoria central o RAM. La memoria RAM es volátil, esto quiere decir que cuando se deja de suministrar energía eléctrica a la misma esta pierde su información. Dada esta situación se necesita algún dispositivo como discos duros, unidades SSD, CD, DVD…
Los dispositivos de almacenamiento definitivo de información en un equipo más importantes son:
Disco duro: Son los más utilizados en la actualidad. Utilizan tecnología magnética.
Unidad SSD: Es la evolución de los discos duros. Los discos duros tienen partes mecánicas y partes electrónicas, mientras que las unidades SSD solamente utilizan partes electrónicas lo que hace que sean más silenciosas y generen menos calor. Son ideales para portátiles y equipos de reducidas dimensiones.
LOS PROCESADORES ACTUALES
Actualmente, los procesadores que imperan en sobremesas y portátiles son los Core i de Intel. Intel comenzó reintroduciendo su tecnología Hyper-Threading y haestado evolucionando continuamente sus micros. Los mismos pasos han hecho otras compañías como AMD con sus APU, las cuales intentan compararse en rendimiento y prestaciones a las de Intel.
TIPOS DE PERIFÉRICOS
En el periférico la información se transforma. Por ejemplo en un disco las señales magnéticas se transforman en impulsos eléctricos y en una impresora pasarán cosas parecidas, se transformará en caracteres, puntos, etc. El sistema operativo es un intermediario, es el encargado de recibir y enviar esta información desde y hasta el periférico y almacenarla en la memoria principal o RAM.
LA CONTROLADORA DE LOS PERIFÉRICOS
Las controladoras son componentes hardware, que son los que gestionan los periféricos. Por ejemplo, para el ratón, el teclado, los discos… necesitaremos una controladora que pueda gestionar estos periféricos. Actualmente las controladoras están integradas en la placa base.
EL DRIVER
En ocasiones, el sistema operativo necesita de un software que permita la comunicación entre el periférico y el microprocesador. Ese software se llama driver. El driver lo proporciona el fabricante y este software deberá ser compatible con el tipo y versión del sistema operativo. Los drivers lo que hacen es transformar las órdenes genéricas que les envía el sistema operativo en otras más entendibles por el dispositivo en cuestión.
EL ENSAMBLADOR Y EL LENGUAJE MÁQUINA 
Teniendo en cuenta que la función principal de un ordenador es ejecutar programas y que su esquema de funcionamiento va encaminado a tal fin, para conocer el funcionamiento básico del mismo y cómo interaccionan las distintas unidades entre sí, antes hay que dejar claro el concepto de “programa”. 
Un programa es un conjunto de instrucciones que son almacenadas secuencialmente en posiciones o direcciones sucesivas de memoria y que serán ejecutadas una detrás de otra. El funcionamiento del ordenador consistirá pues en ir extrayendo sucesivamente instrucciones de la memoria principal, interpretarlas, extraer de la memoria los datos empleados en la operación (llamados “operandos”), enviarlos a la unidad que realiza las operaciones y hallar el resultado.
LA EJECUCIÓN DE INSTRUCCIONES MÁQUINA
Toda instrucción-máquina residente en la memoria principal pasa por una serie de fases, que van desde su captura a su interpretación y ejecución. Estas son:
Carga, búsqueda o lectura (fetch). La UC envía a la memoria principal la dirección de la instrucción a ejecutar, que está almacenada en el Registro Contador de Programa (PC) y activa las señales de control necesarias para que esta le entregue la mencionada instrucción.
Descodificación. La UC o unidad de control recibe la instrucción, la analiza y, en su caso, lee los operandos de la memoria principal, enviando su dirección y activando las correspondientes señales de control.
Ejecución. La ALU o Unidad Aritmético-Lógica, bajo las órdenes de la UC, realiza la operación sobre los operandos y, si es necesario, se graba el resultado en la memoria principal o en
Incremento del Contador de Programa (PC). También denominado “Puntero de Instrucción” (IP), con lo que se puede pasar a ejecutar la instrucción siguiente (aunque existen instrucciones que pueden modificar el contenido del PC, dando lugar a bifurcaciones). Hay un tipo de bifurcaciones no programadas por causa de interrupciones externas e internas, las llamadas traps.
Ya se ha visto que un ordenador funciona ejecutando programas que contienen instrucciones máquina. Para generar instrucciones máquina se crean programas escritos en lenguajes de programación.
Los programas en ensamblador son lo más parecido que existe al lenguaje máquina. Los programas en ensamblador, a diferencia de programas en otros lenguajes, no son portables. Eso significa que un programa en ensamblador generalmente está escrito para un tipo de máquina (física o virtual) concreta no pudiéndose ejecutar en máquinas con otra arquitectura de CPU.
TEST DE CONOCIMIENTOS
1. Elige la respuesta falsa: 
a) Los microprocesadores tienen un sistema de protección que hace que se apaguen cuando alcanzan cierta temperatura. 
b) La memoria caché es más rápida que la memoria RAM. 
c) La unidad de control se utiliza para llevar a cabo una serie de operaciones elementales como sumas, restas, operaciones lógicas, como AND, OR, NOT y otras, e incluso operaciones relacionales. 
d) Un nanómetro es la millonésima parte de un milímetro.
2. Elige la respuesta falsa: 
a) La memoria principal está formada por un conjunto de celdas de igual tamaño o número de bits.
b) Los buses son caminos a través de los cuales las instrucciones y los datos circulan entre las distintas unidades del ordenador. 
c) Un microprocesador está compuesto por millones de transistores dentro de un circuito integrado. 
d) Las cachés L2 y L3 están integradas en el núcleo del microprocesador y funcionan a la máxima velocidad. 
3. Elige la respuesta falsa:
 a) Los microprocesadores se fabrican en las llamadas “salas limpias”, en las cuales el aire es filtrado y está libre de polvo. 
b) La diferencia más notable entre un disco duro y una unidad SSD estriba en el tiempo de acceso. 
c) La arquitectura CISC se caracteriza por disponer de un grupo amplio de instrucciones complejas y potentes.
d) Las cabezas de un disco son el dispositivo electromagnético que se encarga de leer, escribir y borrar los datos del dispositivo magnético y están en contacto con la superficie del disco para poder operar con él. 
4. Elige la respuesta falsa: 
a) Un sector geométrico son los sectores contiguos pero de pistas diferentes.
b) La memoria se encuentra dividida en celdas o palabras que se identifican mediante una dirección y sobre las que se llevan a cabo operaciones de lectura y/o escritura.
c) A igualdad de precio, una memoria de 1 GB tendrá un coste por bit mayor que una memoria de 250 GB. 
d) La memoria DDR3 tiene más voltaje que la memoria DDR2 puesto que tiene un consumo más alto. 
5. Elige la respuesta falsa: 
a) Con el underclocking se consigue un rendimiento extra de forma gratuita pero produciendo más consumo energético y más calor.
b) La memoria DDR3 tiene más densidad que la memoria DDR2. 
c) El tiempo de acceso a la memoria RAM se mide en nanosegundos mientras que en los discos duros se mide en milisegundos. 
d) Los discos mejoran su rendimiento cuando la información a la que desean acceder está contigua mientras que en las memorias flash el que la información esté contigua o no es indiferente.
6. Elige la respuesta falsa: 
a) El sistema operativo y los programas no necesitan estar en memoria para ejecutarse. 
b) El overclocking es un aumento de la velocidad del microprocesador por encima del nominal. 
c) El interior de un disco duro nunca puede tener polvo o cualquier tipo de suciedad. 
d) Las memorias flash tienen un número limitado de borrados y escrituras. 
7. Elige la respuesta falsa: 
a) Las máquinas que pueden ejecutar diferentes programas se denominan máquinas de propósito general. 
b) Con la tecnología Hyper-Threading el procesador puede ejecutar más de un hilo al mismo tiempo. 
c) La arquitectura RISC se caracteriza por disponer de un grupo amplio de instrucciones complejas y potentes.
 d) Un disco tiene como mínimo 2 cabezas por cada plato. 
8. Elige la respuesta falsa: 
a) Para ejecutar la misma tarea se necesita ejecutar más instrucciones en sistemas RISC que en sistemas CISC. 
b) En los entornos de programación la memoria siempre se ha dividido en memoria primaria y memoria secundaria.
c) Un heatpipe, además de tener un disipador y un ventilador, tiene unas tuberías selladas por donde fluye aire en su interior para una mejor refrigeración. 
d) La memoria DDR3 tiene 240 pines al igual que la memoria DDR2.
9. Elige la respuesta falsa: 
a) El modelo básico de arquitectura empleada en los computadores digitales fue establecido en 1946 por John Von Neumann. 
b) La idea de Von Neumann consiste en conectar permanentemente las unidades de las computadoras, siendo coordinado su funcionamiento por un elemento de control.c) La BIOS son un conjunto de rutinas o programas que realizan funciones sobre el hardware a muy bajo nivel. 
d) 1 kilohercio (KHz) equivale a 10 elevado a 6 hercios.	 
10. Elige la respuesta falsa: 
a) Estructura funcional del sistema es aquella asociada al soporte físico o hardware. 
b) Los discos duros no están herméticamente cerrados. 
c) Las memorias EEPROM son memorias ROM que se pueden borrar y volver a programar. 
d) La caché L1 es más lenta que la L2, y la L2 que la L3.
CAPÍTULO 2.
SISTEMAS OPERATIVOS
Con el término entorno operativo englobamos al sistema operativo, a su interfaz de usuario asociado y a algunas aplicaciones que suelen venir con él (administrador de archivos, programas de configuración y optimización y otros). El sistema operativo es el software básico que controla una computadora. Sistemas operativos y aplicaciones informáticas.
Dado en el concepto generales se menciona sobre los tipos y clasificación de sistemas operativos, los cuales no son funcionales en los dispositivos móviles como puedan ser smartphones, MID, tablets, PDA. Estos dispositivos necesitan un sistema operativo ligero, y que cuente con muchos de los servicios que proporcionaban los sistemas operativos tradicionales ya que muchos sistemas operativos móviles basan lo ya realizado por Linux.
El futuro de los sistemas operativos está basado en el cloud computing trasladando lo que eran los servicios que ofrecía nuestro sistema a Internet. En un futuro será Internet la que proveerá de servicios y almacenará los datos de los clientes. Los sistemas operativos del futuro se van a basar cada vez más en el navegador, donde el primero en girar hacia esta filosofía fue Google Chrome y Windows 8 está desarrollado de esta manera.
En los tipos y clasificación de sistemas operativos existen numerosas formas de clasificar los sistemas operativos, atendiendo a diferentes criterios, las clasificaciones más usuales son las siguientes: clasificación de los sistemas operativos según su propósito: propósito general, propósito específico, monousuario y multiusuario, centralizados, distribuido, de escritorio, en red, tiempo real, tiempo compartido. 
Los sistemas operativos y aplicaciones informáticas son una serie de librerías que permiten controlar funciones básicas del sistema como librerías multimedia, librerías gráficas, servicios de seguridad, servicios de base de datos como SQLite, librerías comunes, intérprete de páginas web e interfaz de usuario y aplicaciones nativas, por ello ofrecen una serie de API o librerías para que los desarrolladores de aplicaciones puedan crear y manejar sus interfaces de manera ágil y sencilla. 
Entre las principales funciones de los sistemas operativos están las principales funciones: políticas de reparto de tiempo de proceso, control y manejo de los dispositivos de E/S, coordinar y manipular el hardware del sistema informático, gestiona y mantiene usuarios y grupos de usuarios pudiendo establecer privilegios y restricciones a las diferentes cuentas individuales o grupales.
Dentro del manejo de la memoria: memoria virtual y paginación los programas para ser ejecutados tienen que estar en memoria principal, por lo que no es posible ejecutar ningún programa desde el disco duro, unidad SSD u otra memoria secundaria. Así mismo la memoria virtual es una técnica que permite hacer ver a un sistema que dispone de más memoria de la que verdaderamente tiene. Los sistemas lo que hacen es utilizar parte de la memoria secundaria (el disco duro) para compensar la falta de memoria RAM. 
Dado a todo esto las páginas al tener el mismo tamaño se pueden cargar en cualquier marco que quede libre. Al no tener que estar necesariamente las páginas contiguas en memoria, el sistema deberá tener un mecanismo para convertir las direcciones de páginas dadas por los programas por direcciones reales de memoria. 
Las políticas de reparto de tiempo de proceso Los procesos tienen un ciclo de vida muy parecido. Los procesos dentro de su ciclo de vida pueden estar en tres estados: en ejecución, activo, bloqueado, dando a conocer algunos algoritmos de planificación son los siguientes: FIFO o FCFS, Round Robin, SJF, Planificación por prioridades, Planificación con múltiples colas, top, ps, aux, kill.
El sistema de entrada y salida es aquella parte del sistema operativo encargada de abstraerse los dispositivos de entrada y salida conectados al equipo y ofrecer una visión más simplificada entre ellos tenemos los: dispositivos de comunicaciones, almacenamiento e interfaz de usuario. En el bloqueo de recurso una de las funciones principales de un sistema operativo es la de gestionar de forma adecuada los recursos del sistema. Así mismo la implementación del sistema de ficheros suele realizar varias funciones, las cuales se pueden ver como distintas capas de abstracción: Capa lógica, Capa de control de bloques de ficheros, Capa de comandos básicos. 
Sistemas de archivos con journaling
Una de las principales tareas de un sistema de archivos es asegurarse de que la información que se lee del dispositivo es la misma que se guardó en él. Antiguamente, los sistemas de archivos como EXT2 de Linux carecían de journaling mientras que actualmente además de journaling, los sistemas de ficheros pueden gestionar particiones más grandes, reducen la fragmentación, tienen mejor rendimiento de entrada/salida y se recuperan mejor ante posibles accidentes.
Los sistemas de ficheros con journaling trabajan con transacciones. Las transacciones son un conjunto de operaciones que se realizan de forma unitaria (o se completan del todo o no se realiza nada). Es algo parecido a una transferencia entre cuentas. Si, por ejemplo, quiero mover dinero entre dos de mis cuentas del banco, el sistema retira una cantidad de dinero de una y la abona en la cuenta de destino. Si una vez de retirado el dinero de la primera cuenta se produce de un fallo eléctrico. La transacción no se habrá completado y el sistema restablecerá el saldo de las cuentas a los valores existentes antes de la transacción. Algo parecido hacen los sistemas con jourrnaling.
Cuando un sistema de ficheros con journaling se inicia ya no tiene que revisar y verificar los metadatos del mismo, sino que tiene que revisar solamente aquella transacción que no se llevaron a cabo y las ejecuta. De esa manera se asegura que la información del disco y los metadatos están sincronizados y son veraces.
Multiproceso, multitarea y multiusuario
Multiproceso, multitarea y multiusuario son características de los sistemas operativos. A continuación, se pasará a estudiar estos conceptos en profundidad. 
Multiproceso: Un sistema operativo multiproceso es aquel que puede ejecutar varios procesos de forma concurrente a la vez.
El objetivo de utilizar un sistema con varios procesadores no es ni más ni menos que aumentar la potencia de calculo y por lo tanto rendimiento del mismo. Generalmente los sistemas multiprocesador se utilizan en workstations, servidores, etc.
El realizar un sistema operativo que pueda trabajar con varios procesadores de forma concurrente es una tarea complicada y generalmente se diseñan para que trabajen de varias formas:
Forma asimétrica: Se designa un procesador master (maestro) y los demás serán slave(esclavos) de este. Este sistema tiene ventaja de que es mas simple de implementar que se centraliza la gestión de un procesador.
Forma simétrica: En este tipo de sistema operativo todos los procesadores realizan las mismas funciones. Es más difícil de implementar, pero son más eficientes que los sistemas operativos multiproceso asimétricos. El poder balancear la carga de trabajo entre todos los procesadores existentes hace que el tiempo de inactividad de los mismos sea mucho menor y por lo tanto la productividad mucho más alta.
Multitarea: En un sistema operativo multitarea, varios procesos se pueden estar ejecutando aparentemente al mismo tiempo sin que el usuario lo perciba. Un sistema multitarea permite a la vez estar escuchando música, navegando por Internet y realizando una videoconferenciaMultihilo: El multihilo se utiliza a veces por eficiencia, debido a que el crear muchos procesos implica la asignación de muchos recursos mientras que muchos hilos pueden compartir los recursos y memoria de un proceso.
Multiusuario: un sistema operativo multiusuario es un sistema que puede dar servicio a varios usuarios de forma simultánea.
Organización de usuarios
En esta sección nos vamos a centrar en el sistema de usuarios y permisos de Linux
En Linux existen tres tipos de usuarios.
Root o superusuario: Es el usuario encargado de administrar el sistema, pudiendo realizar cualquier tipo de tarea sin restricción alguna 
Usuarios normales: Generalmente son personas físicas teniendo algunos usuarios más privilegios que otros
Usuarios de sistema: Son usuarios utilizados por procesos o servicios los cuales necesitan una cuenta de usuarios para realizar sus funciones
¿Cómo funcionan los grupos de usuarios?
Imagínense que se tiene el siguiente problema: existen dos grupos de personas en una empresa, el grupo de comerciales los cuales trabajan con una serie de listados de precios, ventas y clientes y el grupo de técnicos, los cuales trabajan con documentación técnica de la empresa en la que trabajan. Se necesita que las únicas personas que accedan a los listados de precios, ventas y clientes sean los comerciales. Ellos necesitan trabajar con estos documentos, pero no deben acceder a la documentación técnica. Sin embargo, el grupo de los técnicos se desea que acceda a la documentación técnica pero no a los listados de precios, clientes y ventas.
Una solución a este problema es crear en el sistema una carpeta por usuario y darle el permiso correspondiente a la carpeta de cada usuario. Existe otra solución y es crear un grupo de comerciales, el cual tendrá acceso a la carpeta comerciales y el grupo técnicos el cual podrá acceder a la carpeta docu_técnica. Cada usuario estará en el grupo correspondiente y podrá existir un jefe que pertenezca a los dos grupos lo cual permite acceder a toda la información.
 
Gestionar usuarios y grupos en Linux
Se puede hacer de las siguientes maneras: 
Mediante comandos Lo cual permitirá dar de alta, baja y modificar usuarios en cualquier sistema Linux con los mismos comandos. 
Editando los ficheros /etc/passwd o /etc/group. Este método puede dar algún problema si no se edita el fichero correctamente. 
Con una herramienta administrativa Es más cómodo, pero las herramientas cambian con el tiempo y pueden diferir de una distribución a otra, mientras que no ocurre esto con los comandos.
En la siguiente figura se puede observar la herramienta de gestión de usuarios de Ubuntu. Como se puede observar, el interfaz es sencillo e intuitivo y todas las posibilidades que se pueden ejecutar mediante comandos se podrán realizar con el interfaz.
La gestión de grupos y asignación de usuarios a grupos se puede realizar desde la misma herramienta:
Los permisos en Linux:
Linux, como se vio en el apartado anterior tiene un sistema de seguridad basado en usuarios y grupos.
En Linux tres tipos de permisos para archivos y directorios:
r. Lectura: Se puede acceder al contenido del archivo o listar el contenido del directorio
w. Escritura: Permite borrar y modificar un archivo y en un directorio crear y borrar ficheros dentro de el 
x. Ejecución: A diferencia de Windows, en Linux los ficheros no hace falta que sean exe para poder ejecutarse. Los directorios con permiso de ejecución permiten realizar operaciones sobre ellos mediante los otros permisos de lectura y escritura.
Cuando se lista una serie de archivos y directorios (con el comando Ls- l) se puede observar algo parecido a la siguiente figura: 
Como se puede observar en la columna de la izquierda de la figura aparecen los permisos de dichos archivos o usuarios. A continuación, se comentarán estos permisos:
	
La cuenta de administrar o superusuario
El superusuario o administrador tiene una serie de privilegios específicos como pueden ser:
· Cambiar propiedad de ficheros
· Modificar límites de utilización de recursos y prioridades
· Gestionar los sistemas de ficheros
· Poner nombre a las maquinas
· Configuración de la red
· Configuración de las impresoras
· Establecimiento de parámetros del sistema
· Gestionar cuentas de usuario, deshabilitar cuentas, etc
¿Cuándo deben deshabilitarse las cuentas?
· Cuando se cumpla alguna circunstancia de las siguientes:
· Cuando la cuenta no se utiliza durante un tiempo determinado
· Cuando caduca la misma
· Cuando el administrador le da de baja
PARTICIONAMIENTO LÓGICO Y NÚCLEOS VIRTUALES
La virtualización comenzó hace bastante tiempo. IBM ya en los años 60 desarrolló un sistema de particiones lógicas que actualmente equivaldrían a máquinas virtuales, las cuales corrían en los mainframes de la época. Al crear estas particiones lógicas se solventaba la necesidad de tener varias máquinas independientes. Este tipo de arquitectura se sigue utilizando durante un tiempo pero con la irrupción de la arquitectura x86 en los 80 se cambia el modelo en muchas empresas. Cambian su estructura de un mainframe único y muchos terminales por múltiples máquinas algunas como servidores, con lo cual la necesidad de virtualización se va perdiendo.
En esta nueva era de virtualización con la arquitectura x86, los programas que permitían virtualizar sistemas operativos dentro de otro sistema operativo anfitrión tenían un rendimiento bastante malo dado que las máquinas y sistemas de virtualización no estaban tan avanzadas como ahora. Actualmente la virtualización está siendo muy utilizada en el ámbito empresarial por las ventajas que ofrece, puesto que resulta más económica al requerir menos hardware, se consume menos energía y espacio al utilizar menos máquinas y la administración es más fácil y segura.
La virtualización en una máquina host o anfitriona corre como una capa de virtualización que funcionaría como otra aplicación cualquiera a la cual se le asignan recursos como el procesador, la memoria, espacio de almacenamiento y dispositivos de entrada/salida como una tarjeta de red.
La ventaja de la utilización de núcleos virtuales permite tener el procesador siempre ejecutando tareas siempre que sea posible. Aunque existen aplicaciones antiguas o poco optimizadas que dificultan la ejecución sobre varios hilos de ejecución, la ventaja de utilizar sistemas operativos modernos permite que dichas aplicaciones no penalicen de forma significativa el rendimiento de todo el sistema. Es importante recalcar que aunque un procesador tenga 4 núcleos virtuales nunca va a ser igual que un procesador con 4 núcleos reales. Un procesador con 2 núcleos reales y 4 virtuales será mejor que uno con solo 2 núcleos reales pero nunca llegará a tener el rendimiento de un procesador con 4 núcleos reales.
En sistemas más exigentes se tiende hacia la arquitectura hypervisor. La arquitectura hypervisor tiene un sistema operativo especial en el que no se pueden instalar aplicaciones, solamente se pueden instalar máquinas virtuales en él. Está reducido al mínimo para ofrecer mejor rendimiento a las máquinas virtuales y ofrece mucha más eficiencia, robustez y escalabilidad que la virtualización clásica.
TEST DE CONOCIMIENTOS
1. Elige la respuesta falsa: 
a) Se llaman recursos apropiativos a aquellos que pueden ser retirados sin causar ningún daño. 
b) En el multiproceso de forma asimétrica se designa un procesador como el procesador master (maestro) y los demás serán slave (esclavos) de este. 
c) La virtualización total o traducción binaria de órdenes consiste en recoger todas las instrucciones de las máquinas virtualizadas y ejecutarlas directamente en la máquina anfitriona. 
d) En Linux, se pueden establecer permisos en un fichero o directorio para el usuario, el grupo al que pertenece el fichero y el administrador del sistema. 
2. Elige la respuesta falsa: 
a) Los algoritmos de planificación deberán basarse en la equidad, eficiencia, imparcialidad, tiempo de respuesta y rendimiento del sistema. 
b) En un sistema operativomultitarea, varios procesos se pueden estar ejecutando aparentemente al mismo tiempo sin que el usuario lo perciba. 
c) Todos los procesos tienen un PID diferente. 
d) Un semáforo se utiliza en sistemas operativos multiproceso para coordinar el flujo de información entre procesos. 
3. Elige la respuesta falsa: 
a) Un cambio de contexto de un proceso es un paso de un estado a otro. 
b) La arquitectura hypervisor tiene un sistema operativo especial en el que no se pueden instalar aplicaciones, solamente se pueden instalar máquinas virtuales en él. 
c) Físicamente, el sector es la unidad de transferencia que el disco se encarga de leer o escribir. 
d) El comando kill envía una señal LOGOUT que indica al programa que tiene que terminar. 
4. Elige la respuesta falsa: 
a) La virtualización comenzó en los 80 con la irrupción de la arquitectura x86. 
b) Una de las funciones principales de un sistema operativo es la de gestionar de forma adecuada los recursos del sistema. 
c) La paravirtualización es una técnica introducida por Xen la cual no necesita virtualización asistida por el hardware. 
d) En cuanto a la seguridad, los procesos pueden ser más fiables que los hilos de ejecución. 
5. Elige la respuesta falsa: 
a) Los hilos al igual que los procesos comparten la memoria. 
b) El sistema operativo es el primer programa o software que se carga en la máquina y se ejecuta al arrancar o reiniciar el sistema siendo automática su ejecución. 
c) En la virtualización asistida por hardware se permite que las instrucciones de las máquinas virtuales se ejecuten en un modo superusuario. 
d) Existen procesos en el sistema que nunca terminan como pueden ser los demonios o daemons. 
6. Elige la respuesta falsa: 
a) FIFO es un algoritmo parecido al FCFS pero con algunas variaciones. 
b) El middleware de un sistema operativo móvil son una serie de librerías que permiten controlar funciones básicas del sistema como librerías multimedia, librerías gráficas, etc. 
c) Los usuarios en un sistema Linux se almacenan en el fichero /etc/passwd. 
d) Un proceso puede tener varios hilos en ejecución.
7. Elige la respuesta falsa: 
a) Un semáforo se utiliza en sistemas operativos multiproceso para restringir el acceso a un recurso. 
b) El comando aux proporciona de forma interactiva una visión rápida de los procesos que se están ejecutando en ese mismo instante en el sistema. 
c) Los sistemas de ficheros suelen confiar su seguridad a mecanismos con ACL o listas de control de acceso. 
d) Los hilos tienen que programarse de forma más cuidadosa que los procesos.
8. Elige la respuesta falsa: 
a) El sistema operativo Android está basado en el kernel de Linux. 
b) Los directorios en Unix son considerados como ficheros. 
c) Los procesos dentro de su ciclo de vida pueden estar en tres estados, en ejecución, activo y en espera. 
d) Se llaman recursos no apropiativos a aquellos que al ser retirados el proceso propietario falla.
9. Elige la respuesta falsa: 
a) Los sistemas de ficheros con journaling trabajan con transacciones. 
b) En el procesamiento de forma simétrica todos los procesadores realizan las mismas funciones.
c) HPFS es un sistema de archivos que apareció en 1993 con Windows NT. 
d) En cuanto al rendimiento es mejor utilizar hilos que procesos. 
10. Elige la respuesta falsa: 
a) El sistema operativo iOS está basado en el kernel de Mac OS. 
b) Un proceso activo es cuando un proceso está a la espera de ser ejecutado. 
c) En la mayoría de sistemas, un sector ocupa 512 bits. 
d) El comando kilo envía una señal TERM que indica al programa que tiene que terminar.

Continuar navegando