Logo Studenta

UNIDAD 1 - BIOINFORMATICA - MEDICINA

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
 
 
 
 
 
 
 
 
 
 
UNIDAD N° 1: INTRODUCCIÓN A LA 
INFORMÁTICA. 
 
 
 
 
ASIGNATURA: BIOINFORMATICA 
 
CARRERA: MEDICINA 
 
 
 
 
 
2 
 
DEFINICIÓN Y ORIGEN DEL TÉRMINO INFORMÁTICA. 
A lo largo de la historia se ha necesitado transmitir y tratar información de forma continua. La 
informática nace de la idea de ayudar al hombre en aquellos trabajos rutinarios y repetitivos, 
generalmente de cálculo y de gestión, donde es frecuente la repetición de tareas. 
El término Informática se creó en Francia en el año 1962 bajo la denominación de 
INFORMATIQUE y que procede de la contracción de las palabras INFORmation y autoMATIQUE. 
 
Informática: es la ciencia que estudia el tratamiento automático y racional de la información. 
 
El gran desarrollo alcanzado por las organizaciones en la actualidad demanda una enorme 
cantidad de Información. En nuestros días, las empresas están obligadas a tomar decisiones cada 
vez más precisas y con mayor rapidez. 
La ciencia que estudia la obtención de Información por medios automáticos se denomina 
Informática. El gran desarrollo que ha tenido en los últimos años la Informática como ciencia ha 
sido posible gracias a los enormes avances tecnológicos, que ha experimentado el Proceso de 
Datos con los Ordenadores electrónicos digitales. 
Antes de la invención de los ordenadores: 
 
1. Muchos problemas solo podían ser resueltos en forma aproximada, por carecer de los medios 
apropiados. 
2. Los problemas que se podían resolver en forma completa quedaban reducidos a un pequeño 
ámbito de datos iniciales y, en consecuencia, de aplicabilidad. 
3. Muchos problemas eran inabordables porque el análisis manual de los datos requería de un 
tiempo excesivamente largo y no permitía obtener la solución con un tiempo de respuesta 
apropiado a la acción deseada. 
4. A menudo, el problema requería que una enorme cantidad de datos fueran almacenados y 
actualizados en forma continua, cosa que significaba, con métodos manuales, costos altos. 
5. Ciertas operaciones de control de procesos requerían, realizar cálculos muy complejos con un 
tiempo de respuesta absolutamente impensable con los medios existentes. 
 
Para lograr sus metas, la Informática, estudia el diseño y utilización de equipos, sistemas y 
procedimientos que permiten captar y tratar los datos para obtener Información útil para la toma de 
decisiones. Decimos que la Informática es el estudio que define las relaciones entre los medios 
(equipo), los datos y la Información necesaria en la toma de decisiones desde el punto de vista de 
un sistema integrado. 
 
 
 
 
 
 
 
 
 
 
 
Este esquema relaciona lo dicho en el párrafo anterior, indicando que la Información es necesaria 
para tomar buenas decisiones, lo cual se traducirá en una actuación adecuada y esto a su vez nos 
permitirá lograr los objetivos de la organización. 
Específicamente, la Informática trata de los dos primeros aspectos. 
 
Consideramos que la Informática es una ciencia aplicada, directamente relacionada con la toma de 
decisiones. Decimos que es una ciencia porque constituye un conjunto de conocimientos de 
validez universal y además porque utiliza el método científico para el logro de sus objetivos. 
LOGRO DE LOS OBJETIVOS 
ACTUACIÓN ADECUADA 
BUENAS DECISIONES 
INFORMACIÓN 
3 
El campo de acción de la Informática resulta muy amplio pues sus objetivos son, por ejemplo: 
definir procedimientos para preparar un informe de ventas, establecer si los informes de avance de 
producción se elaborarán manualmente o con medios automatizados, la elaboración de informes 
de tipo contable, el tratamiento de la información para poder decidir en donde localizar nuestra 
próxima planta, etc… Algunos llegan a considerar la informática como la ciencia de la 
comunicación. 
Siempre que se presenta una necesidad de información es para cubrir unos objetivos y para 
determinar estas necesidades se deberá hacer un buen análisis de las mismas. 
Después para captar los datos necesarios hace falta escoger un soporte adecuado sobre el cual 
registrarlos. La forma de registrar los datos deberá estar estandarizada, se procurara usar claves o 
códigos en lugar de los datos en su forma completa. Se debe procurar que los datos aparezcan en 
el mismo orden, respetando un formato. 
Una vez captados los datos será conveniente filtrar los que sean erróneos o improcedentes a fin 
de evitar errores en los resultados. 
Para ello si hace falta se ordenaran, se harán cálculos y se darán resultados. 
Así mismo si queremos que más tarde se pueda hacer recuperación de datos en forma selectiva a 
consulta rápida sobre los mismos será necesario proveer un buen método de organización del 
archivo. 
Lo dicho es válido tanto como para procedimientos manuales, mecánicos o automatizados. 
 
La ganancia que nos aportara usar máquinas sería: 
1. Mayor velocidad de proceso. 
2. Mayor confiabilidad o sea, menos errores humanos. 
3. Mayor eficacia y más velocidad en consulta de archivos. 
 
 
APLICACIÓN DE LA INFORMÁTICA. 
Es bien conocido que uno de los agentes más importantes de la sociedad actual es la información; 
de ahí el gran desarrollo e interés de la Informática. La misma tiene por objeto el tratamiento 
automático de la información e incidencia en casi todas las actividades humanas, ya sea de forma 
directa o indirecta. 
Las computadoras resultan útiles para aplicaciones que reúnen una o varios de las siguientes 
características: 
 
1. Necesidad de un gran volumen de datos. Los computadores resultan particularmente 
adecuados para procesar grandes cantidades de datos (por ejemplo, datos relacionados con 
los clientes de una entidad bancaria). 
 
2. Datos comunes. Las bases de datos posibilitan que los datos incluidos en un computador 
puedan utilizarse en múltiples aplicaciones, sin necesidad de que estén físicamente repetidos. 
Ello, además de ahorrar tiempo en la introducción de los datos, y ahorrar espacio en la 
memoria masiva, facilita considerablemente la actualización de los mismos. Por ejemplo, una 
vez introducida la información sobre un profesor de una universidad, esta podría ser utilizada, 
sin necesidad de replicarla, para distintas aplicaciones tales como: realización de horarios de 
clases, control de carga docente del profesorado, elaboración de censo para elección de 
órganos de gobierno, etc. 
 
3. Repetitividad .Tal vez una de las características más relevantes. Los computadores (y su 
lenguaje de programación) son capaces de procesar ciclos de instrucciones iterativamente. 
Una vez programadas las instituciones que constituyen un ciclo y el número de iteraciones, el 
computador las ejecutara sin importar cuan elevado sea dicho número. También un mismo 
programa o rutina puede ser ejecutado con gran cantidad de datos (por ejemplo, un programa 
para calcular los intereses de las cuentas corrientes de los clientes de un banco). 
 
4. Distribución. El origen y destino de la información no necesitan estar ubicado en el 
computador central. En efecto, la información que procesa un computador puede introducirse 
4 
(u obtener los resultados) a través de terminales distribuidos en áreas geográficas muy 
extensas (de distintas habitaciones del edificio de una empresa, hasta estaciones repartidas 
por todo el mundo a través de líneas telefónicas).También puede procesarse la información en 
distintos computadores distribuidos en red. 
 
5. Un computador puede realizar todas sus operaciones con una precisión controlada, 
obteniendo resultados consistentes con la precisión de los datos introducidos. 
 
6. Cálculos complejos utilizando lenguajes de programación adecuados y rutinas de bibliotecas 
matemáticas (resolución de modelos matemáticos atmosféricos para predicción del tiempo, 
por ejemplo). 
 
7. Las operaciones que realiza un operador las efectúa a gran velocidad, en comparación con la 
realización de las mismas por los humanos. 
 
Aquellas actividades que requieran o presenten algunas de las características anteriores, soncandidatas a ser efectuadas con ayuda de un computador. Además, se han desarrollado nuevas 
metodologías y técnicas que han ampliado notablemente el abanico de posibles aplicaciones de la 
Informática. 
 
DIFERENCIA ENTRE DATOS E INFORMACION 
No es lo mismo disponer de datos que disponer de información. Aunque muchas veces ambos 
términos son utilizados como sinónimos en el lenguaje común, es de suma importancia aclarar la 
diferencia que desde el punto de vista de la informática existe entre estos dos conceptos. 
Utilizando un símil mecánico, diremos que los datos son a la información lo que la fuerza es al 
trabajo. Para que una fuerza realice un trabajo es preciso que desplace su punto de aplicación. De 
la misma manera, para que un dato proporcione información es preciso que sea procesado y se 
aplique sobre una capacidad de actuación. 
Los datos son los insumos, la materia prima necesaria para la obtención de la información. De un 
conjunto de datos, organizados y procesados convenientemente, podemos extraer el conocimiento 
que nos faculta para una actuación apropiada. 
Los datos son magnitudes numéricas directamente medidas o captadas o también valores 
cualitativos, hechos, premisas, frases, principios filosóficos, etc.… 
Los datos no son información más que en un sentido amplio de «información de partida» o 
«información inicial», pero los datos por sí mismos no nos permiten la adopción de la decisión más 
conveniente porque no aportan los conocimientos necesarios, debemos procesarlos y obtener una 
estructura útil y significativa llamada información. Por ejemplo, disponer de todas las notas 
obtenidas por los alumnos de una clase constituye los datos necesarios para poder obtener la 
información de un porcentaje de alumnos que han superado con éxito las pruebas calificadoras y 
tener un medida del grado de aprovechamiento del curso. 
 
Los datos se presentan por medio de símbolos. La información consta de datos organizados en 
una forma que es útil para las personas que lo reciben, en otras palabras: 
 
“Información son todas aquellas representaciones simbólicas que por el significado que se le 
asigna quien la reciba e interpreta, contribuyen a disminuir la incertidumbre de forma que pueda 
decidir un curso de acción entre varios posibles” 
 
La información no solo sirve para decidir cuál es el mejor accionar para lograr un objetivo. 
Tomada una decisión por un determinado curso de acción, para concretarlo se requiere saber qué 
acciones hacen falta realizar, y en que secuencia. 
La diferencia así establecida entre datos e información se manifiesta especialmente en el ámbito 
de la computación. Una computadora recibe símbolos correspondientes a ciertos datos, opera con 
ellos, y obtiene resultados que también son representaciones simbólicas, que en ningún momento 
tienen significado para la máquina. Solo pueden tenerlo para el hombre, cuando los interpreta 
mediante su mente de manera que pueda tomar una decisión. Si bien muchas veces se confunden 
5 
con un significado semejante las palabras "información" y "datos", diremos que toda información 
consta de datos, pero no todos los datos constituyen información. 
 
La información es un conjunto organizados de datos procesados que constituyen un mensaje. Es 
todo aquello que permite adquirir cualquier tipo de conocimiento, por lo que existirá información 
cuando se da a conocer algo que se desconoce. 
Los datos que maneja un programa son en un principio información no elaborada y que una vez 
procesados constituyen lo que se denomina información útil o simplemente resultado. 
Una de las características esenciales de la información es la de modificar, en el sentido de 
aumentar nuestros conocimientos, aunque sólo sea en el sentido de -como decía Séneca- «sólo sé 
que no sé nada». Saber que carecemos de la información apropiada y, por lo tanto, no estamos 
capacitados para tomar una decisión, es ya todo un conocimiento y una «sabiduría». 
 
 
ESTRUCTURAS DE DATOS Y ALGORITMOS 
Las computadoras son máquinas para el tratamiento automático de la información. Esta 
información no se almacena ni se representa al azar, sino que debe organizarse o estructurarse en 
forma adecuada para obtener un rendimiento razonable en su memorización, tratamiento y 
recuperación. El tratamiento de la información se debe realizar de un modo sistemático. La 
resolución de cualquier problema conlleva el encontrar un método de resolución expresado con la 
suficiente precisión para poder ser descompuesto en acciones realizables por el computador (esto 
es lo que se denomina un algoritmo). 
 
SÍMBOLO Y DATOS 
Símbolo es todo aquello que por conversión nos remite a algo que no necesariamente necesita 
estar presente. 
Este algo está presente en nuestro entender, de acuerdo a lo que el signo representa o significa. 
Entendemos algo como símbolo, lo interpretamos, tiene significado, cuando este responde a lo 
que significa. O sea cuando podemos establecer una relación entre el símbolo y lo que constituye 
su significado, de acuerdo a una cierta convención. 
El significado de un símbolo es establecido por el uso que le da la cultura que lo utiliza. Puede 
ocurrir que el mismo símbolo tenga distintos significados dentro de una misma cultura, 
dependiendo del contexto en que se inserta. 
Los Datos son representaciones simbólicas de propiedades o cualidades de entes y sucesos. 
 
TIPOS DE DATOS 
Se denomina dato a cualquier objeto manipulable por el computador. Un dato puede ser tanto un 
carácter leído de un teclado, como las variables utilizadas en dicho programa. Así mismo son 
datos, la información externa al programa a la que se puede acceder mediante un procedimiento, 
ya este grabada en algún medio de memoria masiva o sea generada por algún periférico. 
Cuando utilizamos un computador para resolver un problema, debemos hacer una abstracción de 
este y de las magnitudes que influyen en él. Dichas magnitudes deben ser representadas por 
datos. La representación de una magnitud como dato, se puede entender como una aplicación que 
hace corresponder un dato a cada valor de la magnitud. Por ejemplo, para resolver un problema en 
que intervengan distancias: es preciso tener una aplicación, T del conjunto de valores de la 
magnitud distancia, d, en un conjunto de datos, D. 
En esta transformación es deseable que esté definido sobre todo, el conjunto de valores de la 
magnitud. Es conveniente además, que sea univoca, es decir, que a dos valores de magnitud 
distinto se asocie datos distintos. Para que se pueda operar con los datos es necesario que 
existan operaciones internas en el conjunto de datos, que sean semejantes a las operaciones 
usuales en el conjunto de magnitudes. Dichas operaciones deben cumplir que: la imagen según la 
transformación T del resultado de una operación en el conjunto de magnitudes, sea igual al 
resultado de operaciones correspondientes en el conjunto de datos sobre las imágenes de los 
operandos. 
6 
Se denomina tipo de dato al conjunto de la transformación T y de las operaciones y funciones 
internas y externas definidas sobre el conjunto de datos. Distintas transformaciones darán lugar a 
distintos tipos de datos, aun cuando el conjunto de origen a representar sea el mismo. 
 
Tipos de datos básicos más usuales en Informática: 
 
Entero, real, carácter, lógico, enumerado. Nos encontraremos con diferentes tipos de datos en 
la representación de la información tanto a nivel físico del computador, como en los lenguajes de 
programación. 
 
 Datos de tipos enteros 
El tipo entero es una representación del conjunto de los números enteros, la representación es 
posible para un subrango de magnitudes enteras centrado en el origen 2 -1 y -2 . La razón de 
esta limitación ésta en la necesidad de utilizar un espacio finito y fijo, para cada dato, y en el hecho 
de que la transformación realizada entre los números enteros y el tipo de datos consiste en 
representar el número en binario y almacenarlo con un número fijo de bits.El número de datos distintos de tipo entero que se pueden generar, cardinalidad del tipo, es 2 
(donde n es el número de bits que se utiliza en la representación). Por lo tanto, si se modifica el 
número de bits se obtienen distintos tipos enteros. En consecuencia, no todos los números enteros 
se pueden representar. 
A cada operación aritmética sobre el conjunto de números enteros se le asocia, en el tipo entero, 
la operación correspondiente. Estas operaciones no pueden realizarse sobre cualquier par de 
datos enteros, ya que aparecen indeterminaciones debido a la propia representación. Así, si el 
máximo valor positivo de tipo entero es 32 767 (como ocurre si la representación se realiza con n 
=16), al realizar la operación: 32 767 + 1 se obtendría un resultado no representable en el tipo. 
Este tipo de error se conoce como desbordamiento. Cuando esto sucede, el computador puede, o 
no, avisar al usuario. En cualquier caso se obtendrá como resultado algún dato de tipo entero pero 
este no corresponderá con el valor que se obtendría al realizar la misma operación con números 
enteros. En el caso anterior el numero generado seria -32 768, si la representación es en 
complemento a2. Cualquier operación con datos de tipo entero es exacta salvo que se produzcan 
desbordamientos. 
 
 Datos de tipo real 
El tipo de datos reales es una representación del conjunto de números reales. Esencialmente la 
transformación realizada consiste en expresar el número en la forma 
 N = M · BE 
Donde N es el número real a representar, B es la base utilizada para el exponente (que puede 
estar prefijada para un computador dado), E es el exponente del número y M es la mantisa. El 
número se almacena en el computador y yuxtaponiendo el signo, el exponente y la mantisa, cada 
uno con un numero de bits prefijado. 
Esta representación no permite el almacenamiento de números muy grandes o muy pequeños, lo 
que conlleva que se produzcan desbordamientos. Por otra parte, la limitación del número de bits 
para representar la matiza provoca una falta de precisión en la representación. Esto es debido a 
que la aplicación que define al tipo real no es univoca. Es decir, cada dato de tipo real es la 
imagen de un conjunto infinito de números reales, concretamente representa a un intervalo de la 
recta real. 
Para los datos de tipo real están definidas las operaciones aritméticas. La suma y la multiplicación 
de datos de tipo real cumplen la propiedad conmutativa, pero no siempre la asociativa ni la 
distributiva. Esto sucede porque el orden en el que se realizan las operaciones influye en el 
resultado. En cada operación se producen errores por falta de decisión en la representación 
(errores de redondeo), que se acumulan durante todo el proceso de cálculo. 
 
 Datos de tipo lógico 
Los datos de tipo lógico representan valores lógicos o booleanos. Pueden tomar uno de entre dos 
valores: verdadero o falso. 
7 
Sobre los valores lógicos pueden actuar los llamados operadores lógicos. Los operadores lógicos 
fundamentales son: Y, O y NO .La definición de las operaciones se hace indicando su resultado 
para las cuatro posibles combinaciones de valores de los argumentos. 
En algunos lenguajes de programación hay definidos sobre los datos de tipo lógico otros 
operadores booleanos, como son: NO – Y, NO – O y NO – exclusivo. 
Un caso particularmente importante de valor de tipo lógico es el obtenido como resultado de una 
operación de relación sobre datos de un tipo, para el que existe una relación de orden (tipos 
entero, real, carácter, enumerado, subrango por ejemplo).Una relación es una expresión formada 
por dos operandos pertenecientes a un mismo tipo ordenado y un operador de relación. Son 
operadores de relación los siguientes: mayor o igual, mayor, menor o igual, menor, igual, distinto. 
El resultado de una operación de relación es el valor lógico verdadero si la relación expresada es 
cierta, y falso en caso contrario. Una relación es, pues, una operación externa sobre el tipo de 
datos de los operandos. 
 
 Datos de tipo carácter 
Los datos de tipo carácter representan elementos individuales de conjuntos finitos y ordenados de 
caracteres. El conjunto de caracteres representados depende del computador. Uno de los 
conjuntos más usuales es el ASCII (American Standard Code for Information Interchange —Código 
Estándar Estadounidense para el Intercambio de Información—). 
 
Ejemplo de algunos caracteres ASCII. 
 
No hay ninguna operación interna sobre datos de tipo carácter (salvo la asignación, A = B). 
Normalmente existen funciones de conversión de tipo. Como por ejemplo, la que asocia a cada 
dato de tipo carácter un valor entero, que indica su posición en el código. 
 
 Datos de tipo numerado 
Los datos de tipo numerado se definen explícitamente dando un conjunto finito de valores. Al 
contrario de los tipos vistos anteriormente, el tipo de datos enumerados, como el tipo subrango y 
los tipos estructurados, no es un tipo normalizado. Puede haber muchos tipos de datos 
enumerados distintos dentro de un programa en un lenguaje determinado, mientras que no habrá 
más que un tipo lógico. En cierto modo podemos considerar al tipo de dato enumerado como una 
clase de tipos de datos, a la que pertenecerán todos los tipos definidos por enumeración. 
Los tipos de datos vistos anteriormente son usualmente tratados para el computador a nivel 
hardware. Mientras que el tipo de dato enumerado y su rango son solo interpretados por el 
software. Internamente, los datos de tipo enumerado se almacenan como valores enteros. A cada 
valor del tipo se le asocia un entero consecutivo, comenzando por cero. Existen como en el tipo 
carácter, funciones de conversión a entero. 
 
ESTRUCTURAS DE DATOS 
Los tipos de datos vistos suelen denominarse elementales, se pueden utilizar para construir tipos 
de datos más elaborados. Una estructura de dato o tipo de dato estructurado es un tipo de dato 
construido a partir de otros tipos de datos. Así, un dato de tipo complejo, que representa el 
8 
conjunto de números complejos, es un par ordenado de datos reales por tanto un tipo de dato 
estructurado. 
Un dato de tipo estructurado está compuesto por una serie de datos de tipos elementales y alguna 
relación existe entre ellos. Normalmente la relación suele ser de orden, aunque puede ser de otro 
tipo. 
Una estructura de dato se dice que es homogénea cuando todos los datos elementales que la 
forman son del mismo tipo, sino es heterogénea. 
Siempre que se utilice un dato en un programa debe estar determinado su tipo, para que el 
traductor sepa cómo debe tratarlo y almacenarlo. En el caso de tipos elementales, el tipo de dato 
determina el espacio que se usa en memoria. Esto no ocurre si el dato es de tipo estructurado en 
este caso el compilador le reserva el espacio de memoria mínimo que necesita. Durante la 
ejecución del programa la estructura de datos puede ir ocupando más memoria, pero el máximo 
espacio al que puede llegar esta limitado por el espacio libre en el programa. Si se necesitase más 
memoria de la disponible en el programa, este terminaría en error. Una estructura de datos que es 
gestionada de esta forma se dice que es dinámica, ya que la memoria que necesita se asigna 
dinámicamente. Por el contrario, una estructura de datos que siempre ocupa el mismo espacio se 
dice que es estática. 
 
 
ACTIVIDADES DEL PROCESAMIENTO DE DATOS 
El proceso de datos consiste en la transformación de insumos (datos), los cuales no son útiles por 
sí mismos, a través de un proceso a fin de obtener un producto (información), que sí puede ser útil 
sin transformaciones posteriores. Tal proceso estará integrado a un sistema diseñado para obtener 
información necesaria en la toma de decisiones. Por otra parte, se ha establecido el sistema quepermita captar los datos necesarios y la forma como deberán ser procesados para lograr la 
información que se requiere. 
 
 El Proceso de Datos consiste en planificar una serie de acciones y operaciones sobre 
determinados datos con el fin de llegar a una información deseada. 
 
Los procedimientos y dispositivos utilizados constituyen un Sistema de Información. Los medios 
utilizados son muy variados; todas las operaciones pueden realizarse por medio de una máquina, 
o bien simplemente con un lápiz y papel. Sin embargo los procedimientos son básicamente los 
mismos. 
El Proceso de Datos, estudia la utilización de equipos en los Sistemas de Información. Mientras 
que el Análisis y Diseño de Sistema, comprende el estudio y diseño de sistemas y procedimientos 
con relación a la toma de decisiones. Dentro de este campo se destacan aspectos importantes 
como: la toma de decisiones automáticas, modelos matemáticos para obtener información útil, 
problemas humanos en captación, registros de datos y elaboración e interpretación de informes, 
control de procesos, etc… 
 
El procesamiento de datos consta de tres actividades básicas: 
 
Captura de datos de entrada: los que deben registrarse o capturarse de alguna manera 
antes de poder procesarse. Puede registrase inicialmente en documentos fuente de papel, o 
puede capturarse por medio de un dispositivo de entrada directa. 
 
Manipulación de los datos: después de captar los datos, quizás será necesario realizar una 
o más de las siguientes operaciones con los datos recolectados. 
 Agrupación: se denomina así al proceso de organizar elementos similares para formar 
grupos o clases. Se lleva a cabo por lo general, al asignar abreviaturas o códigos, 
previamente determinados a los elementos que se van a organizar. Los códigos son de 
tres tipos: numéricos, alfabéticos y alfa numéricos. 
 Cálculo: la manipulación aritmética de los datos se llama cálculo y es una actividad de 
procesamiento muy común. 
9 
 Clasificación: casi siempre es más fácil trabajar con los datos si están ordenados en 
una secuencia lógica. Se denomina clasificación al ordenamiento de los datos 
agrupados según una secuencia del primero al último (del más grande al más pequeño, 
del más antiguo al más nuevo, etc.). 
 Síntesis: es la reducción de grandes volúmenes de datos a una forma más concisa y 
manejable. 
 
Manejo de los resultados de salida: después de captar y manipular los datos, quizás sea 
necesario llevar a cabo una o más de las siguientes operaciones: 
 Almacenamiento y recuperación: almacenamiento es la conservación de los datos para 
consultarlos en el futuro. La recuperación consiste en obtener los datos o información 
almacenados. 
 Comunicación y reproducción: la comunicación de datos es la transferencia de datos de 
una localidad u operación a otra, para utilizarlos o seguirles procesando, y este proceso 
continúa hasta que la información en forma útil llega hasta el usuario final. Es natural 
que en ocasiones sea preciso copiar o duplicar la información. 
 
 
CUALIDADES DE LA INFORMACIÓN. 
Desgraciadamente, no todos los responsables de tomar decisiones cuentan con la información 
adecuada a sus fines; generalmente la información disponible resulta superflua, incompleta, poco 
clara, demasiado voluminosa, o llega demasiado tarde para poder ser aprovechada. 
Para que una información sea útil es necesario que le permita al responsable de la toma de 
decisiones formar con suficiente antelación una idea clara y completa de la situación, en forma tal 
que sus decisiones tengan el fundamento objetivo óptimo posible. 
Estas serán, pues, las cualidades de una buena información: 
 
Precisión: La información debe ser precisa. La precisión se mide en el nivel de detalle y 
desmenuzamiento. Por ejemplo, decir «se han vendido 39 piezas» es mucho más preciso que 
decir «se han vendido varias docenas de piezas». La precisión a exigir depende, naturalmente, de 
cada aplicación concreta. Tan inapropiado es un exceso como un defecto de precisión. Decirle a 
un carpintero que la altura de la mesa que le encargamos será de 81.47325 cm es, evidentemente, 
un exceso de precisión. 
 
Exactitud: La información debe ser exacta. La exactitud se mide en términos de porcentaje de 
error. Es una medida del alejamiento de la realidad. También la aplicación concreta nos marcará, 
en cada caso, una mayor o menor exigencia de exactitud. El lanzamiento de un misil exigirá un 
nivel de exactitud mucho más elevado que el que pueda requerir el estudio de mercado de una 
empresa para el lanzamiento de un nuevo producto de temporada. Naturalmente no se podrá 
obtener la exactitud suficiente si los datos de partida son incorrectos o erróneos. Mediante el 
proceso de datos se podrán filtrar datos inválidos y se podrán subsanar, quizás, algunos pequeños 
errores o insuficiencias, pero, en cualquier caso, la calidad del producto obtenido dependerá 
vitalmente de la calidad de las materias primas. Como dice un aforismo lapidario del Proceso de 
Datos: «De basura sólo se saca basura» (Garbagge in, garbagge out). 
 
Oportunidad: La información tiene que ser oportuna. Debe llegar al usuario con el tiempo 
necesario para que pueda digerirla antes de tomar la decisión. El usuario debe poder actuar antes 
de que la realidad haya sufrido un cambio de situación que invalide su acción. El tiempo disponible 
para que la información llegue oportuna- mente variará mucho según la aplicación y puede ser 
desde unos pocos microsegundos (en algunos controles de proceso) a varios meses (en 
macroeconomía y sociología). Llegar antes de tiempo también puede ser, a veces, inoportuno, por 
no estar el usuario preparado psicológicamente y en consecuencia no receptivo. En algunas 
aplicaciones interactivas se introducen retrasos por programa en las respuestas del ordenador, 
para evitar que el exceso de velocidad de la máquina incomode al hombre. 
 
10 
Integridad: La información debe ser completa. Aún cuando la integridad al 100% es un sueño 
inalcanzable en la mayoría de las aplicaciones, conviene en todo caso que la información que se 
obtiene sea tan completa como pueda llegarse a disponer. Esta cualidad debe aparejarse con la 
parquedad. Que la información sea completa no significa que tenga que contener cosas 
superfluas. No debe confundirse la redundancia, deseable dentro de unos mínimos, con el exceso. 
Y el exceso de información no informa, aturde o aburre. 
 
Significatividad: La información debe ser clara y relevante. Es importante no forzar la 
comprensión del destinatario. Cualquier ayuda gráfica, visual, auditiva, o del tipo que sea, que 
pueda añadir facilidad y rapidez a la recepción de la información, deberá ser considerada. Por 
encima de todo hay que evitar la confusión entre distintas alternativas no compatibles. 
Un incremento notable en la calidad de la información requerida puede representar un incremento 
en los costos muy elevados. Como en tantísimas circunstancias parecidas, el ratio calidad / costos 
tiene un punto crítico que es el que nos interesa asumir. 
 
TRATAMIENTO DE LA INFORMACIÓN. 
Así se denomina al conjunto de operaciones que se realizan sobre una información. 
Estas operaciones siguen una división lógica que se representa de la siguiente manera: 
 
Tratamiento de la 
Información 
ENTRADA 
 Recogida de Datos 
 Depuración de datos 
 Almacenamiento de datos 
PROCESO 
 Aritmético 
 Lógico 
SALIDA 
 Recogida de Resultados 
 Distribución de resultados 
La figura siguiente esquematiza la relación establecida entre datos e información a través de un 
proceso de los datos. 
 
 
 
 
 
Podemos considerar la información como el conocimiento derivado del análisis de los datos. Es 
importante notar que la información obtenida de un proceso puede servir como dato para otro 
proceso. Por ejemplo, en un sistema de nomina se tienen como datos las horas trabajadas por 
cada empleado y su sueldo por hora. La información obtenida por el sistema será: Lossueldos 
semanales de cada empleado. Esta misma información podrá servir como dato de otro sistema 
que determine los costos semanales por departamento. 
 
 
OPERACIONES DE PROCESO DE LAS COMPUTADORAS 
Las siguientes cuatro operaciones son las únicas que pueden llevar a cabo las computadoras, 
pero bastan para poder ejecutar las actividades de procesamiento de datos que describieron 
anteriormente. 
 Operaciones de entrada/salida: una computadora puede tanto aceptar datos 
(entrada) como emitirlos (salida), a partir de una gran variedad de dispositivos de 
entrada/salida. Los teclados, pantallas, impresoras y otros dispositivos de este género 
hacen posible la comunicación entre los seres humanos y las máquinas. 
 Operaciones de cálculo y manipulación de texto: los circuitos de las computadoras 
efectúan cálculos con los números y son igualmente capaces de manipular caracteres 
no numéricos y los demás símbolos que se utilizan en palabras y enunciados. 
 Operaciones de lógica/comparación: la computadora puede realizar una 
comparación sencilla y después dependiendo del resultado, seguir una trayectoria o 
secuencia de operaciones previamente determinadas para completar su labor. Esta 
facultad sencilla de hacer comparaciones es una propiedad importante de las 
ENTRADA 
(Datos) PROCESO 
SALIDA 
(Información) 
11 
computadoras, ya que es posible responder a preguntas más complejas utilizando 
combinaciones de decisiones de comparación. 
 Operaciones de almacenamiento y recuperación de información: tanto los datos 
como las instrucciones de programa se almacenan dentro de la computadora. Una vez 
almacenados, pueden llamarse o recuperarse rápidamente para ser utilizados. 
 
INTRODUCCIÓN A LOS ORDENADORES. 
Desde hace mas de 4 mil años, el hombre ha intentado encontrar métodos mecánicos para 
simplificar la realización de operaciones matemáticas. Pero hubo que esperar hasta el siglo XIX, 
época en la que aparecieron las primeras máquinas calculadoras mecánicas, antecedentes de las 
computadoras modernas: la máquina de Babbage, o la de Hollerith que utilizaron por vez primera 
tarjetas perforadas. 
A mediados de siglo XX se introdujeron las computadoras de válvulas electrónicas. Pero a partir 
de 1.969, gracias al descubrimiento de los chips de silicio, el microprocesador irrumpió en todos 
los ámbitos de la vida contemporánea. Es el punto de partida de una revolución que se inició con 
las computadoras personales de primera generación (desarrolladas a fines de los 70 por la 
empresa IBM) y que culmino por ahora, con la aparición (a principio de los 90) de la serie de 
procesadores Pentium. En menos de 20 años las computadoras personales mejoraron 
espectacularmente, tanto en capacidad de almacenamiento de datos como en velocidad de 
procesamiento. 
Es importante recalcar que la Informática esta muy generalizada en nuestra vida cotidiana, como 
demuestra todas estas acciones: cuando calentamos algún alimento en el microondas, programar 
la video grabadora, jugar con una consola, escuchar un CD, consultar la hora en el reloj digital, 
usar el termómetro electrónico, cambiar el canal televisivo por control remoto, pagar los productos 
adquirido en un supermercado (lector de código de barras y tarjeta bancaria con banda 
magnética) o extraer dinero de los cajeros automáticos. 
En el campo de la medicina en lo que más ha influido el desarrollo tecnológico ha sido en él 
diagnostico y tratamiento de las enfermedades. 
En este aspecto diversos estudios de diagnostico como la ecografía, tomografía, y resonancia 
magnética, están basados en complejos sistemas de barrido de determinadas zonas del 
organismo, obteniendo precisa información que es trasmitida por ordenadores. 
 
CONCEPTO DE ORDENADOR. 
Es una máquina compuesta por elementos físicos, la mayoría electrónicos capaces de aceptar 
datos a través de medios de entrada, procesarlos automáticamente (con gran precisión y rapidez) 
bajo el control de un programa previamente almacenado y proporcionar la información a través de 
un medio de salida. 
Clasificación de las Computadoras. 
Según su tecnología: 
 Analógicas: son los que reproducen por analogía un proceso físico; los datos son siempre 
continuos, funcionan de manera simultánea, por lo que pueden resolver problemas con 
mayor rapidez que las digitales, pero su 
defecto es el error que pueden producir en la 
medición. 
Características de las computadoras analógicas: 
 Todas las computadoras son rápidas pero la naturaleza directa de los circuitos que la 
componen las hacen más rápidas. 
 La programación en estas computadoras no es necesaria; las relaciones de cálculo son 
construidas y forman parte de estas. 
 Son máquinas de propósito específico. 
12 
 Dan respuestas aproximadas, ya que están diseñadas para representar electrónicamente 
algunos conjuntos de datos del mundo real, por lo que su resultado son cercanos a la realidad. 
Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como viento, 
temperatura, sonido, movimiento, etc. 
La primera se llamó EL ANALIZADOR DIFERENCIAL desarrollada por el Dr. Vanmevar Bush 
(1931). 
 
 Digital: debido a que las magnitudes que en ellos se almacenan varían en forma discreta 
(por dígitos) estos funcionan secuencialmente es decir instrucción por instrucción. Poseen 
una gran exactitud. 
Características de las computadoras digitales: 
 Su funcionamiento esta basado en el conteo de los valores que le son introducidos. 
 Este tipo de computadora debe ser programada antes de ser utilizada para algún fin 
específico. 
 Son máquinas de propósito general; dado un programa, ella pueden resolver virtualmente todo 
tipo de problemas. 
 Son precisas, proveen exactamente la respuesta correcta a algún problema específico. 
 Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones 
de caracteres. 
 
Estas son las más utilizadas. En la actualidad el 95 % de los computadores utilizados son digitales 
dado su gran utilidad a nivel comercial, científico y educativo. 
Algunos ejemplos son: la primera computadora digital se llamó ATONOSOFF BERRY 
COMPUTER desarrollada en 1939 por personal Digital Asistant (PDA), otra fue la DESTOP 
desarrollada por la Universidad del Estado de Lowa, luego le siguió la ENIAC (Integrado 
electrónico numérico y calculadora) que fue la primera computadora digital fabricada en gran 
escala. 
 
 Híbridas: es un sistema construido de una computadora digital y una análoga, conectados 
a través de un interfaz que permite el intercambio de información entre las dos 
computadoras y el desarrollo de su trabajo en conjunto. Aúna las propiedades de exactitud 
y rapidez. Se las utiliza en el control de procesos, en robótica, espacial para calcular las 
trayectorias de los vehículos lanzados hacia la luna. 
Un precedente del ordenador Digital es el ábaco, un precedente del ordenador Analógico es la 
regla de cálculo. 
 
Según Propósitos: 
 General: pueden ser usados para cualquier tipo de proceso de datos. 
 Especial: construidos para ser usados en un tipo de aplicación particular o una industria 
determinada, por ejemplo control de tráfico telefónico aéreo. 
 
Según su capacidad: 
 Macrocomputadoras (Mainframes): son computadoras de uso general, también se 
instalan en ambientes controlados. Tiene gran capacidad de procesamiento y capacidad 
de manejo de puertas de entrada y salida. 
Por tener gran capacidad de almacenamiento, es capaz de tener una colección simultánea 
con muchas terminales. Se utiliza mucho en las empresas de gran tamaño, bancos, etc. Es 
capaz de realizar varios millones de operaciones, por segundo. 
Es un sistema de aplicación general, cuya característica principal es el hecho de que el 
CPU es el centro de casi todas las actividades de procesamiento secundario. Por lo 
general cuenta con varias unidades de discos para procesar y almacenar grandes 
cantidades deinformación. El CPU actúa como arbitro de todas las solicitudes y controla el 
13 
acceso a todos los archivos. El usuario se dirige a la computadora central de la 
organización cuando requiere apoyo del procesamiento. 
Tenemos como ejemplo el DEPARTAMENTO DE VEHÍCULOS AUTOMOTORES, la cual 
tiene muchos empleados, que trabajan con terminales de computadora. Una Terminal es 
una especie de computadora que no tiene su propio CPU o almacenamiento; es solo un 
dispositivo de entrada y salida que actúa 
como una ventana hacia otra computadora 
localizada en alguna parte. Todas las 
terminales están conectadas a una base de 
datos común. La base de datos esta 
controlada por una computadora mainframe 
que puede manejar las necesidades de 
entrada y salida de todas las terminales 
conectadas a ella. 
Era usual que las computadoras mainframe ocuparan cuartos completos o incluso pisos 
enteros de edificios. 
Un buen ejemplo de este tipo de computadoras es la IBM 3090 de la Internacional 
Bussines Machines (IBM), capaz de soportar aproximadamente 5000 terminales 
conectadas. 
 
 Minicomputadoras: En 1960 surgió la mini computadora, una versión más pequeña de la 
microcomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los 
periféricos que necesita un Mainfren, y esto ayudo a reducir el 
precio y costo de mantenimiento. En general, una mini 
computadora, es un sistema multiproceso (varios procesos en 
paralelo) que es capaz de soportar de 10 hasta 200 usuarios 
simultáneamente. Actualmente se usa para almacenar grandes 
bases de datos, automatización industrial y aplicaciones 
multiusuario. Sus principales aplicaciones abarcan áreas de 
ingeniería, universidades, laboratorios de investigación. 
Dos ejemplos típicos de este tipo de computadoras son la VAX de 
Digital Equipment Corporation. 
 
 Microcomputadoras: Es un dispositivo de computación de sobre mesa o portátil, que 
utiliza un microprocesador como su unidad central de procesamiento o CPU. 
Los microordenadores más comunes son las computadoras u ordenadores personales, PC, 
computadoras domesticas, computadoras para las pequeñas empresas o micros. Las mas 
pequeñas y compactas se denominan laptops o portátiles, por caber en la palma de la 
mano. Cuando los microordenadores aparecieron por primera vez, se consideraban 
equipos para un solo usuario, y solo eran capaces de procesar cuatro, ocho o dieciséis bits 
de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y 
grandes computadoras corporativas o Mainframe (así como los sistemas de menor tamaño 
denominados Minicomputadoras) han perdido vigencia ya que los nuevos modelos de 
microordenadores han aumentado la velocidad y capacidad 
de procesamientos de datos de sus CPUs a niveles de treinta 
y dos bits y múltiples usuarios. 
Los microordenadores están diseñados para uso domésticos, 
didácticos, de oficinas. En casa pueden servir como 
herramienta para la gestión domestica (cálculos de impuestos, 
almacenamientos de recetas) y como equipo de diversión 
(juegos de computadoras, catálogos de discos y libros). Los 
escolares pueden utilizarlos para hacer sus deberes, y de 
hecho, muchas escuelas públicas utilizan estos dispositivos para cursos de aprendizaje 
programado independiente y cultura informática. Las pequeñas empresas pueden adquirir 
microcomputadoras para los procesamientos de texto para la contabilidad, y el 
almacenamiento y gestión de correo electrónico. 
14 
Orígenes: el desarrollo de las microcomputadoras fue posible gracias a dos innovaciones 
tecnológicas en el campo de la microelectrónica: el circuito integrado, también llamado IC 
(acrónimo de Integrate Circuits), que fue desarrollado en 1959; y el microprocesador que 
apareció por primera vez en 1971. El IC permite la miniaturización de los circuitos de 
memoria de la computadora y el microprocesador redujo el 
tamaño de la CPU a una sola pastilla o chip de silicio. El hecho de 
que la CPU calcule, realice operaciones lógicas, contenga 
instrucciones de operación y administre los flujos de información 
favoreció el desarrollo de sistemas independientes que 
funcionaron como microordenadores completos. El primer 
sistema de sobremesa de tales características, diseñado 
específicamente para uso personal, fue presentado en 1974 por 
MICRO INSTRUMENTATION TELEMETRY SYSTEMS (MITS). 
 
 
ANTECEDENTES HISTÓRICOS DE LOS ORDENADORES. 
Del ábaco a la computadora personal: el ábaco y la computadora personal son dos pequeños 
dispositivos para procesos de datos separados por miles de años de historia. 
Por mucho tiempo los seres humanos vivieron sin registrar 
la información en forma permanente. Alrededor de 3.500 a. 
C. los mercaderes babilónicos mantenían archivos en 
tabletas de barro. El ábaco fue uno de los primero 
instrumentos manuales para calcular. 
Las técnicas de archivado se siguieron desarrollando a 
través de los siglos (las auditorias de los griegos, los 
presupuestos de los Romanos, etc.). En 1.642 Blas Pascal, 
desarrollo la primera máquina calculadora mecánica. Unos treinta años mas tarde, el matemático 
alemán Gottfried Von Leibniz mejoró el invento de Pascal produciendo una máquina que podía 
sumar, restar, multiplicar, dividir y extraer raíces. 
En la década de 1880 el procesamiento de datos en los Estados Unidos se llevaba a cabo con 
lápices, plumas y reglas. Por esas fechas se inventó el 
equipo electromecánico para trabajar con tarjetas 
perforadas (tejedor Francés quien las utilizó para 
controlar sus telares mecánicos). El inventor de la 
técnica de tarjetas perforadas fue Herman Hollerith, 
quien inventó la máquina del censo, la cual solo 
necesitaba una octava parte del tiempo por lo que la 
utilizaron en el censo de 1890. En 1896 comenzó a 
fabricar y vender su invento, mas tarde su firma se fusionaría con otras para formar IBM 
Corporations. El procesamiento de tarjetas perforadas que se basó en registrar primero los datos 
de entrada en forma codificada haciendo perforaciones en tarjetas, luego las tarjetas se 
introducen en una serie de máquinas electromecánicas que realizan los pasos de procesamientos. 
Los primeros avances del desarrollo de la computadora: a unos cincuenta años de los trabajos de 
Hollerith, el matemático Charles Babbage propuso una máquina a la que le dio el nombre de 
“Máquina Analítica” adelanta cien años a su época. La matemática Ada Lovalece ayudó a 
Babbage a corregir algunos errores e inventó formas novedosas de enfocar el diseño de 
programas empleando tarjetas perforadas. Al morir Babbage, el desarrollo de las computadoras se 
detuvo hasta 1937; las tarjetas perforadas dominaron el mundo de proceso de datos. 
Luego en la Universidad de Harvard, por un proyecto entre la IBM y Howard H. Aiken (profesor), 
se construiría una máquina calculadora automática la cual combinaba tecnología eléctrica y 
mecánica con la técnica de tarjetas perforadas; el proyecto se completo en 1944; el aparato se 
denomino computadora digital MARK I, esta era una computadora electromecánica. 
15 
El primer prototipo de computadora electrónica se concibió entre 
1937 –1938 por el Dr. J. Atanasoff; este decidió construir la suya 
debido a que ninguna de las calculadoras disponibles en ese 
entonces era adecuada para sus necesidades y formó un equipo 
con Clifford Berry. Luego comenzó a construir la primera 
computadora electrónica (computadora Atanasoff-Berry o ABC). La 
ABC empleaba bulbos al vació para almacenar datos y efectuar 
operaciones aritméticas y lógicas; esta se diseño con el objetivo 
especifico de resolver sistemas de ecuaciones simultaneas. 
ENIAC fue la primera computadora electrónica de aplicación general que entró en funcionamiento. 
Financiada por él ejercito de Estados Unidos, se construyo como proyecto secreto durante la 
guerra. También se utilizaron bulbos al vacío. Esta podía hacer trescientas multiplicaciones por 
segundo lo que la hacia trescientas veces más rápida que cualquier 
otro dispositivode la época. Las instrucciones de operaciones de 
ENIAC no se almacenaban internamente más bien, se introducían 
por medio de tableros de clavijas e interruptores localizados en el 
exterior. El ejército la utilizó hasta 1955 y después se coloco en el 
Smithsonian Institutions. 
A mediados de 1940, el matemático John Von Neumann escribió un 
trabajo sugiriendo utilizar sistemas de numeración binarios para construir computadoras y que las 
instrucciones para las computadoras se almacenaran internamente en la máquina. La primera de 
esas ideas se basó en que, el sistema de numeración binaria utiliza únicamente dos dígitos (0 y 1) 
en vez de los diez dígitos (0 y 9) del sistema decimal con el que todo mundo estamos 
familiarizados. El concepto binario simplificó el diseño del equipo. La segunda idea era que, los 
programas se podían almacenar de la misma forma como se 
almacenaba los datos. 
Aunque estas ideas no se incorporaron en ENIAC se dedicaron a la 
tarea de construir una máquina que pudiera almacenar programas, 
la primera computadora electrónica de programa almacenado 
corresponde a la EDSAC terminada en 1949. 
La carrera para entrar al mercado y el retraso sufrido por EDVAC, 
hizo que Eckert y Maushli fundarán su propia compañía en 1946. 
Comenzaron a trabajar en la Computadora Automática Universal (UNIVAC). Fue en 1951 que, la 
UNIVAC I comenzó a funcionar en la oficina del censo. Cuando la UNIVAC desplazo al equipo de 
tarjetas perforadas en la oficina del censo, el hijo del fundador de IBM, reacciona rápidamente 
para introducir a la IBM en la era de la computación. 
La IBM 650 entró en servicio a fines de 1954, siendo una máquina 
relativamente barata para aquella época, tuvo gran aceptación y dio a 
la IBM liderazgo en la producción de computadoras en 1955. Entre 
1954–1959 se utilizaron computadoras para procesar datos y tareas 
rutinarias; se comprobó que la computadora era un procesador rápido, 
exacto e incansable de grandes cantidades de información. 
 
DESARROLLO DE LAS COMPUTADORAS PERSONALES. 
Los pioneros de las computadoras personales: en 1974 se anunció la construcción de la primera 
computadora personal. Constituida alrededor de un microprocesador, llamada SCELBI-8H, que 
más tarde sería la ALTAIR 8.800 (diseñada con base en una pastilla de Intel). Se creó la Microsoft 
Corparations para vender el programa de Basic Gates-Allen y la licencia de Microsoft se concedió 
a MITS a fines de 1975. Actualmente, Microsoft es uno de los principales proveedores de 
programas para computadoras personales. 
Los primeros éxitos: en 1976 un joven técnico llamado Steve Wozniak creó la Apple I pero a fines 
del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. A fines de 1977, las 
16 
máquinas que dominaban el mercado eran la Apple II, TRS_80 y varias otras marcas. La mayor 
parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse 
con estas computadoras. 
Los años recientes: al comienzo de la década de 1980, se introdujo una nueva generación de 
modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el 
mercado con su familia de computadoras PC logrando enorme éxito. Pero aparecieron en forma 
paralela compañías pequeñas que ofrecían equipos y programas nuevos. Se desarrollo el primer 
software integrado con ventanas alrededor de 1970. Sin embargo, estas ideas aparecieron en un 
producto comercial cuando Xerox introdujo su 8010 en 1981. Los datos y programas se 
presentaban en la pantalla por medio de imágenes pequeñas llamadas iconos. 
Los ingenieros de Apple diseñaron una computadora de menor costo que incluía muchas de las 
características de Xerox 8010. Este sistema de Hardware-Software, llamado Lisa se anunció en 
1983. En el año 1984 se introdujo la Apple Macintosh, también se introdujeron docenas de 
paquetes integrados diseñados para las computadoras personales más populares y los 
vendedores de equipos se apresuraron a crear sistemas para apoyar la orientación grafica que 
prefieren muchas personas al interactuar con computadoras personales. 
 
 Apple Macintosh Xerox 8010 Apple II Apple I ALTAIR 8.800 
 
GENERACIÓN DE ORDENADORES Y CARACTERÍSTICAS MÁS IMPORTANTES 
Primera Generación (1940-1952): la constituyen todas aquellas computadoras 
que diseñadas a base de válvula de vacío, como principal elemento de control y 
cuyo uso fundamental fue la realización de aplicaciones en los campos científicos y 
militar. Se utilizó como lenguaje de programación el lenguaje máquina y como 
únicas memorias para conservar información las tarjetas perforadas, la cinta 
perforada. 
 
Segunda generación (1952-1964): al sustituirse la válvula de vació por el transistor, comenzó la 
llamada segunda generación de computadoras. En ella las máquinas 
ganaron potencia y fiabilidad, perdieron tamaño consumo y precio, lo que 
las hacia mucho más practicas y accesibles. Las computadoras de la 
segunda generación eran sustancialmente más pequeñas y rápidas que las 
de bulbo, y se usaban para nuevas aplicaciones; como los sistemas de 
reservación en líneas aéreas, control de transito aéreo, y simulaciones para 
uso general. Las empresas comenzaron a aplicar las computadoras a 
tareas de almacenamiento de registro, como manejo de inventarios, nomina 
y contabilidad. La marina de Estados Unidos utilizó las computadoras para 
crear el primer simulador de vuelo. Comenzaron además a utilizarse los llamados lenguaje de 
programación evolucionado, que hacían más sencilla la programación entre ellos. Podemos citar 
el Ensamblador y algunos de los denominados de alto nivel, como Fortran, Cobol y Algol. También 
comenzaron a utilizarse como memoria interna los núcleos de ferrita y el tambor magnético, y 
como memoria externa la cinta magnética y los tambores magnéticos. 
 
Tercera generación (1964-1971): en esta generación el elemento más 
significativo es el circuito integrado aparecido en 1964, el cual consistía 
en el encapsulamiento de una variada cantidad de componentes 
discretos tales como resistencias, condensadores, diodos, y transistores. 
17 
Conformando uno o varios circuitos con una función determinada, sobre una pastilla de silicona o 
plástico. La integración en miniaturización se extendió a todos los circuitos de la computadora, 
apareciendo las mini computadoras. El software evolucionó considerablemente con un amplio 
desarrollo de los sistemas operativos, en los cuales se incluyó el tiempo real, la multiprogramación 
y el modo interactivo. Comenzaron a utilizarse también las memorias de semiconductores y los 
discos magnéticos. 
 
Cuarta Generación (1971-1981): aquí aparece el microprocesador, consistente en la 
integración de toda la CPU de una computadora en un solo circuito 
integrado. Dos mejoras en la tecnología de las computadoras marca el 
inicio de la cuarta generación: por un lado el reemplazo de las memorias 
con núcleos magnéticos, por las de chips de silicio, y por el otro la 
colocación de muchos más componentes en un chips. La tecnología 
utilizada es la LSI (integración a gran escala) que permitió la fabricación 
de microcomputadoras y computadoras personales, así como las 
computadoras monopastillas. Se utilizó, además, el disquete (floppy disk) 
o unidad de almacenamiento externa. Aparecieron una gran cantidad de 
lenguajes de programación de todo tipo y las redes de transmisión de 
datos (teleinformática) para la interconexión de computadoras. 
 
Quinta Generación (1981- ....): Alrededor del año 1981 los principales países productores de 
nuevas tecnologías (Estados Unidos y Japón) anunciaron una nueva generación. Estas nuevas 
tecnologías surgieron dentro de la computación como: Inteligencia Artificial, Sistemas Expertos 
y Realidad Virtual. 
Los japoneses iniciaron el desarrollo de lo que llamaron una computadora inteligente haciendo un 
uso extensivo de la inteligencia artificial. 
La inteligenciaartificial es el campo de estudio que trata de aplicar los procesos de 
razonamiento humano utilizados para la resolución de problemas, a una computadora. Si alguna 
vez pueden incorporarse estos procesos en una computadora, se estará ante la posibilidad de 
poder comunicarnos con ella muy similarmente a como nos comunicamos con otros humanos, en 
lo que normalmente se conoce como lenguaje natural. Para que una computadora use tal 
lenguaje, necesitará un cierto conocimiento que sea similar a la cultura general de cada ser 
humano. 
Las características generales de esta generación son 
 Utilización de componentes integrados a muy alta escala (VLSI). 
 Computadoras con inteligencia artificial. 
 Utilización del lenguaje natural (lenguaje quinta generación). 
 Interconexión entre todo tipo de computadora, dispositivos y redes (redes integradas). 
 Integración de datos, imágenes y voz (en torno multimedia).

Continuar navegando