Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 UNIDAD N° 1: INTRODUCCIÓN A LA INFORMÁTICA. ASIGNATURA: BIOINFORMATICA CARRERA: MEDICINA 2 DEFINICIÓN Y ORIGEN DEL TÉRMINO INFORMÁTICA. A lo largo de la historia se ha necesitado transmitir y tratar información de forma continua. La informática nace de la idea de ayudar al hombre en aquellos trabajos rutinarios y repetitivos, generalmente de cálculo y de gestión, donde es frecuente la repetición de tareas. El término Informática se creó en Francia en el año 1962 bajo la denominación de INFORMATIQUE y que procede de la contracción de las palabras INFORmation y autoMATIQUE. Informática: es la ciencia que estudia el tratamiento automático y racional de la información. El gran desarrollo alcanzado por las organizaciones en la actualidad demanda una enorme cantidad de Información. En nuestros días, las empresas están obligadas a tomar decisiones cada vez más precisas y con mayor rapidez. La ciencia que estudia la obtención de Información por medios automáticos se denomina Informática. El gran desarrollo que ha tenido en los últimos años la Informática como ciencia ha sido posible gracias a los enormes avances tecnológicos, que ha experimentado el Proceso de Datos con los Ordenadores electrónicos digitales. Antes de la invención de los ordenadores: 1. Muchos problemas solo podían ser resueltos en forma aproximada, por carecer de los medios apropiados. 2. Los problemas que se podían resolver en forma completa quedaban reducidos a un pequeño ámbito de datos iniciales y, en consecuencia, de aplicabilidad. 3. Muchos problemas eran inabordables porque el análisis manual de los datos requería de un tiempo excesivamente largo y no permitía obtener la solución con un tiempo de respuesta apropiado a la acción deseada. 4. A menudo, el problema requería que una enorme cantidad de datos fueran almacenados y actualizados en forma continua, cosa que significaba, con métodos manuales, costos altos. 5. Ciertas operaciones de control de procesos requerían, realizar cálculos muy complejos con un tiempo de respuesta absolutamente impensable con los medios existentes. Para lograr sus metas, la Informática, estudia el diseño y utilización de equipos, sistemas y procedimientos que permiten captar y tratar los datos para obtener Información útil para la toma de decisiones. Decimos que la Informática es el estudio que define las relaciones entre los medios (equipo), los datos y la Información necesaria en la toma de decisiones desde el punto de vista de un sistema integrado. Este esquema relaciona lo dicho en el párrafo anterior, indicando que la Información es necesaria para tomar buenas decisiones, lo cual se traducirá en una actuación adecuada y esto a su vez nos permitirá lograr los objetivos de la organización. Específicamente, la Informática trata de los dos primeros aspectos. Consideramos que la Informática es una ciencia aplicada, directamente relacionada con la toma de decisiones. Decimos que es una ciencia porque constituye un conjunto de conocimientos de validez universal y además porque utiliza el método científico para el logro de sus objetivos. LOGRO DE LOS OBJETIVOS ACTUACIÓN ADECUADA BUENAS DECISIONES INFORMACIÓN 3 El campo de acción de la Informática resulta muy amplio pues sus objetivos son, por ejemplo: definir procedimientos para preparar un informe de ventas, establecer si los informes de avance de producción se elaborarán manualmente o con medios automatizados, la elaboración de informes de tipo contable, el tratamiento de la información para poder decidir en donde localizar nuestra próxima planta, etc… Algunos llegan a considerar la informática como la ciencia de la comunicación. Siempre que se presenta una necesidad de información es para cubrir unos objetivos y para determinar estas necesidades se deberá hacer un buen análisis de las mismas. Después para captar los datos necesarios hace falta escoger un soporte adecuado sobre el cual registrarlos. La forma de registrar los datos deberá estar estandarizada, se procurara usar claves o códigos en lugar de los datos en su forma completa. Se debe procurar que los datos aparezcan en el mismo orden, respetando un formato. Una vez captados los datos será conveniente filtrar los que sean erróneos o improcedentes a fin de evitar errores en los resultados. Para ello si hace falta se ordenaran, se harán cálculos y se darán resultados. Así mismo si queremos que más tarde se pueda hacer recuperación de datos en forma selectiva a consulta rápida sobre los mismos será necesario proveer un buen método de organización del archivo. Lo dicho es válido tanto como para procedimientos manuales, mecánicos o automatizados. La ganancia que nos aportara usar máquinas sería: 1. Mayor velocidad de proceso. 2. Mayor confiabilidad o sea, menos errores humanos. 3. Mayor eficacia y más velocidad en consulta de archivos. APLICACIÓN DE LA INFORMÁTICA. Es bien conocido que uno de los agentes más importantes de la sociedad actual es la información; de ahí el gran desarrollo e interés de la Informática. La misma tiene por objeto el tratamiento automático de la información e incidencia en casi todas las actividades humanas, ya sea de forma directa o indirecta. Las computadoras resultan útiles para aplicaciones que reúnen una o varios de las siguientes características: 1. Necesidad de un gran volumen de datos. Los computadores resultan particularmente adecuados para procesar grandes cantidades de datos (por ejemplo, datos relacionados con los clientes de una entidad bancaria). 2. Datos comunes. Las bases de datos posibilitan que los datos incluidos en un computador puedan utilizarse en múltiples aplicaciones, sin necesidad de que estén físicamente repetidos. Ello, además de ahorrar tiempo en la introducción de los datos, y ahorrar espacio en la memoria masiva, facilita considerablemente la actualización de los mismos. Por ejemplo, una vez introducida la información sobre un profesor de una universidad, esta podría ser utilizada, sin necesidad de replicarla, para distintas aplicaciones tales como: realización de horarios de clases, control de carga docente del profesorado, elaboración de censo para elección de órganos de gobierno, etc. 3. Repetitividad .Tal vez una de las características más relevantes. Los computadores (y su lenguaje de programación) son capaces de procesar ciclos de instrucciones iterativamente. Una vez programadas las instituciones que constituyen un ciclo y el número de iteraciones, el computador las ejecutara sin importar cuan elevado sea dicho número. También un mismo programa o rutina puede ser ejecutado con gran cantidad de datos (por ejemplo, un programa para calcular los intereses de las cuentas corrientes de los clientes de un banco). 4. Distribución. El origen y destino de la información no necesitan estar ubicado en el computador central. En efecto, la información que procesa un computador puede introducirse 4 (u obtener los resultados) a través de terminales distribuidos en áreas geográficas muy extensas (de distintas habitaciones del edificio de una empresa, hasta estaciones repartidas por todo el mundo a través de líneas telefónicas).También puede procesarse la información en distintos computadores distribuidos en red. 5. Un computador puede realizar todas sus operaciones con una precisión controlada, obteniendo resultados consistentes con la precisión de los datos introducidos. 6. Cálculos complejos utilizando lenguajes de programación adecuados y rutinas de bibliotecas matemáticas (resolución de modelos matemáticos atmosféricos para predicción del tiempo, por ejemplo). 7. Las operaciones que realiza un operador las efectúa a gran velocidad, en comparación con la realización de las mismas por los humanos. Aquellas actividades que requieran o presenten algunas de las características anteriores, soncandidatas a ser efectuadas con ayuda de un computador. Además, se han desarrollado nuevas metodologías y técnicas que han ampliado notablemente el abanico de posibles aplicaciones de la Informática. DIFERENCIA ENTRE DATOS E INFORMACION No es lo mismo disponer de datos que disponer de información. Aunque muchas veces ambos términos son utilizados como sinónimos en el lenguaje común, es de suma importancia aclarar la diferencia que desde el punto de vista de la informática existe entre estos dos conceptos. Utilizando un símil mecánico, diremos que los datos son a la información lo que la fuerza es al trabajo. Para que una fuerza realice un trabajo es preciso que desplace su punto de aplicación. De la misma manera, para que un dato proporcione información es preciso que sea procesado y se aplique sobre una capacidad de actuación. Los datos son los insumos, la materia prima necesaria para la obtención de la información. De un conjunto de datos, organizados y procesados convenientemente, podemos extraer el conocimiento que nos faculta para una actuación apropiada. Los datos son magnitudes numéricas directamente medidas o captadas o también valores cualitativos, hechos, premisas, frases, principios filosóficos, etc.… Los datos no son información más que en un sentido amplio de «información de partida» o «información inicial», pero los datos por sí mismos no nos permiten la adopción de la decisión más conveniente porque no aportan los conocimientos necesarios, debemos procesarlos y obtener una estructura útil y significativa llamada información. Por ejemplo, disponer de todas las notas obtenidas por los alumnos de una clase constituye los datos necesarios para poder obtener la información de un porcentaje de alumnos que han superado con éxito las pruebas calificadoras y tener un medida del grado de aprovechamiento del curso. Los datos se presentan por medio de símbolos. La información consta de datos organizados en una forma que es útil para las personas que lo reciben, en otras palabras: “Información son todas aquellas representaciones simbólicas que por el significado que se le asigna quien la reciba e interpreta, contribuyen a disminuir la incertidumbre de forma que pueda decidir un curso de acción entre varios posibles” La información no solo sirve para decidir cuál es el mejor accionar para lograr un objetivo. Tomada una decisión por un determinado curso de acción, para concretarlo se requiere saber qué acciones hacen falta realizar, y en que secuencia. La diferencia así establecida entre datos e información se manifiesta especialmente en el ámbito de la computación. Una computadora recibe símbolos correspondientes a ciertos datos, opera con ellos, y obtiene resultados que también son representaciones simbólicas, que en ningún momento tienen significado para la máquina. Solo pueden tenerlo para el hombre, cuando los interpreta mediante su mente de manera que pueda tomar una decisión. Si bien muchas veces se confunden 5 con un significado semejante las palabras "información" y "datos", diremos que toda información consta de datos, pero no todos los datos constituyen información. La información es un conjunto organizados de datos procesados que constituyen un mensaje. Es todo aquello que permite adquirir cualquier tipo de conocimiento, por lo que existirá información cuando se da a conocer algo que se desconoce. Los datos que maneja un programa son en un principio información no elaborada y que una vez procesados constituyen lo que se denomina información útil o simplemente resultado. Una de las características esenciales de la información es la de modificar, en el sentido de aumentar nuestros conocimientos, aunque sólo sea en el sentido de -como decía Séneca- «sólo sé que no sé nada». Saber que carecemos de la información apropiada y, por lo tanto, no estamos capacitados para tomar una decisión, es ya todo un conocimiento y una «sabiduría». ESTRUCTURAS DE DATOS Y ALGORITMOS Las computadoras son máquinas para el tratamiento automático de la información. Esta información no se almacena ni se representa al azar, sino que debe organizarse o estructurarse en forma adecuada para obtener un rendimiento razonable en su memorización, tratamiento y recuperación. El tratamiento de la información se debe realizar de un modo sistemático. La resolución de cualquier problema conlleva el encontrar un método de resolución expresado con la suficiente precisión para poder ser descompuesto en acciones realizables por el computador (esto es lo que se denomina un algoritmo). SÍMBOLO Y DATOS Símbolo es todo aquello que por conversión nos remite a algo que no necesariamente necesita estar presente. Este algo está presente en nuestro entender, de acuerdo a lo que el signo representa o significa. Entendemos algo como símbolo, lo interpretamos, tiene significado, cuando este responde a lo que significa. O sea cuando podemos establecer una relación entre el símbolo y lo que constituye su significado, de acuerdo a una cierta convención. El significado de un símbolo es establecido por el uso que le da la cultura que lo utiliza. Puede ocurrir que el mismo símbolo tenga distintos significados dentro de una misma cultura, dependiendo del contexto en que se inserta. Los Datos son representaciones simbólicas de propiedades o cualidades de entes y sucesos. TIPOS DE DATOS Se denomina dato a cualquier objeto manipulable por el computador. Un dato puede ser tanto un carácter leído de un teclado, como las variables utilizadas en dicho programa. Así mismo son datos, la información externa al programa a la que se puede acceder mediante un procedimiento, ya este grabada en algún medio de memoria masiva o sea generada por algún periférico. Cuando utilizamos un computador para resolver un problema, debemos hacer una abstracción de este y de las magnitudes que influyen en él. Dichas magnitudes deben ser representadas por datos. La representación de una magnitud como dato, se puede entender como una aplicación que hace corresponder un dato a cada valor de la magnitud. Por ejemplo, para resolver un problema en que intervengan distancias: es preciso tener una aplicación, T del conjunto de valores de la magnitud distancia, d, en un conjunto de datos, D. En esta transformación es deseable que esté definido sobre todo, el conjunto de valores de la magnitud. Es conveniente además, que sea univoca, es decir, que a dos valores de magnitud distinto se asocie datos distintos. Para que se pueda operar con los datos es necesario que existan operaciones internas en el conjunto de datos, que sean semejantes a las operaciones usuales en el conjunto de magnitudes. Dichas operaciones deben cumplir que: la imagen según la transformación T del resultado de una operación en el conjunto de magnitudes, sea igual al resultado de operaciones correspondientes en el conjunto de datos sobre las imágenes de los operandos. 6 Se denomina tipo de dato al conjunto de la transformación T y de las operaciones y funciones internas y externas definidas sobre el conjunto de datos. Distintas transformaciones darán lugar a distintos tipos de datos, aun cuando el conjunto de origen a representar sea el mismo. Tipos de datos básicos más usuales en Informática: Entero, real, carácter, lógico, enumerado. Nos encontraremos con diferentes tipos de datos en la representación de la información tanto a nivel físico del computador, como en los lenguajes de programación. Datos de tipos enteros El tipo entero es una representación del conjunto de los números enteros, la representación es posible para un subrango de magnitudes enteras centrado en el origen 2 -1 y -2 . La razón de esta limitación ésta en la necesidad de utilizar un espacio finito y fijo, para cada dato, y en el hecho de que la transformación realizada entre los números enteros y el tipo de datos consiste en representar el número en binario y almacenarlo con un número fijo de bits.El número de datos distintos de tipo entero que se pueden generar, cardinalidad del tipo, es 2 (donde n es el número de bits que se utiliza en la representación). Por lo tanto, si se modifica el número de bits se obtienen distintos tipos enteros. En consecuencia, no todos los números enteros se pueden representar. A cada operación aritmética sobre el conjunto de números enteros se le asocia, en el tipo entero, la operación correspondiente. Estas operaciones no pueden realizarse sobre cualquier par de datos enteros, ya que aparecen indeterminaciones debido a la propia representación. Así, si el máximo valor positivo de tipo entero es 32 767 (como ocurre si la representación se realiza con n =16), al realizar la operación: 32 767 + 1 se obtendría un resultado no representable en el tipo. Este tipo de error se conoce como desbordamiento. Cuando esto sucede, el computador puede, o no, avisar al usuario. En cualquier caso se obtendrá como resultado algún dato de tipo entero pero este no corresponderá con el valor que se obtendría al realizar la misma operación con números enteros. En el caso anterior el numero generado seria -32 768, si la representación es en complemento a2. Cualquier operación con datos de tipo entero es exacta salvo que se produzcan desbordamientos. Datos de tipo real El tipo de datos reales es una representación del conjunto de números reales. Esencialmente la transformación realizada consiste en expresar el número en la forma N = M · BE Donde N es el número real a representar, B es la base utilizada para el exponente (que puede estar prefijada para un computador dado), E es el exponente del número y M es la mantisa. El número se almacena en el computador y yuxtaponiendo el signo, el exponente y la mantisa, cada uno con un numero de bits prefijado. Esta representación no permite el almacenamiento de números muy grandes o muy pequeños, lo que conlleva que se produzcan desbordamientos. Por otra parte, la limitación del número de bits para representar la matiza provoca una falta de precisión en la representación. Esto es debido a que la aplicación que define al tipo real no es univoca. Es decir, cada dato de tipo real es la imagen de un conjunto infinito de números reales, concretamente representa a un intervalo de la recta real. Para los datos de tipo real están definidas las operaciones aritméticas. La suma y la multiplicación de datos de tipo real cumplen la propiedad conmutativa, pero no siempre la asociativa ni la distributiva. Esto sucede porque el orden en el que se realizan las operaciones influye en el resultado. En cada operación se producen errores por falta de decisión en la representación (errores de redondeo), que se acumulan durante todo el proceso de cálculo. Datos de tipo lógico Los datos de tipo lógico representan valores lógicos o booleanos. Pueden tomar uno de entre dos valores: verdadero o falso. 7 Sobre los valores lógicos pueden actuar los llamados operadores lógicos. Los operadores lógicos fundamentales son: Y, O y NO .La definición de las operaciones se hace indicando su resultado para las cuatro posibles combinaciones de valores de los argumentos. En algunos lenguajes de programación hay definidos sobre los datos de tipo lógico otros operadores booleanos, como son: NO – Y, NO – O y NO – exclusivo. Un caso particularmente importante de valor de tipo lógico es el obtenido como resultado de una operación de relación sobre datos de un tipo, para el que existe una relación de orden (tipos entero, real, carácter, enumerado, subrango por ejemplo).Una relación es una expresión formada por dos operandos pertenecientes a un mismo tipo ordenado y un operador de relación. Son operadores de relación los siguientes: mayor o igual, mayor, menor o igual, menor, igual, distinto. El resultado de una operación de relación es el valor lógico verdadero si la relación expresada es cierta, y falso en caso contrario. Una relación es, pues, una operación externa sobre el tipo de datos de los operandos. Datos de tipo carácter Los datos de tipo carácter representan elementos individuales de conjuntos finitos y ordenados de caracteres. El conjunto de caracteres representados depende del computador. Uno de los conjuntos más usuales es el ASCII (American Standard Code for Information Interchange —Código Estándar Estadounidense para el Intercambio de Información—). Ejemplo de algunos caracteres ASCII. No hay ninguna operación interna sobre datos de tipo carácter (salvo la asignación, A = B). Normalmente existen funciones de conversión de tipo. Como por ejemplo, la que asocia a cada dato de tipo carácter un valor entero, que indica su posición en el código. Datos de tipo numerado Los datos de tipo numerado se definen explícitamente dando un conjunto finito de valores. Al contrario de los tipos vistos anteriormente, el tipo de datos enumerados, como el tipo subrango y los tipos estructurados, no es un tipo normalizado. Puede haber muchos tipos de datos enumerados distintos dentro de un programa en un lenguaje determinado, mientras que no habrá más que un tipo lógico. En cierto modo podemos considerar al tipo de dato enumerado como una clase de tipos de datos, a la que pertenecerán todos los tipos definidos por enumeración. Los tipos de datos vistos anteriormente son usualmente tratados para el computador a nivel hardware. Mientras que el tipo de dato enumerado y su rango son solo interpretados por el software. Internamente, los datos de tipo enumerado se almacenan como valores enteros. A cada valor del tipo se le asocia un entero consecutivo, comenzando por cero. Existen como en el tipo carácter, funciones de conversión a entero. ESTRUCTURAS DE DATOS Los tipos de datos vistos suelen denominarse elementales, se pueden utilizar para construir tipos de datos más elaborados. Una estructura de dato o tipo de dato estructurado es un tipo de dato construido a partir de otros tipos de datos. Así, un dato de tipo complejo, que representa el 8 conjunto de números complejos, es un par ordenado de datos reales por tanto un tipo de dato estructurado. Un dato de tipo estructurado está compuesto por una serie de datos de tipos elementales y alguna relación existe entre ellos. Normalmente la relación suele ser de orden, aunque puede ser de otro tipo. Una estructura de dato se dice que es homogénea cuando todos los datos elementales que la forman son del mismo tipo, sino es heterogénea. Siempre que se utilice un dato en un programa debe estar determinado su tipo, para que el traductor sepa cómo debe tratarlo y almacenarlo. En el caso de tipos elementales, el tipo de dato determina el espacio que se usa en memoria. Esto no ocurre si el dato es de tipo estructurado en este caso el compilador le reserva el espacio de memoria mínimo que necesita. Durante la ejecución del programa la estructura de datos puede ir ocupando más memoria, pero el máximo espacio al que puede llegar esta limitado por el espacio libre en el programa. Si se necesitase más memoria de la disponible en el programa, este terminaría en error. Una estructura de datos que es gestionada de esta forma se dice que es dinámica, ya que la memoria que necesita se asigna dinámicamente. Por el contrario, una estructura de datos que siempre ocupa el mismo espacio se dice que es estática. ACTIVIDADES DEL PROCESAMIENTO DE DATOS El proceso de datos consiste en la transformación de insumos (datos), los cuales no son útiles por sí mismos, a través de un proceso a fin de obtener un producto (información), que sí puede ser útil sin transformaciones posteriores. Tal proceso estará integrado a un sistema diseñado para obtener información necesaria en la toma de decisiones. Por otra parte, se ha establecido el sistema quepermita captar los datos necesarios y la forma como deberán ser procesados para lograr la información que se requiere. El Proceso de Datos consiste en planificar una serie de acciones y operaciones sobre determinados datos con el fin de llegar a una información deseada. Los procedimientos y dispositivos utilizados constituyen un Sistema de Información. Los medios utilizados son muy variados; todas las operaciones pueden realizarse por medio de una máquina, o bien simplemente con un lápiz y papel. Sin embargo los procedimientos son básicamente los mismos. El Proceso de Datos, estudia la utilización de equipos en los Sistemas de Información. Mientras que el Análisis y Diseño de Sistema, comprende el estudio y diseño de sistemas y procedimientos con relación a la toma de decisiones. Dentro de este campo se destacan aspectos importantes como: la toma de decisiones automáticas, modelos matemáticos para obtener información útil, problemas humanos en captación, registros de datos y elaboración e interpretación de informes, control de procesos, etc… El procesamiento de datos consta de tres actividades básicas: Captura de datos de entrada: los que deben registrarse o capturarse de alguna manera antes de poder procesarse. Puede registrase inicialmente en documentos fuente de papel, o puede capturarse por medio de un dispositivo de entrada directa. Manipulación de los datos: después de captar los datos, quizás será necesario realizar una o más de las siguientes operaciones con los datos recolectados. Agrupación: se denomina así al proceso de organizar elementos similares para formar grupos o clases. Se lleva a cabo por lo general, al asignar abreviaturas o códigos, previamente determinados a los elementos que se van a organizar. Los códigos son de tres tipos: numéricos, alfabéticos y alfa numéricos. Cálculo: la manipulación aritmética de los datos se llama cálculo y es una actividad de procesamiento muy común. 9 Clasificación: casi siempre es más fácil trabajar con los datos si están ordenados en una secuencia lógica. Se denomina clasificación al ordenamiento de los datos agrupados según una secuencia del primero al último (del más grande al más pequeño, del más antiguo al más nuevo, etc.). Síntesis: es la reducción de grandes volúmenes de datos a una forma más concisa y manejable. Manejo de los resultados de salida: después de captar y manipular los datos, quizás sea necesario llevar a cabo una o más de las siguientes operaciones: Almacenamiento y recuperación: almacenamiento es la conservación de los datos para consultarlos en el futuro. La recuperación consiste en obtener los datos o información almacenados. Comunicación y reproducción: la comunicación de datos es la transferencia de datos de una localidad u operación a otra, para utilizarlos o seguirles procesando, y este proceso continúa hasta que la información en forma útil llega hasta el usuario final. Es natural que en ocasiones sea preciso copiar o duplicar la información. CUALIDADES DE LA INFORMACIÓN. Desgraciadamente, no todos los responsables de tomar decisiones cuentan con la información adecuada a sus fines; generalmente la información disponible resulta superflua, incompleta, poco clara, demasiado voluminosa, o llega demasiado tarde para poder ser aprovechada. Para que una información sea útil es necesario que le permita al responsable de la toma de decisiones formar con suficiente antelación una idea clara y completa de la situación, en forma tal que sus decisiones tengan el fundamento objetivo óptimo posible. Estas serán, pues, las cualidades de una buena información: Precisión: La información debe ser precisa. La precisión se mide en el nivel de detalle y desmenuzamiento. Por ejemplo, decir «se han vendido 39 piezas» es mucho más preciso que decir «se han vendido varias docenas de piezas». La precisión a exigir depende, naturalmente, de cada aplicación concreta. Tan inapropiado es un exceso como un defecto de precisión. Decirle a un carpintero que la altura de la mesa que le encargamos será de 81.47325 cm es, evidentemente, un exceso de precisión. Exactitud: La información debe ser exacta. La exactitud se mide en términos de porcentaje de error. Es una medida del alejamiento de la realidad. También la aplicación concreta nos marcará, en cada caso, una mayor o menor exigencia de exactitud. El lanzamiento de un misil exigirá un nivel de exactitud mucho más elevado que el que pueda requerir el estudio de mercado de una empresa para el lanzamiento de un nuevo producto de temporada. Naturalmente no se podrá obtener la exactitud suficiente si los datos de partida son incorrectos o erróneos. Mediante el proceso de datos se podrán filtrar datos inválidos y se podrán subsanar, quizás, algunos pequeños errores o insuficiencias, pero, en cualquier caso, la calidad del producto obtenido dependerá vitalmente de la calidad de las materias primas. Como dice un aforismo lapidario del Proceso de Datos: «De basura sólo se saca basura» (Garbagge in, garbagge out). Oportunidad: La información tiene que ser oportuna. Debe llegar al usuario con el tiempo necesario para que pueda digerirla antes de tomar la decisión. El usuario debe poder actuar antes de que la realidad haya sufrido un cambio de situación que invalide su acción. El tiempo disponible para que la información llegue oportuna- mente variará mucho según la aplicación y puede ser desde unos pocos microsegundos (en algunos controles de proceso) a varios meses (en macroeconomía y sociología). Llegar antes de tiempo también puede ser, a veces, inoportuno, por no estar el usuario preparado psicológicamente y en consecuencia no receptivo. En algunas aplicaciones interactivas se introducen retrasos por programa en las respuestas del ordenador, para evitar que el exceso de velocidad de la máquina incomode al hombre. 10 Integridad: La información debe ser completa. Aún cuando la integridad al 100% es un sueño inalcanzable en la mayoría de las aplicaciones, conviene en todo caso que la información que se obtiene sea tan completa como pueda llegarse a disponer. Esta cualidad debe aparejarse con la parquedad. Que la información sea completa no significa que tenga que contener cosas superfluas. No debe confundirse la redundancia, deseable dentro de unos mínimos, con el exceso. Y el exceso de información no informa, aturde o aburre. Significatividad: La información debe ser clara y relevante. Es importante no forzar la comprensión del destinatario. Cualquier ayuda gráfica, visual, auditiva, o del tipo que sea, que pueda añadir facilidad y rapidez a la recepción de la información, deberá ser considerada. Por encima de todo hay que evitar la confusión entre distintas alternativas no compatibles. Un incremento notable en la calidad de la información requerida puede representar un incremento en los costos muy elevados. Como en tantísimas circunstancias parecidas, el ratio calidad / costos tiene un punto crítico que es el que nos interesa asumir. TRATAMIENTO DE LA INFORMACIÓN. Así se denomina al conjunto de operaciones que se realizan sobre una información. Estas operaciones siguen una división lógica que se representa de la siguiente manera: Tratamiento de la Información ENTRADA Recogida de Datos Depuración de datos Almacenamiento de datos PROCESO Aritmético Lógico SALIDA Recogida de Resultados Distribución de resultados La figura siguiente esquematiza la relación establecida entre datos e información a través de un proceso de los datos. Podemos considerar la información como el conocimiento derivado del análisis de los datos. Es importante notar que la información obtenida de un proceso puede servir como dato para otro proceso. Por ejemplo, en un sistema de nomina se tienen como datos las horas trabajadas por cada empleado y su sueldo por hora. La información obtenida por el sistema será: Lossueldos semanales de cada empleado. Esta misma información podrá servir como dato de otro sistema que determine los costos semanales por departamento. OPERACIONES DE PROCESO DE LAS COMPUTADORAS Las siguientes cuatro operaciones son las únicas que pueden llevar a cabo las computadoras, pero bastan para poder ejecutar las actividades de procesamiento de datos que describieron anteriormente. Operaciones de entrada/salida: una computadora puede tanto aceptar datos (entrada) como emitirlos (salida), a partir de una gran variedad de dispositivos de entrada/salida. Los teclados, pantallas, impresoras y otros dispositivos de este género hacen posible la comunicación entre los seres humanos y las máquinas. Operaciones de cálculo y manipulación de texto: los circuitos de las computadoras efectúan cálculos con los números y son igualmente capaces de manipular caracteres no numéricos y los demás símbolos que se utilizan en palabras y enunciados. Operaciones de lógica/comparación: la computadora puede realizar una comparación sencilla y después dependiendo del resultado, seguir una trayectoria o secuencia de operaciones previamente determinadas para completar su labor. Esta facultad sencilla de hacer comparaciones es una propiedad importante de las ENTRADA (Datos) PROCESO SALIDA (Información) 11 computadoras, ya que es posible responder a preguntas más complejas utilizando combinaciones de decisiones de comparación. Operaciones de almacenamiento y recuperación de información: tanto los datos como las instrucciones de programa se almacenan dentro de la computadora. Una vez almacenados, pueden llamarse o recuperarse rápidamente para ser utilizados. INTRODUCCIÓN A LOS ORDENADORES. Desde hace mas de 4 mil años, el hombre ha intentado encontrar métodos mecánicos para simplificar la realización de operaciones matemáticas. Pero hubo que esperar hasta el siglo XIX, época en la que aparecieron las primeras máquinas calculadoras mecánicas, antecedentes de las computadoras modernas: la máquina de Babbage, o la de Hollerith que utilizaron por vez primera tarjetas perforadas. A mediados de siglo XX se introdujeron las computadoras de válvulas electrónicas. Pero a partir de 1.969, gracias al descubrimiento de los chips de silicio, el microprocesador irrumpió en todos los ámbitos de la vida contemporánea. Es el punto de partida de una revolución que se inició con las computadoras personales de primera generación (desarrolladas a fines de los 70 por la empresa IBM) y que culmino por ahora, con la aparición (a principio de los 90) de la serie de procesadores Pentium. En menos de 20 años las computadoras personales mejoraron espectacularmente, tanto en capacidad de almacenamiento de datos como en velocidad de procesamiento. Es importante recalcar que la Informática esta muy generalizada en nuestra vida cotidiana, como demuestra todas estas acciones: cuando calentamos algún alimento en el microondas, programar la video grabadora, jugar con una consola, escuchar un CD, consultar la hora en el reloj digital, usar el termómetro electrónico, cambiar el canal televisivo por control remoto, pagar los productos adquirido en un supermercado (lector de código de barras y tarjeta bancaria con banda magnética) o extraer dinero de los cajeros automáticos. En el campo de la medicina en lo que más ha influido el desarrollo tecnológico ha sido en él diagnostico y tratamiento de las enfermedades. En este aspecto diversos estudios de diagnostico como la ecografía, tomografía, y resonancia magnética, están basados en complejos sistemas de barrido de determinadas zonas del organismo, obteniendo precisa información que es trasmitida por ordenadores. CONCEPTO DE ORDENADOR. Es una máquina compuesta por elementos físicos, la mayoría electrónicos capaces de aceptar datos a través de medios de entrada, procesarlos automáticamente (con gran precisión y rapidez) bajo el control de un programa previamente almacenado y proporcionar la información a través de un medio de salida. Clasificación de las Computadoras. Según su tecnología: Analógicas: son los que reproducen por analogía un proceso físico; los datos son siempre continuos, funcionan de manera simultánea, por lo que pueden resolver problemas con mayor rapidez que las digitales, pero su defecto es el error que pueden producir en la medición. Características de las computadoras analógicas: Todas las computadoras son rápidas pero la naturaleza directa de los circuitos que la componen las hacen más rápidas. La programación en estas computadoras no es necesaria; las relaciones de cálculo son construidas y forman parte de estas. Son máquinas de propósito específico. 12 Dan respuestas aproximadas, ya que están diseñadas para representar electrónicamente algunos conjuntos de datos del mundo real, por lo que su resultado son cercanos a la realidad. Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como viento, temperatura, sonido, movimiento, etc. La primera se llamó EL ANALIZADOR DIFERENCIAL desarrollada por el Dr. Vanmevar Bush (1931). Digital: debido a que las magnitudes que en ellos se almacenan varían en forma discreta (por dígitos) estos funcionan secuencialmente es decir instrucción por instrucción. Poseen una gran exactitud. Características de las computadoras digitales: Su funcionamiento esta basado en el conteo de los valores que le son introducidos. Este tipo de computadora debe ser programada antes de ser utilizada para algún fin específico. Son máquinas de propósito general; dado un programa, ella pueden resolver virtualmente todo tipo de problemas. Son precisas, proveen exactamente la respuesta correcta a algún problema específico. Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones de caracteres. Estas son las más utilizadas. En la actualidad el 95 % de los computadores utilizados son digitales dado su gran utilidad a nivel comercial, científico y educativo. Algunos ejemplos son: la primera computadora digital se llamó ATONOSOFF BERRY COMPUTER desarrollada en 1939 por personal Digital Asistant (PDA), otra fue la DESTOP desarrollada por la Universidad del Estado de Lowa, luego le siguió la ENIAC (Integrado electrónico numérico y calculadora) que fue la primera computadora digital fabricada en gran escala. Híbridas: es un sistema construido de una computadora digital y una análoga, conectados a través de un interfaz que permite el intercambio de información entre las dos computadoras y el desarrollo de su trabajo en conjunto. Aúna las propiedades de exactitud y rapidez. Se las utiliza en el control de procesos, en robótica, espacial para calcular las trayectorias de los vehículos lanzados hacia la luna. Un precedente del ordenador Digital es el ábaco, un precedente del ordenador Analógico es la regla de cálculo. Según Propósitos: General: pueden ser usados para cualquier tipo de proceso de datos. Especial: construidos para ser usados en un tipo de aplicación particular o una industria determinada, por ejemplo control de tráfico telefónico aéreo. Según su capacidad: Macrocomputadoras (Mainframes): son computadoras de uso general, también se instalan en ambientes controlados. Tiene gran capacidad de procesamiento y capacidad de manejo de puertas de entrada y salida. Por tener gran capacidad de almacenamiento, es capaz de tener una colección simultánea con muchas terminales. Se utiliza mucho en las empresas de gran tamaño, bancos, etc. Es capaz de realizar varios millones de operaciones, por segundo. Es un sistema de aplicación general, cuya característica principal es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento secundario. Por lo general cuenta con varias unidades de discos para procesar y almacenar grandes cantidades deinformación. El CPU actúa como arbitro de todas las solicitudes y controla el 13 acceso a todos los archivos. El usuario se dirige a la computadora central de la organización cuando requiere apoyo del procesamiento. Tenemos como ejemplo el DEPARTAMENTO DE VEHÍCULOS AUTOMOTORES, la cual tiene muchos empleados, que trabajan con terminales de computadora. Una Terminal es una especie de computadora que no tiene su propio CPU o almacenamiento; es solo un dispositivo de entrada y salida que actúa como una ventana hacia otra computadora localizada en alguna parte. Todas las terminales están conectadas a una base de datos común. La base de datos esta controlada por una computadora mainframe que puede manejar las necesidades de entrada y salida de todas las terminales conectadas a ella. Era usual que las computadoras mainframe ocuparan cuartos completos o incluso pisos enteros de edificios. Un buen ejemplo de este tipo de computadoras es la IBM 3090 de la Internacional Bussines Machines (IBM), capaz de soportar aproximadamente 5000 terminales conectadas. Minicomputadoras: En 1960 surgió la mini computadora, una versión más pequeña de la microcomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainfren, y esto ayudo a reducir el precio y costo de mantenimiento. En general, una mini computadora, es un sistema multiproceso (varios procesos en paralelo) que es capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usa para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Sus principales aplicaciones abarcan áreas de ingeniería, universidades, laboratorios de investigación. Dos ejemplos típicos de este tipo de computadoras son la VAX de Digital Equipment Corporation. Microcomputadoras: Es un dispositivo de computación de sobre mesa o portátil, que utiliza un microprocesador como su unidad central de procesamiento o CPU. Los microordenadores más comunes son las computadoras u ordenadores personales, PC, computadoras domesticas, computadoras para las pequeñas empresas o micros. Las mas pequeñas y compactas se denominan laptops o portátiles, por caber en la palma de la mano. Cuando los microordenadores aparecieron por primera vez, se consideraban equipos para un solo usuario, y solo eran capaces de procesar cuatro, ocho o dieciséis bits de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y grandes computadoras corporativas o Mainframe (así como los sistemas de menor tamaño denominados Minicomputadoras) han perdido vigencia ya que los nuevos modelos de microordenadores han aumentado la velocidad y capacidad de procesamientos de datos de sus CPUs a niveles de treinta y dos bits y múltiples usuarios. Los microordenadores están diseñados para uso domésticos, didácticos, de oficinas. En casa pueden servir como herramienta para la gestión domestica (cálculos de impuestos, almacenamientos de recetas) y como equipo de diversión (juegos de computadoras, catálogos de discos y libros). Los escolares pueden utilizarlos para hacer sus deberes, y de hecho, muchas escuelas públicas utilizan estos dispositivos para cursos de aprendizaje programado independiente y cultura informática. Las pequeñas empresas pueden adquirir microcomputadoras para los procesamientos de texto para la contabilidad, y el almacenamiento y gestión de correo electrónico. 14 Orígenes: el desarrollo de las microcomputadoras fue posible gracias a dos innovaciones tecnológicas en el campo de la microelectrónica: el circuito integrado, también llamado IC (acrónimo de Integrate Circuits), que fue desarrollado en 1959; y el microprocesador que apareció por primera vez en 1971. El IC permite la miniaturización de los circuitos de memoria de la computadora y el microprocesador redujo el tamaño de la CPU a una sola pastilla o chip de silicio. El hecho de que la CPU calcule, realice operaciones lógicas, contenga instrucciones de operación y administre los flujos de información favoreció el desarrollo de sistemas independientes que funcionaron como microordenadores completos. El primer sistema de sobremesa de tales características, diseñado específicamente para uso personal, fue presentado en 1974 por MICRO INSTRUMENTATION TELEMETRY SYSTEMS (MITS). ANTECEDENTES HISTÓRICOS DE LOS ORDENADORES. Del ábaco a la computadora personal: el ábaco y la computadora personal son dos pequeños dispositivos para procesos de datos separados por miles de años de historia. Por mucho tiempo los seres humanos vivieron sin registrar la información en forma permanente. Alrededor de 3.500 a. C. los mercaderes babilónicos mantenían archivos en tabletas de barro. El ábaco fue uno de los primero instrumentos manuales para calcular. Las técnicas de archivado se siguieron desarrollando a través de los siglos (las auditorias de los griegos, los presupuestos de los Romanos, etc.). En 1.642 Blas Pascal, desarrollo la primera máquina calculadora mecánica. Unos treinta años mas tarde, el matemático alemán Gottfried Von Leibniz mejoró el invento de Pascal produciendo una máquina que podía sumar, restar, multiplicar, dividir y extraer raíces. En la década de 1880 el procesamiento de datos en los Estados Unidos se llevaba a cabo con lápices, plumas y reglas. Por esas fechas se inventó el equipo electromecánico para trabajar con tarjetas perforadas (tejedor Francés quien las utilizó para controlar sus telares mecánicos). El inventor de la técnica de tarjetas perforadas fue Herman Hollerith, quien inventó la máquina del censo, la cual solo necesitaba una octava parte del tiempo por lo que la utilizaron en el censo de 1890. En 1896 comenzó a fabricar y vender su invento, mas tarde su firma se fusionaría con otras para formar IBM Corporations. El procesamiento de tarjetas perforadas que se basó en registrar primero los datos de entrada en forma codificada haciendo perforaciones en tarjetas, luego las tarjetas se introducen en una serie de máquinas electromecánicas que realizan los pasos de procesamientos. Los primeros avances del desarrollo de la computadora: a unos cincuenta años de los trabajos de Hollerith, el matemático Charles Babbage propuso una máquina a la que le dio el nombre de “Máquina Analítica” adelanta cien años a su época. La matemática Ada Lovalece ayudó a Babbage a corregir algunos errores e inventó formas novedosas de enfocar el diseño de programas empleando tarjetas perforadas. Al morir Babbage, el desarrollo de las computadoras se detuvo hasta 1937; las tarjetas perforadas dominaron el mundo de proceso de datos. Luego en la Universidad de Harvard, por un proyecto entre la IBM y Howard H. Aiken (profesor), se construiría una máquina calculadora automática la cual combinaba tecnología eléctrica y mecánica con la técnica de tarjetas perforadas; el proyecto se completo en 1944; el aparato se denomino computadora digital MARK I, esta era una computadora electromecánica. 15 El primer prototipo de computadora electrónica se concibió entre 1937 –1938 por el Dr. J. Atanasoff; este decidió construir la suya debido a que ninguna de las calculadoras disponibles en ese entonces era adecuada para sus necesidades y formó un equipo con Clifford Berry. Luego comenzó a construir la primera computadora electrónica (computadora Atanasoff-Berry o ABC). La ABC empleaba bulbos al vació para almacenar datos y efectuar operaciones aritméticas y lógicas; esta se diseño con el objetivo especifico de resolver sistemas de ecuaciones simultaneas. ENIAC fue la primera computadora electrónica de aplicación general que entró en funcionamiento. Financiada por él ejercito de Estados Unidos, se construyo como proyecto secreto durante la guerra. También se utilizaron bulbos al vacío. Esta podía hacer trescientas multiplicaciones por segundo lo que la hacia trescientas veces más rápida que cualquier otro dispositivode la época. Las instrucciones de operaciones de ENIAC no se almacenaban internamente más bien, se introducían por medio de tableros de clavijas e interruptores localizados en el exterior. El ejército la utilizó hasta 1955 y después se coloco en el Smithsonian Institutions. A mediados de 1940, el matemático John Von Neumann escribió un trabajo sugiriendo utilizar sistemas de numeración binarios para construir computadoras y que las instrucciones para las computadoras se almacenaran internamente en la máquina. La primera de esas ideas se basó en que, el sistema de numeración binaria utiliza únicamente dos dígitos (0 y 1) en vez de los diez dígitos (0 y 9) del sistema decimal con el que todo mundo estamos familiarizados. El concepto binario simplificó el diseño del equipo. La segunda idea era que, los programas se podían almacenar de la misma forma como se almacenaba los datos. Aunque estas ideas no se incorporaron en ENIAC se dedicaron a la tarea de construir una máquina que pudiera almacenar programas, la primera computadora electrónica de programa almacenado corresponde a la EDSAC terminada en 1949. La carrera para entrar al mercado y el retraso sufrido por EDVAC, hizo que Eckert y Maushli fundarán su propia compañía en 1946. Comenzaron a trabajar en la Computadora Automática Universal (UNIVAC). Fue en 1951 que, la UNIVAC I comenzó a funcionar en la oficina del censo. Cuando la UNIVAC desplazo al equipo de tarjetas perforadas en la oficina del censo, el hijo del fundador de IBM, reacciona rápidamente para introducir a la IBM en la era de la computación. La IBM 650 entró en servicio a fines de 1954, siendo una máquina relativamente barata para aquella época, tuvo gran aceptación y dio a la IBM liderazgo en la producción de computadoras en 1955. Entre 1954–1959 se utilizaron computadoras para procesar datos y tareas rutinarias; se comprobó que la computadora era un procesador rápido, exacto e incansable de grandes cantidades de información. DESARROLLO DE LAS COMPUTADORAS PERSONALES. Los pioneros de las computadoras personales: en 1974 se anunció la construcción de la primera computadora personal. Constituida alrededor de un microprocesador, llamada SCELBI-8H, que más tarde sería la ALTAIR 8.800 (diseñada con base en una pastilla de Intel). Se creó la Microsoft Corparations para vender el programa de Basic Gates-Allen y la licencia de Microsoft se concedió a MITS a fines de 1975. Actualmente, Microsoft es uno de los principales proveedores de programas para computadoras personales. Los primeros éxitos: en 1976 un joven técnico llamado Steve Wozniak creó la Apple I pero a fines del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. A fines de 1977, las 16 máquinas que dominaban el mercado eran la Apple II, TRS_80 y varias otras marcas. La mayor parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse con estas computadoras. Los años recientes: al comienzo de la década de 1980, se introdujo una nueva generación de modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el mercado con su familia de computadoras PC logrando enorme éxito. Pero aparecieron en forma paralela compañías pequeñas que ofrecían equipos y programas nuevos. Se desarrollo el primer software integrado con ventanas alrededor de 1970. Sin embargo, estas ideas aparecieron en un producto comercial cuando Xerox introdujo su 8010 en 1981. Los datos y programas se presentaban en la pantalla por medio de imágenes pequeñas llamadas iconos. Los ingenieros de Apple diseñaron una computadora de menor costo que incluía muchas de las características de Xerox 8010. Este sistema de Hardware-Software, llamado Lisa se anunció en 1983. En el año 1984 se introdujo la Apple Macintosh, también se introdujeron docenas de paquetes integrados diseñados para las computadoras personales más populares y los vendedores de equipos se apresuraron a crear sistemas para apoyar la orientación grafica que prefieren muchas personas al interactuar con computadoras personales. Apple Macintosh Xerox 8010 Apple II Apple I ALTAIR 8.800 GENERACIÓN DE ORDENADORES Y CARACTERÍSTICAS MÁS IMPORTANTES Primera Generación (1940-1952): la constituyen todas aquellas computadoras que diseñadas a base de válvula de vacío, como principal elemento de control y cuyo uso fundamental fue la realización de aplicaciones en los campos científicos y militar. Se utilizó como lenguaje de programación el lenguaje máquina y como únicas memorias para conservar información las tarjetas perforadas, la cinta perforada. Segunda generación (1952-1964): al sustituirse la válvula de vació por el transistor, comenzó la llamada segunda generación de computadoras. En ella las máquinas ganaron potencia y fiabilidad, perdieron tamaño consumo y precio, lo que las hacia mucho más practicas y accesibles. Las computadoras de la segunda generación eran sustancialmente más pequeñas y rápidas que las de bulbo, y se usaban para nuevas aplicaciones; como los sistemas de reservación en líneas aéreas, control de transito aéreo, y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registro, como manejo de inventarios, nomina y contabilidad. La marina de Estados Unidos utilizó las computadoras para crear el primer simulador de vuelo. Comenzaron además a utilizarse los llamados lenguaje de programación evolucionado, que hacían más sencilla la programación entre ellos. Podemos citar el Ensamblador y algunos de los denominados de alto nivel, como Fortran, Cobol y Algol. También comenzaron a utilizarse como memoria interna los núcleos de ferrita y el tambor magnético, y como memoria externa la cinta magnética y los tambores magnéticos. Tercera generación (1964-1971): en esta generación el elemento más significativo es el circuito integrado aparecido en 1964, el cual consistía en el encapsulamiento de una variada cantidad de componentes discretos tales como resistencias, condensadores, diodos, y transistores. 17 Conformando uno o varios circuitos con una función determinada, sobre una pastilla de silicona o plástico. La integración en miniaturización se extendió a todos los circuitos de la computadora, apareciendo las mini computadoras. El software evolucionó considerablemente con un amplio desarrollo de los sistemas operativos, en los cuales se incluyó el tiempo real, la multiprogramación y el modo interactivo. Comenzaron a utilizarse también las memorias de semiconductores y los discos magnéticos. Cuarta Generación (1971-1981): aquí aparece el microprocesador, consistente en la integración de toda la CPU de una computadora en un solo circuito integrado. Dos mejoras en la tecnología de las computadoras marca el inicio de la cuarta generación: por un lado el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio, y por el otro la colocación de muchos más componentes en un chips. La tecnología utilizada es la LSI (integración a gran escala) que permitió la fabricación de microcomputadoras y computadoras personales, así como las computadoras monopastillas. Se utilizó, además, el disquete (floppy disk) o unidad de almacenamiento externa. Aparecieron una gran cantidad de lenguajes de programación de todo tipo y las redes de transmisión de datos (teleinformática) para la interconexión de computadoras. Quinta Generación (1981- ....): Alrededor del año 1981 los principales países productores de nuevas tecnologías (Estados Unidos y Japón) anunciaron una nueva generación. Estas nuevas tecnologías surgieron dentro de la computación como: Inteligencia Artificial, Sistemas Expertos y Realidad Virtual. Los japoneses iniciaron el desarrollo de lo que llamaron una computadora inteligente haciendo un uso extensivo de la inteligencia artificial. La inteligenciaartificial es el campo de estudio que trata de aplicar los procesos de razonamiento humano utilizados para la resolución de problemas, a una computadora. Si alguna vez pueden incorporarse estos procesos en una computadora, se estará ante la posibilidad de poder comunicarnos con ella muy similarmente a como nos comunicamos con otros humanos, en lo que normalmente se conoce como lenguaje natural. Para que una computadora use tal lenguaje, necesitará un cierto conocimiento que sea similar a la cultura general de cada ser humano. Las características generales de esta generación son Utilización de componentes integrados a muy alta escala (VLSI). Computadoras con inteligencia artificial. Utilización del lenguaje natural (lenguaje quinta generación). Interconexión entre todo tipo de computadora, dispositivos y redes (redes integradas). Integración de datos, imágenes y voz (en torno multimedia).
Compartir