1
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
HISTORIA Y DESCRIPCIÓN FUNCIONAL DE LOS SISTEMAS DE CÓMPUTOS
Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.
2
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Cometa Bennett
En 1970, el astrónomo amateur sudafricano J. Bennett observó este brillante cometa con una larga cola gaseosa. Mediante una técnica informática llamada cartografía isofotográfica se ha realizado esta imagen asignando colores diferentes a los diversos tonos grises de la fotografía original en blanco y negro.
Shell (informática), elemento de software, que puede ser un programa independiente o constituir un elemento básico de un sistema operativo. Proporciona una comunicación directa entre el usuario y el propio sistema operativo, y así facilita la ejecución de órdenes o comandos del sistema y de los programas que se ejecutan en él. Con un shell se busca un uso más simple, generalmente mediante la utilización de menús, cajas de diálogo y ayudas acerca de su uso o de la sintaxis de órdenes. Se trata, en definitiva, de la parte del sistema que se muestra al usuario final, para que interactúe con él.
Accesorio (informática), periférico o dispositivo complementario de un ordenador o computadora, como un ratón (mouse) o un módem. El accesorio ofrece una funcionalidad que no está disponible en la máquina original, pero que no es necesaria para el funcionamiento de la misma. No obstante, el accesorio puede resultar imprescindible para determinadas tareas; por ejemplo, el módem es imprescindible para conectarse a Internet.
3
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
han disminuido los precios, haciendo que los equipos sean más asequibles.
INTRODUCCIÓN a la Arquitectura (informática),
Arquitectura (informática), término general que se aplica a la estructura de un sistema
informático o de una parte del mismo. El término se aplica también al diseño del software
de sistema, por ejemplo, el sistema operativo, y a la combinación de hardware y
software
básico que comunica los aparatos de una red informática. La arquitectura de ordenadores
se refiere a toda una estructura y a los detalles necesarios para que sea funcional, es decir,
cubre sistemas informáticos, microprocesadores, circuitos y programas del sistema. Por lo
general, el término no suele referirse a los programas de aplicación, como hojas de cálculo
o procesadores de textos, que son necesarios para realizar una tarea pero no para que el
sistema funcione.
ELEMENTOS DE DISEÑO
Al diseñar un sistema informático, se tienen en cuenta los cinco elementos fundamentales
que componen el
hardware
: la unidad aritmético-lógica, la unidad de control, la memoria,
la entrada y la salida. La unidad aritmético-lógica realiza operaciones aritméticas y
compara valores numéricos. La unidad de control dirige el funcionamiento de la
computadora recibiendo instrucciones del usuario y transformándolas en señales eléctricas
que puedan ser comprendidas por los circuitos del ordenador. La combinación de la unidad
aritmético-lógica y la unidad de control se denomina unidad central de procesamiento, o
CPU (siglas en inglés). La memoria almacena instrucciones y datos. Las secciones de
entrada y salida permiten respectivamente que la computadora reciba y envíe datos.
Se necesitan arquitecturas diferentes de
hardware
debido a las necesidades especializadas
de los distintos sistemas y usuarios. Por ejemplo, un usuario puede necesitar que su sistema
muestre gráficos de forma extremadamente rápida, mientras que otro tal vez necesite
buscar eficazmente en una base de datos o tener un consumo bajo de energía, como en el
caso de ordenadores personales portátiles.
Además del diseño del
hardware,
se debe considerar los sistemas operativos que harán
funcionar el sistema. El
software,
como los lenguajes de programación y los sistemas
operativos, hace que los detalles de la arquitectura del
hardware
resulten invisibles para el
usuario. Por ejemplo, diferentes computadoras que empleen el lenguaje de programación C
o el sistema operativo UNIX pueden parecer iguales desde el punto de vista del usuario
aunque la arquitectura de
hardware
sea diferente.
ARQUITECTURA DE PROCESAMIENTO
4
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Las primeras computadoras sólo empleaban instrucciones sencillas, porque el coste de los
dispositivos electrónicos capaces de ejecutar instrucciones complejas era muy elevado. A
medida que este coste fue disminuyendo, a lo largo de la década de 1960, fueron posibles
instrucciones más complicadas. Las instrucciones complejas (instrucciones únicas que
especifican operaciones múltiples) pueden ahorrar tiempo al evitar que el ordenador tenga
que recuperar instrucciones adicionales. Por ejemplo, si se combinan siete operaciones en
una instrucción, se eliminan seis de los pasos de recuperación de instrucciones, y la
computadora tarda menos tiempo en procesar la operación correspondiente. Los
ordenadores que combinan varias operaciones en una sola instrucción se denominan
ordenadores CISC.
Sin embargo, la mayoría de los programas no utilizan instrucciones complejas, sino que
constan esencialmente de instrucciones simples. Cuando estas instrucciones simples se
ejecutan en una arquitectura CISC, el proceso es más lento, porque en un diseño CISC
todas las instrucciones, simples o complejas, tardan más en ser descodificadas. Una
estrategia alternativa es volver a diseños que utilizan sólo juegos de instrucciones sencillas
y hacer que las operaciones más usadas se ejecuten más rápidamente para aumentar el
rendimiento global. Las computadoras que emplean este diseño se llaman RISC.
Los diseños RISC son especialmente rápidos para realizar los cómputos numéricos
necesarios en aplicaciones científicas, de gráficos y de ingeniería. Los llamados
procesadores de señales digitales son arquitecturas CISC especializadas para acelerar el
procesado de señales digitalizadas de audio y vídeo.
ARQUITECTURAS ABIERTAS Y CERRADAS
La CPU de un ordenador está conectada con la memoria y con el mundo exterior a través
de una arquitectura que puede ser abierta o cerrada. Las arquitecturas abiertas pueden
ampliarse después de la construcción del sistema, generalmente añadiendo circuitos
adicionales, por ejemplo, conectando al sistema principal un chip con un nuevo
microprocesador. Las especificaciones del sistema se hacen públicas, lo que permite que
otras empresas puedan fabricar los productos de expansión.
Las arquitecturas cerradas suelen utilizarse en computadoras especializadas que no
necesitan ampliaciones, como los microprocesadores que controlan los hornos de
microondas. Algunos fabricantes de ordenadores han empleado arquitecturas cerradas para
que sus clientes obtengan los circuitos de ampliación únicamente a través de ellos. El
fabricante cobra más, pero las opciones para el consumidor se reducen.
ARQUITECTURA DE REDES
5
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Las computadoras pueden conectarse de distintas formas. En una configuración en anillo,
los datos se transmiten a lo largo del anillo, y cada computadora examina los datos para
determinar si van dirigidos a ella. Si no es así, los transmite a la siguiente computadora del
anillo. Este proceso se repite hasta que los datos llegan a su destino. Una red en anillo
permite la transmisión simultánea de múltiples mensajes, pero como varias computadoras
comprueban cada mensaje, la transmisión de datos resulta más lenta.
En una configuración de bus, los ordenadores están conectados a través de un único
conjunto de cables denominado bus. Un ordenador envía datos a otro transmitiendo a
través del bus la dirección del receptor y los datos. Todos los ordenadores de la red
examinan la dirección simultáneamente, y el indicado como receptor acepta los datos. A
diferencia de una red en anillo, una red de bus permite que un ordenador envíe
directamente datos a otro. Sin embargo, en cada momento sólo puede transmitir datos una
de las computadoras, y las demás tienen que esperar para enviar sus mensajes.
En una configuración en estrella, los ordenadores están conectados con un elemento
integrador llamado
hub.
Las computadoras de la red envían la dirección del receptor y los
datos al
hub,
que conecta directamente los ordenadores emisor y receptor. Una red en
estrella permite enviar simultáneamente múltiples mensajes, pero es más costosa porque
emplea un dispositivo adicional —el
hub
— para dirigir los datos.
AVANCES RECIENTES
Uno de los problemas en arquitectura de ordenadores es la diferencia entre la velocidad de
la CPU y la velocidad con que la memoria proporciona instrucciones y datos. Las CPU
modernas pueden procesar instrucciones en 3 nanosegundos (3.000 millonésimas de
segundo). Un acceso a memoria típico, en cambio, requiere 70 nanosegundos, y cada juego
de instrucciones puede suponer múltiples accesos. Para compensar esta disparidad se han
diseñado nuevos chips que sitúan cerca de la CPU memorias muy rápidas llamadas caché.
Debido a su proximidad a la CPU y a su rapidez, las memorias caché pueden suministrar
instrucciones y datos más rápidamente que la memoria normal. La memoria caché
almacena las instrucciones y datos empleados más frecuentemente, y mejora notablemente
la eficacia de la computadora.
Aunque una memoria caché más grande puede contener más datos, también resulta
proporcionalmente más lenta. Por eso, los arquitectos de ordenadores emplean diseños con
múltiples memorias caché. En estos diseños se coloca la memoria caché más pequeña y
rápida más cerca de la CPU, y se sitúa más lejos de ésta una segunda memoria caché
mayor y más lenta. Esta disposición permite que la CPU utilice a velocidad máxima las
instrucciones y datos más usados, y que sólo opere más lentamente cuando accede a la
memoria caché secundaria. El empleo de memorias caché diferentes para instrucciones y
datos también permite a la CPU recuperar simultáneamente una instrucción y un dato.
6
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Sin embargo, es raro que se ejecuten tantas instrucciones simultáneas, por lo que en
promedio la CPU no llega a multiplicar por seis el rendimiento.
A veces se combinan varias computadoras en sistemas únicos llamados procesadores
paralelos. Cuando una máquina tiene más de 1.000 unidades aritmético-lógicas, se dice que
es masivamente paralela. Estas máquinas se usan fundamentalmente para cálculos
científicos o de ingeniería, que exigen gran cantidad de cómputos numéricos. Se han
construido ordenadores paralelos que contienen hasta 16.000 procesadores
Programación informática,
Acción de programar, es decir, de establecer una serie de instrucciones para que el
ordenador o computadora ejecute una tarea.
Previamente hay que realizar una serie de trabajos que tienen por objeto la definición de la
tarea, el análisis de la información que se quiere obtener (información de salida) y de los
datos que se precisan para ello (información de entrada), y el establecimiento del
algoritmo, o procedimiento de cálculo, que va a permitir transformar una información en
otra. Para esta labor de análisis, el programador utiliza una serie de herramientas, entre las
que destacan los diagramas de flujo y las tablas de decisión.
Resuelto del problema desde el punto de vista lógico, se utiliza un lenguaje de
programación para codificar la secuencia de instrucciones que el ordenador debe ejecutar
para realizar la tarea.
Escrito el programa, hay verificarlo, es decir, someterlo a pruebas que determinen si puede
realizar la tarea prevista, lo que se consigue simulando situaciones que se puedan
comprobar; a esto se le denomina depuración. Una vez verificado, el programa se debe
optimizar, con el fin de que utilice los recursos del sistema del modo más eficiente.
Es muy importante documentar el programa, es decir, escribir una descripción del mismo
que permita actuar sobre él a un programador distinto del que lo creó. Además, si el
programa va a ser utilizado por múltiples usuarios, hay que redactar su manual de
instrucciones.
7
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
LENGUAJE DE PROGRAMACIÓN
INTRODUCCIÓN
Lenguaje de programación, en informática, cualquier lenguaje artificial que puede
utilizarse para definir una secuencia de instrucciones para su procesamiento por un
ordenador o computadora. Es complicado definir qué es y qué no es un lenguaje de
programación. Se asume generalmente que la traducción de las instrucciones a un código
que comprende la computadora debe ser completamente sistemática. Normalmente es la
computadora la que realiza la traducción.
Aplicación de lenguajes de programación
Los lenguajes de programación permiten comunicarse con los ordenadores o computadoras. Una vez identificada una tarea, el programador debe traducirla o codificarla a una lista de instrucciones que la computadora entienda. Un programa informático para determinada tarea puede escribirse en varios lenguajes. Según la función, el programador puede optar por el lenguaje que implique el programa menos complicado. También es importante que el programador elija el lenguaje más flexible y más ampliamente compatible para el caso de que el programa tenga varias aplicaciones. Los ejemplos que se ven en la ilustración son programas escritos para calcular el promedio de una serie de números. C y BASIC son los lenguajes de computadora más utilizados. En el recuadro inferior de la ilustración se muestra cómo una computadora procesará y ejecutará los comandos de los programas.
LENGUAJES DE BAJO NIVEL
Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales
electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar
series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia
de señales se denomina código máquina. El código representa normalmente datos y
números e instrucciones para manipularlos. Un modo más fácil de comprender el código
máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o
JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel
que es específico de cada microprocesador.
8
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
en otra máquina con otra tecnología, será necesario reescribir el programa desde el
principio.
LENGUAJES DE ALTO NIVEL
Por lo general se piensa que los ordenadores son máquinas que realizan tareas de cálculos
o procesamiento de textos. La descripción anterior es sólo una forma muy esquemática de
ver una computadora. Hay un alto nivel de abstracción entre lo que se pide a la
computadora y lo que realmente comprende. Existe también una relación compleja entre
los lenguajes de alto nivel y el código máquina.
Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados
por elementos de lenguajes naturales, como el inglés. En BASIC, el lenguaje de alto nivel
más conocido, los comandos como "IF CONTADOR = 10 THEN STOP" pueden utilizarse
para pedir a la computadora que pare si CONTADOR es igual a 10. Por desgracia para
muchas personas esta forma de trabajar es un poco frustrante, dado que a pesar de que las
computadoras parecen comprender un lenguaje natural, lo hacen en realidad de una forma
rígida y sistemática.
INTÉRPRETES Y COMPILADORES
La traducción de una serie de instrucciones en lenguaje ensamblador (el código fuente) a
un código máquina (o código objeto) no es un proceso muy complicado y se realiza
normalmente por un programa especial llamado compilador. La traducción de un código
fuente de alto nivel a un código máquina también se realiza con un compilador, en este
caso más complejo, o mediante un intérprete. Un compilador crea una lista de
instrucciones de código máquina, el código objeto, basándose en un código fuente. El
código objeto resultante es un programa rápido y listo para funcionar, pero que puede
hacer que falle el ordenador si no está bien diseñado. Los intérpretes, por otro lado, son
más lentos que los compiladores ya que no producen un código objeto, sino que recorren el
código fuente una línea cada vez. Cada línea se traduce a código máquina y se ejecuta.
Cuando la línea se lee por segunda vez, como en el caso de los programas en que se
reutilizan partes del código, debe compilarse de nuevo. Aunque este proceso es más lento,
es menos susceptible de provocar fallos en la computadora.
Código fuente, en informática, las instrucciones de programa legibles por el programador y escritas en un lenguaje ensamblador o de más alto nivel. El concepto contrario es el código objeto, que se deriva del código fuente y está diseñado para ser legible sólo por la máquina.
9
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
que puede ejecutarse directamente en la unidad central de proceso (CPU) del sistema, pero también puede ser código fuente de lenguaje ensamblador o una variante de código máquina.
Programa, en informática, sinónimo de software, el conjunto de instrucciones que ejecuta un ordenador o computadora. El término puede referirse al código fuente original o a la versión ejecutable (en lenguaje máquina) de un componente de software. Cuando se habla de un programa se supone un cierto grado de terminación, o sea, se da por hecho que están presentes todas las instrucciones y archivos necesarios para la interpretación o compilación del programa. Por otro lado, se entiende que un programa ejecutable puede cargarse en un entorno determinado y ejecutarse independientemente de otros programas
Unidad central de proceso
INTRODUCCIÓN
Unidad central de proceso o UCP (conocida por sus siglas en inglés, CPU), circuito
microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el
proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador
fabricado en un chip, un único trozo de silicio que contiene millones de componentes
electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica
que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una
afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de
registros donde se almacena información temporalmente, y por una unidad de control que
interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos
y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o
conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por
ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y
los dispositivos de salida (por ejemplo, un monitor o una impresora).
FUNCIONAMIENTO DE LA CPU
1 0
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una
dirección de memoria determinada.
Inteligencia artificial,
Término que, en su sentido más amplio, indicaría la capacidad de un artefacto de realizar
los mismos tipos de funciones que caracterizan al pensamiento humano. La posibilidad de
desarrollar un artefacto así ha despertado la curiosidad del ser humano desde la antigüedad;
sin embargo, no fue hasta la segunda mitad del siglo XX, cuando esa posibilidad se
materializó en herramientas tangibles.
El término inteligencia artificial (IA) fue acuñado en 1956 por John McCarthy, del
Instituto de Tecnología de Massachussets. En ese año se celebró la conferencia de
Dartmouth, en Hanover (Estados Unidos), y en ella, McCarthy, Marvin Minsky, Nathaniel
Rochester y Claude E. Shannon establecieron las bases de la inteligencia artificial como un
campo independiente dentro de la informática. Previamente, en 1950, Alan M. Turing
había publicado un artículo en la revista
Mind
, titulado “Computing Machinery and
Intelligence” (“Ordenador e inteligencia”), en el que reflexionaba sobre el concepto de
inteligencia artificial y establecía lo que luego se conocería como el test de Turing, una
prueba que permite determinar si un ordenador o computadora se comporta conforme a lo
que se entiende como artificialmente inteligente o no.
Con el avance de la ciencia moderna la búsqueda de la IA ha tomado dos caminos
fundamentales: la investigación psicológica y fisiológica de la naturaleza del pensamiento
humano, y el desarrollo tecnológico de sistemas informáticos cada vez más complejos.
En este sentido, el término IA se ha aplicado a sistemas y programas informáticos capaces
de realizar tareas complejas, simulando el funcionamiento del pensamiento humano,
aunque todavía muy lejos de éste. En esta esfera los campos de investigación más
importantes son el procesamiento de la información, el reconocimiento de modelos, los
juegos y las áreas aplicadas, como el diagnóstico médico. Un ejemplo de los logros
alcanzados fue la partida de ajedrez que el superordenador de IBM denominado
Deep Blue
ganó, en mayo de 1997, al campeón del mundo Gari Kaspárov.
Algunas áreas de la investigación actual del procesamiento de la información están
centradas en programas que permiten a un ordenador o computadora comprender la
información escrita o hablada, y generar resúmenes, responder a preguntas específicas o
redistribuir datos a los usuarios interesados en determinados sectores de esta información.
En esos programas es esencial la capacidad del sistema de generar frases gramaticalmente
correctas y de establecer vínculos entre palabras e ideas. La investigación ha demostrado
que mientras que la lógica de la estructura del lenguaje, su sintaxis, está relacionada con la
programación, el problema del significado, o semántica, es mucho más profundo, y va en
la dirección de una auténtica inteligencia artificial.
1 1
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Muchos científicos se muestran escépticos acerca de la posibilidad de que alguna vez se
pueda desarrollar una verdadera IA. El funcionamiento de la mente humana todavía no ha
llegado a conocerse en profundidad y, en consecuencia, el diseño informático seguirá
siendo esencialmente incapaz de reproducir esos procesos desconocidos y complejos.
1 2
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
ORDENADOR
INTRODUCCIÓN
Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.
2 TIPOS DE ORDENADORES O COMPUTADORAS
En la actualidad se utilizan dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el término ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico. Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada número dígito por dígito.
Las instalaciones que contienen elementos de ordenadores digitales y analógicos se denominan ordenadores híbridos. Por lo general se utilizan para problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En un ordenador digital también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico).
2.1Ordenadores analógicos
1 3
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
2.2Ordenadores digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios (millones de ciclos por segundo), aunque en la actualidad se alcanzan velocidades del orden de los gigahercios (miles de millones de ciclo por segundo).
Un ordenador con una velocidad de reloj de 1 gigahercio (GHz), velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 1.000 millones de operaciones discretas por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de billones de ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3).
1 4
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.
3 HISTORIA
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
3.1 La máquina analítica
1 5
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
3.2 Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
3.3 Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
1 6
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
3.4 Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
4 HARDWARE
Todos los ordenadores digitales modernos son similares conceptualmente con independencia de su tamaño. Sin embargo, pueden dividirse en varias categorías según su precio y rendimiento: el ordenador o computadora personal es una máquina de coste relativamente bajo y por lo general de tamaño adecuado para un escritorio (algunos de ellos, denominados portátiles, o laptops, son lo bastante pequeños como para caber en un maletín); la estación de trabajo, un microordenador con gráficos mejorados y capacidades de comunicaciones que lo hacen especialmente útil para el trabajo de oficina; el miniordenador o minicomputadora, un ordenador de mayor tamaño que por lo general es demasiado caro para el uso personal y que es apto para compañías, universidades o laboratorios; y el mainframe, una gran máquina de alto precio capaz de servir a las necesidades de grandes empresas, departamentos gubernamentales, instituciones de investigación científica y similares (las máquinas más grandes y más rápidas dentro de esta categoría se denominan superordenadores).
1 7
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
4.1 CPU (unidad central de proceso)
La CPU puede ser un único chip o una serie de chips que realizan cálculos aritméticos y lógicos y que temporizan y controlan las operaciones de los demás elementos del sistema. Las técnicas de miniaturización y de integración han posibilitado el desarrollo de un chip de CPU denominado microprocesador, que incorpora un sistema de circuitos y memoria adicionales. El resultado son unos ordenadores más pequeños y la reducción del sistema de circuitos de soporte. Los microprocesadores se utilizan en la mayoría de los ordenadores personales de la actualidad.
La mayoría de los chips de CPU y de los microprocesadores están compuestos de cuatro secciones funcionales: una unidad aritmética/lógica; unos registros; una sección de control y un bus interno. La unidad aritmética/lógica proporciona al chip su capacidad de cálculo y permite la realización de operaciones aritméticas y lógicas. Los registros son áreas de almacenamiento temporal que contienen datos, realizan un seguimiento de las instrucciones y conservan la ubicación y los resultados de dichas operaciones. La sección de control tiene tres tareas principales: temporiza y regula las operaciones de la totalidad del sistema informático; su descodificador de instrucciones lee las configuraciones de datos en un registro designado y las convierte en una actividad, como podría ser sumar o comparar, y su unidad interruptora indica en qué orden utilizará la CPU las operaciones individuales y regula la cantidad de tiempo de CPU que podrá consumir cada operación.
El último segmento de un chip de CPU o microprocesador es su bus interno, una red de líneas de comunicación que conecta los elementos internos del procesador y que también lleva hacia los conectores externos que enlazan al procesador con los demás elementos del sistema informático. Los tres tipos de bus de la CPU son: el bus de control que consiste en una línea que detecta las señales de entrada y de otra línea que genera señales de control desde el interior de la CPU; el bus de dirección, una línea unidireccional que sale desde el procesador y que gestiona la ubicación de los datos en las direcciones de la memoria; y el bus de datos, una línea de transmisión bidireccional que lee los datos de la memoria y escribe nuevos datos en ésta.
4.2 Dispositivos de entrada
1 8
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
luminosos, que leen palabras o símbolos de una página impresa y los traducen a configuraciones electrónicas que el ordenador puede manipular y almacenar; y los módulos de reconocimiento de voz, que convierten la palabra hablada en señales digitales comprensibles para el ordenador. También es posible utilizar los dispositivos de almacenamiento para introducir datos en la unidad de proceso.
4.3 Dispositivos de almacenamiento
Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos chips de RAM constan de conmutadores sensibles a los cambios de la corriente eléctrica. Los chips de RAM estática conservan sus bits de datos mientras la corriente siga fluyendo a través del circuito, mientras que los chips de RAM dinámica (DRAM, acrónimo de Dynamic Random Access Memory) necesitan la aplicación de tensiones altas o bajas a intervalos regulares aproximadamente cada dos milisegundos para no perder su información.
Otro tipo de memoria interna son los chips de silicio en los que ya están instalados todos los conmutadores. Las configuraciones en este tipo de chips de ROM (memoria de sólo lectura) forman los comandos, los datos o los programas que el ordenador necesita para funcionar correctamente. Los chips de RAM son como pedazos de papel en los que se puede escribir, borrar y volver a utilizar; los chips de ROM son como un libro, con las palabras ya escritas en cada página. Tanto los primeros como los segundos están enlazados a la CPU a través de circuitos.
1 9
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Los discos duros no pueden extraerse de los receptáculos de la unidad de disco, que contienen los dispositivos electrónicos para leer y escribir datos sobre la superficie magnética de los discos y pueden almacenar miles de millones de bytes. La tecnología de CD-ROM, que emplea las mismas técnicas láser utilizadas para crear los discos compactos (CD) de audio, permiten capacidades de almacenamiento del orden de varios cientos de megabytes (millones de bytes) de datos.
4.4 Dispositivos de salida
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor. Por lo general, las VDU tienen un tubo de rayos catódicos como el de cualquier televisor, aunque los ordenadores pequeños y portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo de Liquid Crystal Displays) o electroluminiscentes. Otros dispositivos de salida más comunes son la impresora y el módem. Un módem enlaza dos ordenadores transformando las señales digitales en analógicas para que los datos puedan transmitirse a través de las telecomunicaciones.
4.5 Sistemas operativos
Los sistemas operativos internos fueron desarrollados sobre todo para coordinar y trasladar estos flujos de datos que procedían de fuentes distintas, como las unidades de disco o los coprocesadores (chips de procesamiento que ejecutan operaciones simultáneamente con la unidad central, aunque son diferentes). Un sistema operativo es un programa de control principal, almacenado de forma permanente en la memoria, que interpreta los comandos del usuario que solicita diversos tipos de servicios, como visualización, impresión o copia de un archivo de datos; presenta una lista de todos los archivos existentes en un directorio o ejecuta un determinado programa.
5 PROGRAMACIÓN
Un programa es una secuencia de instrucciones que indican al hardware de un ordenador qué operaciones debe realizar con los datos. Los programas pueden estar incorporados al propio
2 0
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
ordenador universal, o de uso general, contiene algunos programas incorporados (en la ROM) o instrucciones (en el chip del procesador), pero depende de programas externos para ejecutar tareas útiles. Una vez programado, podrá hacer tanto o tan poco como le permita el software que lo controla en determinado momento. El software de uso más generalizado incluye una amplia variedad de programas de aplicaciones, es decir, instrucciones al ordenador acerca de cómo realizar diversas tareas.
5.1 Lenguajes
Las instrucciones deben darse en un lenguaje de programación, es decir, en una determinada configuración de información digital binaria. En las primeras computadoras, la programación era una tarea difícil y laboriosa ya que los conmutadores ON-OFF de las válvulas de vacío debían configurarse a mano. Programar tareas tan sencillas como ordenar una lista de nombres requería varios días de trabajo de equipos de programadores. Desde entonces se han inventado varios lenguajes informáticos, algunos orientados hacia funciones específicas y otros centrados en la facilidad de uso.
5.2 Lenguaje máquina
El lenguaje propio del ordenador, basado en el sistema binario, o código máquina, resulta difícil de utilizar para las personas. El programador debe introducir todos y cada uno de los comandos y datos en forma binaria, y una operación sencilla como comparar el contenido de un registro con los datos situados en una ubicación del chip de memoria puede tener el siguiente formato: 11001010 00010111 11110101 00101011. La programación en lenguaje máquina es una tarea tan tediosa y consume tanto tiempo que muy raras veces lo que se ahorra en la ejecución del programa justifica los días o semanas que se han necesitado para escribir el mismo.
5.3 Lenguaje ensamblador
2 1
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Sin embargo, el lenguaje ensamblador puede utilizarse con un solo tipo de chip de CPU o microprocesador. Los programadores, que dedicaron tanto tiempo y esfuerzo al aprendizaje de la programación de un ordenador, se veían obligados a aprender un nuevo estilo de programación cada vez que trabajaban con otra máquina. Lo que se necesitaba era un método abreviado en el que un enunciado simbólico pudiera representar una secuencia de numerosas instrucciones en lenguaje máquina, y un método que permitiera que el mismo programa pudiera ejecutarse en varios tipos de máquinas. Estas necesidades llevaron al desarrollo de lenguajes de alto nivel.
5.4 Lenguajes de alto nivel
Los lenguajes de alto nivel suelen utilizar términos ingleses del tipo LIST, PRINT u OPEN como comandos que representan una secuencia de decenas o de centenas de instrucciones en lenguaje máquina. Los comandos se introducen desde el teclado, desde un programa residente en la memoria o desde un dispositivo de almacenamiento, y son interceptados por un programa que los traduce a instrucciones en lenguaje máquina.
Los programas traductores son de dos tipos: intérpretes y compiladores. Con un intérprete, los programas que repiten un ciclo para volver a ejecutar parte de sus instrucciones, reinterpretan la misma instrucción cada vez que aparece. Por consiguiente, los programas interpretados se ejecutan con mucha mayor lentitud que los programas en lenguaje máquina. Por el contrario, los compiladores traducen un programa íntegro a lenguaje máquina antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si hubiesen sido escritos directamente en lenguaje máquina.
Se considera que fue la estadounidense Grace Hopper quien implementó el primer lenguaje de ordenador orientado al uso comercial. Después de programar un ordenador experimental en la Universidad de Harvard, trabajó en los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el trabajo que implicaba el tratamiento de fórmulas matemáticas complejas. Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula Translator) fue el primer lenguaje exhaustivo de alto nivel de uso generalizado.
2 2
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
sido sustituido por nuevos lenguajes, mientras que el FORTRAN continúa siendo utilizado debido a las gigantescas inversiones que se hicieron en los programas existentes.
El COBOL (acrónimo de Common Business Oriented Language) es un lenguaje de programación para uso comercial y empresarial especializado en la organización de datos y manipulación de archivos, y hoy día está muy difundido en el mundo empresarial.
El lenguaje BASIC (acrónimo de Código de Instrucciones Simbólicas de Uso General para Principiantes) fue desarrollado en el Dartmouth College a principios de la década de 1960 y está dirigido a los usuarios de ordenador no profesionales. Este lenguaje se universalizó gracias a la popularización de los microordenadores en las décadas de 1970 y 1980. Calificado de lento, ineficaz y poco estético por sus detractores, BASIC es sencillo de aprender y fácil de utilizar. Como muchos de los primeros microordenadores se vendieron con BASIC incorporado en el hardware
(en la memoria ROM), se generalizó el uso de este lenguaje.
Aunque existen centenares de lenguajes informáticos y de variantes, hay algunos dignos de mención, como el PASCAL, diseñado en un principio como herramienta de enseñanza, hoy es uno de los lenguajes de microordenador más populares; el Logo fue desarrollado para que los niños pudieran acceder al mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado en la década de 1970, se utiliza ampliamente en el desarrollo de programas de sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han alcanzado amplia difusión en el campo de la inteligencia artificial.
EVOLUCIÓN FUTURA
Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
2 3
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por
2 4
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
La supercomputadora Cray-1 (diseñada por Seymour Cray de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz de ejecutar más de 100 millones de operaciones de coma flotante por segundo. Entre los numerosos problemas tecnológicos que hubo que resolver, uno de los más importantes fue eliminar el calor generado por la alta velocidad de las operaciones lógicas. Esto se consiguió montando los circuitos sobre placas verticales enfriadas mediante un sistema basado en gas freón. Aunque en la actualidad ya se han construido máquinas más rápidas, la Cray-1 sigue utilizándose para estudios matemáticos de problemas muy complejos, como por ejemplo el análisis del habla, la previsión climatológica e interrogantes básicos en física y química. Además, la Cray-1 se utiliza como unidad de medida informal para las supercomputadoras más nuevas, algunas de las cuales se proyectan ahora para ser equivalentes a 1.000 crays.
Máquina diferencial de Babbage
2 5
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
La imagen ampliada de la placa de circuitos de un detector de humo muestra sus componentes, entre los que se incluyen transistores, reóstatos, condensadores, diodos y bobinas. Los transistores que permiten el funcionamiento del circuito están encerrados en unos contenedores redondos plateados.
Los transistores pueden efectuar diversas funciones, sirviendo, por ejemplo, de
amplificadores, interruptores y osciladores. Cada transistor consta de un pequeño trozo de silicio al que se le han aplicado átomos de impurezas para crear semiconductores de tipo n y de tipo p.
Inventados en 1948, los transistores son un componente fundamental en casi todos los dispositivos electrónicos modernos.
La primera computadora electrónica comercial, la UNIVAC I, fue también la primera
capaz de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John
Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó
el inicio de la era informática. En la
2 6
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
El ENIAC (siglas en inglés de "calculador e integrador numérico electrónico") fue el primer ordenador digital totalmente electrónico. Construido en la Universidad de Pensilvania en 1946, siguió funcionando hasta 1955. El ENIAC contenía 18.000 válvulas de vacío, y para programarlo había que cambiar manualmente el cableado.
2 7
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
La invención del microchip
permitió reducir el tamaño de los ordenadores, primero lo suficiente para colocarlos encima de la mesa, y más tarde para llevarlos en la mano. Los dispositivos de mano más completos disponen de varios megabytes (millones de caracteres) de espacio para almacenar archivos, enorme capacidad de cálculo, con utilidades de hoja de cálculo y gráficos, y los medios necesarios para
enviar y recibir correo electrónico y recorrer Internet. En la fotografía se utiliza un pequeño ordenador para reprogramar el sistema electrónico de control de una moderna motocicleta
Un ordenador o computadora personal (PC) cuenta con dispositivos para visualizar la información (monitor e impresora láser), para introducir datos (teclado y ratón o
2 8
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Un sistema informático suele estar compuesto por una unidad central de proceso (CPU), dispositivos de entrada, dispositivos de almacenamiento y dispositivos de salida. La CPU incluye una unidad aritmético-lógica (ALU), registros, sección de control y bus lógico. La unidad
aritmético-lógica efectúa las operaciones aritméticas y lógicas. Los registros almacenan los datos y los resultados de las operaciones. La unidad de control regula y controla diversas operaciones. El bus interno conecta las unidades de la CPU entre sí y con los componentes externos del sistema. En la mayoría de las computadoras, el principal dispositivo de entrada es el teclado. Dispositivos de almacenamiento son los discos duros, flexibles (disquetes) y compactos (CD). Dispositivos de salida que permiten ver los datos son los monitores e impresoras.
2 9
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
El CD-ROM es un estándar de almacenamiento de archivos informáticos en disco compacto que se caracteriza por ser de sólo lectura. En la fotografía, un
ROM se inserta en un lector de CD-ROM.
Grace Hopper
Pionera en el procesamiento de datos, a la matemática estadounidense Grace Hopper se le atribuye la creación del primer compilador en 1952. Hopper ayudó a desarrollar dos lenguajes informáticos, así como a convertir los ordenadores o computadoras en un elemento atractivo para el mundo de la empresa.
Mainframe, un ordenador
o computadora de gran
capacidad, diseñado para
realizar
tareas
computacionales
muy
intensas.
Las
computadoras de tipo
mainframe proporcionan
acceso
a
una
gran
cantidad
de
usuarios
simultáneamente
—
pueden ser hasta varios
millares—, conectados al
sistema
a
través
de
terminales.
Se
diferencian
de
los
superordenadores en que,
mientras éstos pueden
ejecutar un programa de
gran potencia de cálculo
3 0
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
Los primeros mainframes aparecieron entre 1964 y 1972; eran los denominados
computadores de tercera generación, en cuya base estaban los primeros circuitos
integrados. IBM y Unisys son las empresas con mayor tasa de producción de mainframes;
en el mundo de la banca y de contabilidad de grandes empresas, se han utilizado mucho los
mainframes de la serie 360 de IBM y más recientemente los de la serie 390 y los denomi
nados “zSerie eServers”.
En esta fotografía se muestra una sala de ordenadores típica de las grandes computadoras de tipo "mainframe" empleadas en las décadas de 1970 y 1980.
Lenguajes de programación
LENGUAJE ORIGEN DEL NOMBRE AÑO USOS/COMENTARIOS
ADA Augusta ADA Byron
(Lady Lovelace)
1979 Derivado de Pascal, utilizado principalmente por los militares.
ALGOL ALGOrithmic Language
(Lenguaje ALGOL algorítmico)
1960 Primer lenguaje de programación procedural estructurado, utilizado sobre todo para resolver problemas matemáticos.
APL A Programming Language
(Un lenguaje de programación)
1961 Lenguaje interpretado que utiliza un amplio conjunto de símbolos especiales y que se caracteriza por su brevedad. Utilizado fundamentalmente por los matemáticos.
BASIC Beginners All-Purpose Symbolic
Instruction Code(Código de instrucciones simbólicas multipropósito para principiantes)
1965 Lenguaje de programación de alto nivel, utilizado con frecuencia por programadores principiantes.
C Predecesor del lenguaje de
programación B, fue desarrollado en Bell Laboratory, en 1972
1972 Lenguaje de programación compilado y estructurado, que suele utilizarse en numerosos lugares de trabajo porque sus programas pueden transferirse fácilmente entre distintos tipos de computadoras.
COBOL COmmon Business-Oriented Language (Lenguaje simbólico de programación orientado a aplicaciones comerciales)
1959 Lenguaje de programación semejante al idioma inglés, que hace hincapié en las estructuras de datos. De amplia utilización, principalmente en empresas.
FORTH Lenguaje de cuarta
(FOuRTH) generación
1970 Lenguaje estructurado e interpretado de fácil ampliación. Ofrece una alta funcionalidad en un espacio reducido.
FORTRAN FORmula TRANslation (Traducción de fórmulas)
3 1
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
condicionales y las subrutinas compiladas por separado.
LISP LISt Processing
(Procesamiento de listas)
1960 Lenguaje de programación orientado a la generación de listas, utilizado principalmente para manipular listas de datos. Lenguaje interpretado que suele utilizarse en las investigaciones y está considerado como el lenguaje estándar en proyectos de inteligencia artificial.
LOGO Derivado del griego logos,
'palabra'.
1968 Lenguaje de programación que suele utilizarse con niños. Presenta un sencillo entorno de dibujo y varias prestaciones de mayor nivel del lenguaje LISP. Fundamentalmente educativo.
Modula-2 MODUlar LAnguage-2, diseñado como fase secundaria de Pascal (diseñados ambos por Niklaus Wirth)
1980 Lenguaje que hace hincapié en la programación modular. Es un lenguaje de alto nivel basado en Pascal, que se
caracteriza por la ausencia de funciones y procedimientos estandarizados.
Pascal Blaise PASCAL, matemático e
inventor del primer dispositivo de computación.
1971 Lenguaje compilado y estructurado basado en ALGOL. Agrega tipos y estructuras de datos simplificando la sintaxis. Al igual que el C, se trata de un lenguaje de programación estándar para microcomputadoras.
PILOT Programmed Inquiry, Language
Or Teaching
(Consulta, lenguaje o aprendizaje de investigación programada)
1969 Lenguaje de programación utilizado fundamentalmente para crear aplicaciones destinadas a instrucciones asistidas por computadora. Se caracteriza por utilizar un mínimo de sintaxis.
PL/1 Programming Language 1
(Lenguaje de programación uno)
1964 Diseñado para combinar las principales virtudes del FORTRAN, COBOL y ALGOL, se trata de un lenguaje de programación complejo. Compilado y estructurado, es capaz de gestionar errores y de procesar multitareas, y se emplea en entornos académicos y de investigación.
Los microprocesadores suelen estar recubiertos por una carcasa de protección. Los conductores que sobresalen del
3 2
UNIVERSIDAD NACIONAL DE INGENIERÍA
UNI RUACS ESTELI
a las placas de circuito integrado
Este circuito integrado, un microprocesador F-100, tiene sólo 0,6 cm2, y es lo bastante pequeño para pasar por el ojo de una aguja.
Superconductividad, fenómeno que presentan algunos conductores que no ofrecen resistencia al flujo de corriente eléctrica
Nitrógeno líquido
Ciertos materiales cerámicos se vuelven