• No se han encontrado resultados

Tarea 1(introduccion )

N/A
N/A
Protected

Academic year: 2020

Share "Tarea 1(introduccion )"

Copied!
14
0
0

Texto completo

(1)

UNIDAD 1

Nombre: María Elena Eguez Rodas

Fecha: 15 /03/2017

Introducción

-Concepto de computación

Acto y acción de computar (especialmente por medios

matemáticos) Computer era la persona que realizaba cálculos, desde 1945 el nombre se aplica a la maquinaria que realiza la tarea.

-Computador

*Gran capacidad de cómputo

*Capacidad de almacenar y recuperar información

-Sistemas de Numeración

*Requerida para cualquier técnica de computación o cálculo

> Decimal – cercano al ser humano - del 1 al 9

> Binario – cercano al computado - del 0 a 1

Tiene relación con las operaciones aritméticas o de cómputo

-Datos.-Conjunto de símbolos para representar un valor numérico, un hecho, una idea o un objeto.

-Información.- Conjunto de datos procesados, organizados, es decir significados. Implica el conjunto de datos y su relación.

Ejm: Edad, estudios, salarios de trabajadores, podemos obtener la distribución del sueldo según edad o en función de la formación.

(2)

 BLAISE PASCAL

 JOSEPH MANE

 KONRAD ZUSE

ENIAC (Electronic Numerical Integrator and Calculator) primer computador digital.

-Generaciones de computadoras

*Primera: 1940- 1956 tubos de vacío, lenguaje de maquinas

*Segunda: 1956-1963 remplazo las válvulas de vació por los transistores, son más pequeñas y consumen menos electricidad

*Tercera: 1964-1971 comienza a utilizarse los circuitos integrados, se aumenta la capacidad de procesamiento y son más pequeñas

*Cuarta: 1972-1990 integración sobre los componentes

electrónicos, aparición del microprocesador, se desarrolló el chip.

*Quinta y sexta: 1990- Actualidad; surge como computadora portátil, revoluciona el sistema informativo.

-Bio Electrónica: Fue creada en 1971 por Joaquín Remolina López para el campo de la medicina.

-Evolución de las computadoras:

*Duración

*Tecnología

*Maquinas

*Tipos de memorias

*Lenguajes

(3)

INVESTIGACIÓN

-John Von Neumann (1903-1957)

Virtualmente cada computador personal, microcomputador, minicomputador y supercomputador es una máquina de Von Neumann, ofreció una contribución al estudio de algoritmos,

conocido como el inventor del conocido algoritmo MERGE SORT, en la cual la primera y segunda mitad de un array( vector) se clasifican recursivamente por separado y luego se fusionan juntas.

La arquitectura Von Neumann, también conocida como modelo de Von Neumann o arquitectura Princeton, es una arquitectura de computadoras basada en la descrita en 1945 por el matemático y físico John von Neumanny otros, en el primer borrador de un informe sobre el EDVAC.[1] Este describe una arquitectura de diseño para un computador digital electrónico con partes que

constan de una unidad de procesamiento que contiene una unidad aritmético lógica y registros del procesador, una unidad de control que contiene un registro de instrucciones y un contador de

programa, una memoria para almacenar tanto datos como

instrucciones, almacenamiento masivo externo, y mecanismos de entrada y salida. El significado ha evolucionado hasta ser cualquier computador de programa almacenado en el cual no pueden ocurrir una extracción de instrucción y una operación de datos al mismo tiempo, ya que comparten un bus en común. Esto se conoce como el cuello de botella Von Neumann y muchas veces limita el

rendimiento del sistema.

El diseño de una arquitectura Von Neumann es más simple que la arquitectura Harvard más moderna, que también es un sistema de programa almacenado, pero tiene un conjunto dedicado de

(4)

escribir datos en la misma, y otro conjunto de direcciones y buses de datos para ir a buscar instrucciones.

Un computador digital de programa almacenado es una que mantiene sus instrucciones de programa, así como sus datos, en memoria de acceso aleatorio (RAM) de lectura-escritura. Las

computadoras de programa almacenado representaron un avance sobre los ordenadores controlados por programas de la década de 1940, como la Colossus y la ENIAC, que fueron programadas por ajustando interruptores e insertando parches, conduciendo datos de la ruta y para controlar las señales entre las distintas unidades funcionales. En la gran mayoría de las computadoras modernas, se utiliza la misma memoria tanto para datos como para instrucciones de programa, y la distinción entre Von Neumann vs. Harvard se aplica a la arquitectura de memoria caché, pero no a la memoria principal.

-Arquitectura Harvard.

La arquitectura Harvard es una arquitectura de computadora con pistas de almacenamiento y de señal físicamente separadas para las instrucciones y para los datos. El término proviene de la

computadora Harvard Mark I basada en relés, que almacenaba las instrucciones sobre cintas perforadas (de 24 bits de ancho) y los datos en interruptores electromecánicos. Estas primeras máquinas tenían almacenamiento de datos totalmente contenido dentro la unidad central de proceso, y no proporcionaban acceso al

almacenamiento de instrucciones como datos. Los programas

necesitaban ser cargados por un operador; el procesador no podría arrancar por sí mismo.

Hoy en día (2017), la mayoría de los procesadores implementan dichas vías de señales separadas por motivos de rendimiento, pero

(5)

en realidad implementan una arquitectura Harvard modificada, para que puedan soportar tareas tales como la carga de un

programa desde una unidad de disco como datos para su posterior ejecución.

En la arquitectura Harvard, no hay necesidad de hacer que las dos memorias compartan características. En particular, pueden diferir la anchura de palabra, el momento, la tecnología de implementación y la estructura de dirección de memoria. En algunos sistemas, se pueden almacenar instrucciones en memoria de solo lectura mientras que, en general, la memoria de datos requiere memoria de lectura-escritura. En algunos sistemas, hay mucha más memoria de instrucciones que memoria de datos así que las direcciones de instrucción son más anchas que las direcciones de datos.

Contraste con arquitecturas von Neumann

Bajo arquitectura de von Neumann pura, la CPU puede estar bien leyendo una instrucción o leyendo/escribiendo datos desde/hacia la memoria pero ambos procesos no pueden ocurrir al mismo tiempo, ya que las instrucciones y datos usan el mismo sistema de buses. En una computadora que utiliza la arquitectura Harvard, la CPU puede tanto leer una instrucción como realizar un acceso a la memoria de datos al mismo tiempo, incluso sin una memoria caché. En

consecuencia, una arquitectura de computadores Harvard puede ser más rápida para un circuito complejo, debido a que la

instrucción obtiene acceso a datos y no compite por una única vía de memoria.

Además, una máquina de arquitectura Harvard tiene distintos código y espacios de dirección de datos: dirección de instrucción cero y dirección de datos cero son cosas distintas. La instrucción cero dirección podría identificar un valor de veinticuatro bits,

(6)

mientras que dirección de datos cero podría indicar un byte de ocho bits que no forma parte de ese valor de veinticuatro bits.

*En Contraste con la arquitectura Harvard modificada

Una máquina de arquitectura Harvard modificada es muy similar a una máquina de arquitectura Harvard, pero relaja la estricta

separación entre la instrucción y los datos, al mismo tiempo que deja que la CPU acceda simultáneamente a dos (o más) memorias de buses. La modificación más común incluye cachés de

instrucciones y datos independientes, respaldados por un espacio de direcciones en común. Si bien la CPU ejecuta desde la memoria caché, también actúa como una máquina de Harvard pura. Cuando se accede a la memoria de respaldo, actúa como una máquina de von Neumann pura (donde el código puede moverse alrededor como datos, que es una técnica poderosa). Esta modificación se ha generalizado en modernos procesadores, tales como la arquitectura ARM y los procesadoresx86. A veces se llama vagamente

arquitectura Harvard, con vistas al hecho de que en realidad está "modificada".

Otra modificación proporciona un camino entre la memoria de instrucciones (como ROM o flash) y la CPU para permitir que las palabras de la memoria de instrucciones sean tratadas como datos de solo lectura. Esta técnica es utilizada en algunos micros

controladores, incluyendo el Atmel AVR. Esto permite datos

constantes, tales como cadenas de texto o tablas de funciones, que puede acceder sin necesidad de ser previamente copiadas en datos de memoria, preservando memoria de datos escasa (y hambrienta de poder) de lectura / escritura de variables. Las instrucciones

especiales de lenguaje de máquina se proporcionan para leer datos desde la memoria de instrucciones. (Esto es diferente a las

(7)

instrucciones que a sí mismos embebiendo datos constantes, aunque para las constantes individuales de los dos mecanismos pueden sustituir unos por otros.)

-Diseño externo vs interno

Los diseños modernos de chips de CPU de alto rendimiento

incorporan tanto aspectos de la arquitectura Harvard como de la von Neumann. En particular, está muy difundida la versión "caché Split" de la arquitectura Harvard modificada. La memoria caché de la CPU se divide en una caché de instrucciones y una de datos. La arquitectura Harvard se utiliza como la CPU accediendo a la

memoria caché. No obstante, en el caso de un fallo de caché, los datos son recuperados de la memoria principal, que no se divide formalmente en secciones separadas de instrucción y datos, aunque también pueda tener los controladores de memoria

separados utilizados para el acceso simultáneo a la memoria RAM, ROM y memoria flash (NOR).

Así, aunque una arquitectura de von Neumann esté visible en

algunos contextos, como cuando los datos y el código vienen por el mismo controlador de memoria, la implementación de hardware gana las eficiencias de la arquitectura de Harvard para el caché de accesos y al menos algo de accesos a la memoria principal.

Adicionalmente, las CPU suelen tener buffers de escritura que le permiten proceder después de escribir en regiones no almacenadas en caché. De este modo, se visibiliza la naturaleza von Neumann de la memoria, cuando las instrucciones se escriben como datos de la CPU y el software debe garantizar que las caches (datos e

instrucciones) y la escritura de búfer están sincronizadas, antes de tratar de ejecutar esas instrucciones simplemente escritas.

(8)

-Usos modernos de la arquitectura Harvard

La principal ventaja de la arquitectura Harvard pura, acceso

simultáneo a más de una memoria del sistema se ha reducido por procesadores Harvard modificados utilizando sistemas de caché de CPU modernos. Las máquinas de arquitectura Harvard

relativamente puras utilizan principalmente en aplicaciones cuyas compensaciones, como los costes y el ahorro de energía de cachés derivadas de la omisión de caché, superan a las sanciones de

programación desde ofreciendo distintos espacios de código hasta espacios de dirección de datos.

*En general, los procesadores de señal digital (DSPs) ejecutan pequeños algoritmos altamente optimizados de procesamiento de audio o vídeo. Evitan cachés porque su comportamiento debe ser extremadamente reproducible. Las dificultades de lidiar con

múltiples espacios de direcciones son una preocupación secundaria a la velocidad de ejecución. En consecuencia, algunos DSPs cuentan con múltiples memorias de datos en distintos espacios de

direcciones para facilitar tanto el procesamiento SIMD como el VLIW. A modo de ejemplo, los procesadores Texas Instruments TMS320 C55x, cuentan con varios buses de datos en paralelo (dos de escritura, tres de lectura) y un bus de instrucciones.

*Los micro controladores se caracterizan por tener pequeñas cantidades de programa (memoria flash) y memoria de datos (SRAM), sin cache, y aprovechan la arquitectura de Harvard para acelerar el procesamiento de la instrucción simultánea y el acceso a datos. El almacenamiento separado significa que el programa y memorias de datos pueden presentar diferentes anchos de bit, por ejemplo, utilizando instrucciones de 16 bits de ancho y los datos de ancho de 8 bits. También significa que la instrucción de captación

(9)

previa puede llevarse a cabo en paralelo con otras actividades. Entre los ejemplos se incluyen el AVR de Atmel Corp. y la PIC de Microchip Technology, Inc..

Incluso en estos casos, es común emplear instrucciones especiales con el fin de acceder a la memoria del programa como si fueran tablas de datos de solo lectura, o para la reprogramarla; esos procesadores son de arquitectura Harvard modificada.

Abstracción (informática)

La abstracción consiste en aislar un elemento de su contexto o del resto de los elementos que lo acompañan.

En programación, el término se refiere al énfasis en el "¿qué hace?" más que en el "¿cómo lo hace?" (Característica de caja negra). El común denominador en la evolución de los lenguajes de programación, desde los clásicos o imperativos hasta los orientados a objetos, ha sido el nivel de abstracción del que cada uno de ellos hace uso.

Los lenguajes de programación son las herramientas mediante las cuales los diseñadores de lenguajes pueden implementar los modelos abstractos. La abstracción ofrecida por los lenguajes de programación se puede dividir en dos categorías: abstracción de datos (pertenecientes a los datos) y abstracción de control

(perteneciente a las estructuras de control).

Los diferentes paradigmas de programación han aumentado su nivel de abstracción, comenzando desde los lenguajes de máquina, lo más próximo al ordenador y más lejano a la comprensión

humana; pasando por los lenguajes de comandos, los imperativos, la orientación a objetos (POO), la Programación Orientada a

(10)

Aspectos (POA); u otros paradigmas como la programación declarativa, etc.

La abstracción encarada desde el punto de vista de la programación orientada a objetos expresa las características esenciales de un objeto, las cuales distinguen al objeto de los demás. Además de distinguir entre los objetos provee límites conceptuales. Entonces se puede decir que la encapsulación separa las características esenciales de las no esenciales dentro de un objeto. Si un objeto tiene más características de las necesarias los mismos resultarán difíciles de usar, modificar, construir y comprender sobre todo cuando es un método de número entero con terminación fraccionaria.

La misma genera una ilusión de simplicidad dado que minimiza la cantidad de características que definen a un objeto.

Durante años, los programadores se han dedicado a construir

aplicaciones muy parecidas que resolvían una y otra vez los mismos problemas. Para conseguir que sus esfuerzos pudiesen ser utilizados por otras personas se creó la POO que consiste en una serie de normas para garantizar la interoperabilidad entre usuarios de manera que el código se pueda reutilizar.

Ejemplo

Pensar en términos de objetos es muy parecido a cómo lo haríamos en la vida real. Una analogía sería modelizar un coche en un

esquema de POO. Diríamos que el coche es el elemento principal que tiene una serie de características, como podrían ser el color, el modelo o la marca. Además tiene una serie de funcionalidades asociadas, como pueden ser ponerse en marcha, parar o aparcar. En un esquema POO el coche sería el objeto, las propiedades serían las

(11)

características como el color o el modelo y los métodos serían las funcionalidades asociadas como ponerse en marcha o parar.

Por poner otro ejemplo vamos a ver cómo modelizaríamos en un esquema POO una fracción, es decir, esa estructura matemática que tiene un numerador y un denominador que divide al numerador, por ejemplo 3/2. La fracción será el objeto y tendrá dos

propiedades, el numerador y el denominador. Luego podría tener varios métodos como simplificarse, sumarse con otra fracción o número, restarse con otra fracción, etc.

Estos objetos son utilizables en los programas, por ejemplo en un programa de matemáticas se puede hacer uso de objetos fracción y en un programa que gestione un taller de coches, objetos coche. Los programas orientados a objetos utilizan muchos objetos para realizar las acciones que se desean realizar y ellos mismos también son objetos. Es decir, el taller de coches será un objeto que utilizará objetos coche, herramienta, mecánico, recambios, etc.

Abstracción (lógica)

Abstracción es el resultado del apartamiento de las características esenciales de un objeto.

Finalidad:

La abstracción es uno de los mecanismos lógicos fundamentales para formar conceptos. Es importante el valor que tiene la

abstracción para el conocimiento que avanza de lo concreto a lo abstracto. De modo que se acerque a la verdad.[1] En un estudio científico es importante la abstracción de los objetos materiales, las leyes de la naturaleza, como en el caso de las leyes del movimiento. El interés es que se consiga una resultante más profunda, veraz y completa.

(12)

Usos:

Se precisan altos niveles de abstracción en las ciencias, incluidas las matemáticas; se utilizan, por ejemplo:

*Las abstracciones de la identificación

*El infinito actual

*El infinito potencial

*Los conceptos de sistemas matemáticos y de estos llegar a otros. Como Categoría.

Otros casos:

*Las figuras de la geometría son abstracciones de figuras concretas en las que no se toman en cuenta más que la extensión.

*El azul es la abstracción común de los cuerpos de este color.

*El color verde de las hojas de las plantas es una abstracción de ese carácter que poseen dichas partes.

Lo abstracto depende del conjunto en el que está inserto, en tanto que lo concreto no depende de tal ligazón.

HARDWARE

La palabra hardware en informática se refiere a las partes físicas tangibles de un sistema informático; sus componentes eléctricos, electrónicos, electromecánicos y mecánicos. Cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado componen el hardware; contrariamente, el soporte lógico e intangible es el llamado software.

El término es propio del idioma inglés, su traducción al español no tiene un significado acorde, por tal motivo se lo ha adoptado tal

(13)

cual es y suena. La Real Academia Española lo define como

«Conjunto de los componentes que integran la parte material de una computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la tecnología. Por

ejemplo, hardware también se refiere a herramientas y máquinas, y en electrónica hardware se refiere a todos los componentes

electrónicos, eléctricos, electromecánicos, mecánicos, cableados y tarjetas de circuito impreso o PCB. También se considera al

hardware como uno de tres pilares fundamentales en diseño electrónico. Otros ejemplos donde se aplica el término hardware son: un robot, un teléfono móvil, una cámara fotográfica, un reproductor multimedia o cualquier otro dispositivo electrónico. Cuando dichos dispositivos procesan datos poseen además de hardware, firmware y/o software.

La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría

hacerse entre hardware principal, como el estrictamente necesario para el funcionamiento normal del equipo, y el complementario, como el que realiza funciones específicas.

SOFTWARE

Se conoce como software al equipo lógico o soporte lógico de un sistema informático, que comprende el conjunto de los

componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las

(14)

permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El anglicismo software es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; en tanto que el término sinónimo «logicial», derivado del término francés logiciel, es utilizado mayormente en países y zonas de influencia francesa. Su abreviatura es Sw.

Referencias

Documento similar

En este sentido, puede defenderse que, si la Administración está habilitada normativamente para actuar en una determinada materia mediante actuaciones formales, ejerciendo

(1886-1887) encajarían bien en una antología de textos históricos. Sólo que para él la literatura es la que debe influir en la historia y no a la inversa, pues la verdad litera- ria

Para ello, trabajaremos con una colección de cartas redactadas desde allí, impresa en Évora en 1598 y otros documentos jesuitas: el Sumario de las cosas de Japón (1583),

Entre nosotros anda un escritor de cosas de filología, paisano de Costa, que no deja de tener ingenio y garbo; pero cuyas obras tienen de todo menos de ciencia, y aun

Sanz (Universidad Carlos III-IUNE): "El papel de las fuentes de datos en los ranking nacionales de universidades".. Reuniones científicas 75 Los días 12 y 13 de noviembre

(Banco de España) Mancebo, Pascual (U. de Alicante) Marco, Mariluz (U. de València) Marhuenda, Francisco (U. de Alicante) Marhuenda, Joaquín (U. de Alicante) Marquerie,

[r]

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S.. El SO es el