miércoles, 19 de agosto de 2020

 Hardware 

Es una palabra inglesa que hace referencia a las partes físicas tangibles de un sistema informático, es decir, todo aquello que podemos tocar con las manos. Dentro del hardware encontramos una gran variedad de componentes eléctricos, electrónicos, electromecánicos y mecánicos. El hardware es el chasis del ordenador, los cables, los ventiladores, los periféricos y todos los componentes que se pueden encontrar en un dispositivo electrónico. La Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».

El término no solamente se aplica a los ordenadores, ya que es a menudo utilizado en otras áreas de la vida diaria y la tecnología como robots,​ teléfonos móviles, cámaras fotográficas, reproductores digitales o cualquier otro dispositivo electrónico. El hardware representa un concepto contrario al Software, la parte intangible de un sistema informático, es decir todo aquello que no podemos tocar físicamente.

Una forma de clasificar el hardware es en dos categorías: el hardware principal, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima, y por otro lado, el hardware complementario, que es el utilizado para realizar funciones específicas más allá de las básicas, no estrictamente necesarias para el funcionamiento del sistema informático.

Historia del hardware

La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de gran importancia.

Primera generación (1945-1956): electrónica implementada con tubos de vacío, que desplazaron los componentes electromecánicos (relés).

Segunda generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero con una implementación mucho más pequeña, reduciendo el tamaño de un ordenador en gran medida.

Tercera generación (1964-hoy): electrónica basada en circuitos integrados, la cual permite integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado impreso en una pastilla de silicio. Esto vuelve a suponer una notable reducción en el coste, consumo y tamaño.

Cuarta generación (futuro): se originará cuando los circuitos de silicio sean reemplazados por un nuevo tipo de material o tecnología, las más prometedoras son el grafeno y los procesadores cuánticos.

La historia del hardware comienza en el ya lejano año 1960, un momento que está marcado por el paso de los tubos de vacío a los circuitos integrados basados en el silicio, la misma tecnología que se sigue usando hoy en día. Este importante cambio viene marcado por los transistores discretos, que empezaron a ser suficientemente viables desde el punto de vista de la economía y la fiabilidad, por lo que ya no había ninguna razón para seguir usando los tubos de vacío.

La memoria principal de los ordenadores vio una gran evolución con el paso de las cintas magnéticas a los chips basados en transistores de silicio, este movimiento permitió reducir de forma muy importante el consumo de energía, el tamaño y el coste de fabricación de los equipos informáticos. Los años seguían pasando y la tecnología de los circuitos integrados era cada vez más barata, lo que hizo posible la aparición de los ordenadores personales. Un hardware más pequeño y asequible, también provocó el desarrollo de importantes nuevos sistemas operativos como Unix.

El primer circuito integrado se creo en 1958, aunque tuvieron que pasar algunos años hasta que se empezaron a usar en los ordenadores. La NASA fue una de las pioneras en el uso de esta tecnología, el Apollo Guidance Computer del programa Apolo, y el misil balístico incontinentemente LGM-30 Minuteman fueron las primeras creaciones de la agencia espacial en usar ordenadores con circuitos integrados.

Replica de la Apollo via una Raspberry

No fue hasta el 15 de noviembre de 1971, cuando Intel lanzó el primer microprocesador comercial del mundo, el famoso Intel 4004. Este procesador fue desarrollado para Busicom, una compañía japonesa de calculadoras, que buscaba una alternativa al circuito cableado. Las grandes capacidades de este procesador hicieron que fuera usado para el desarrollo de ordenadores. Este procesador era capaz de ejecutar 60.000 instrucciones por segundo, un número que fue aumentando en los futuros procesadores Intel 8008, 8080, 8086 y 8088. El Intel 4004 funcionaba acompañado de un chip de RAM de varios kilobits, basado en una invención por Robert Dennard de IBM.

Hasta la aparición del microprocesador, los ordenadores eran en general grandes y caros, sus dueños eran instituciones grandes como corporaciones, universidades, agencias de gobierno, y similares. Sus usuarios eran especialistas, que no interactuaban con la máquina en sí misma, sino que preparaban tareas para el ordenador en equipos fuera de línea, tal como perforadores de tarjetas. Un número de asignaciones para el ordenador serían recolectadas y procesadas en una modalidad de procesamiento por lotes. Después, los usuarios podían recoger las salidas en listados impresos y en tarjetas perforadas. En algunas organizaciones este proceso podía tardar horas o días en completarse.

Después de que el procesador fuera comercializado, el coste de producir un sistema de computación cayó dramáticamente. La aritmética, la lógica, y las funciones de control que previamente ocuparon varias y costosas tarjetas de circuitos, ahora estaban disponibles en un circuito integrado que era muy costoso de diseñar, pero barato de producir en grandes cantidades una vez diseñado.

Los primeros ordenadores personales en comercializarse fueron el Altair 8800 y el IMSAI 8080. Ambos equipos eran esencialmente minicomputadores reducidos e incompletos, pues para conectar un teclado o un teletipo a ellos se requerían accesorios pesados y costosos. Ambas máquinas ofrecían un panel delantero con interruptores y luces, que se comunicaban con el usuario en binario.

Tarea

1.-Investigar sobre la diferencia de Hardware y el software.
2.- Describe la historia de Software.
3.- Ilustrar la clase




miércoles, 5 de agosto de 2020

Tipos de computadoras

 

COMPUTADORA ANALÓGICA Son computadoras hechas con circuitos físicos de tipo continuo y analógico. Este tipo de computadoras forma parte de la primera generación en la actualidad pocos la utilizan.

COMPUTADORA DIGITALES

 Son computadoras construidas también a base de circuitos pero estos son de tipo lógico e integrado y sus respuestas son de tipo digital. Dentro de este tema tenemos la clasificación de las computadoras de acuerdo al tamaño son la siguiente:

MICROCOMPUTADORA:

Se las utiliza para aplicaciones caseras y de oficina.

MINICOMPUTADORA:

Al igual que las computadoras micro son de propósitos generales.

MACROCOMPUTADORA:

También se las utiliza en grandes aplicaciones como sistemas bancarios, administración y aeropuertos.

SUPERCOMPUTADORAS:

Estas máquinas están hechas para procesar enormes cantidades de información adecuadas para tareas específicas.

Ejercicio en clase

Dibujar 1 computadora analógica y una computadora digital.

Donde encontramos una super computadora y para que sirve