Historia de la informática · La Historia de la Informática se remonta a la década de los 60...
Transcript of Historia de la informática · La Historia de la Informática se remonta a la década de los 60...
1
República Bolivariana de Venezuela.
Ministerio del Poder Popular para la Educación Superior.
Universidad Nororiental Privada.
Gran Mariscal de Ayacucho.
El Tigre, Estado Anzoátegui.
Disciplina: Informática.
Historia de la
informática
Facilitador: Estudiante: Hamlet Mata. Pablo Ducrox 25.812.123
Segundo Semestre de Administración de Empresas.
El Tigre, 28 de Marzo de 2019.
2
Índice:
+Introducción…………………………………….……..………… 4
+Desarrollo:
Historia de la informática……………………….…..………..5/6
Evolución……………………………………………..……..…6/7
Evolución electrónica………………………………..…….....7/8
Hechos y personajes………………………………..……….9/14
Generación de computadores………………………..……14/16
Historia de la informática: Generación………….…..…….16/22
Ventajas de la informática………………..……….…..…….22
Desventajas de la informática……………………………....23
La Computadora…………………………………….………23/24
La primera Computadora…………………………………..24/25
Tipos de Computadora…………………………….……….25/26
Categorías de las Computadoras…………………..….…26/27
Reseña histórica de las computadoras………………….28/30
3
Generación de las computadoras………….……………31/37
Hardware……………………………………….…………..37/38
Unidad central de procesamiento…………..……………38
Unidad de control…………………………………………38/39
Unidad aritmética lógica……………………….…………39
Unidad de entrada/salida……………………….…….….39/40
Memoria…………………………………………………….40
Tipos de memoria……………………………………...…41
Dispositivos de almacenamientos………......................41
Software…………………………………………….…..…41/42
Sistema operativo……………………………….………..42
Tipos de Sistema operativo.………………………….….42/47
Internet……………………………………………………..47/48
Comercio eléctrico……………………………………..…48/50
+Conclusión………………………………………..……………..51
+Bibliografía…………………………………………………..….52
+Anexos……………………………………………..………...…..53
4
Introducción:
La informática suele ser definida como aquella ciencia que se
dedica a estudiar el tratamiento de la información mediante medios
automáticos, es decir, la ciencia de la información automática. Se
trata de una sumatoria de conocimientos científicos y de técnicas
que posibilitan el tratamiento automático de la información mediante
el uso de computadoras.
La ciencia de la informática (popularmente llamada como
computación) se divide en diversas ramas como la programación, la
arquitectura de redes y computadoras, electricidad y electrónica,
inteligencia artificial (entre otras).
La informática tiene dos áreas de desarrollo, el software (los
programas) y el hardware (los productos que
complementan). Algunas carreras se orientan al desarrollo de
software, como la ingeniería en sistemas, y otras carreras hacen
más bien mantenimiento, como algunas tecnicaturas. Claramente, la
rama que más se amplía es la de la programación que día a día
cambia y evoluciona.
5
Historia de la informática:
La red informática es creada a partir de un conjunto de dispositivos los
cuales están conectados entre sí, en donde un emisor y receptor
generan la comunicación a partir de enlaces de datos los cuales son
establecidos por medio de cables ópticos, y gracias a la tecnología,
en la actualidad por medios inalámbricos, como por ejemplo: el Wi-Fi.
Estas redes son capaces de soportar una gran cantidad de datos,
aplicaciones y servicios, además tienen capacidad de
almacenamiento. Este medio de transmisión sigue un protocolo de
comunicación dependiendo del tamaño de la red. La red informática
mundialmente más conocida y popular es el internet.
La Historia de la Informática se remonta a la década de los 60 cuando
el Gobierno de los Estados Unidos buscaba integrar redes
académicas, esto ocurre en la Red de Agencia para los Proyectos de
Investigación Avanzada de los Estados Unidos, la cual posee sus
siglas en inglés que son ARPANet.
A partir de aquí y en adelante se comenzó otra era, en la cual
científicos e investigadores se les hizo más fácil compartir sus trabajos
y conocer el trabajo de los demás.
Luego llegó a manos de profesores y alumnos, en donde es
aprovechado como medio de búsqueda de información, disfrutando la
habilidad para generar información dentro de sus actividades. Dentro
de la Red Informática existen procesos como lo son la comunicación
de datos, el cual es un proceso en el que se transmiten datos entre
dos lugares diferentes a través de un medio electromagnético, como
por ejemplo un cable eléctrico. Tales sistemas de comunicación se
6
limitaban a la comunicación punto a punto entre dos dispositivos
finales es así como lo cuenta La Historia de la Informática. Para la
década de 1940 científicos estadounidenses pertenecientes a la
UCLA conectaron dos computadoras por primera vez usando un
cable, en donde se observó cómo fluían los datos de una máquina a
otra, y así se dio el principio de Arpanet,.
Evolución:
A lo largo de la Historia de la Informática se han creado grandes
cosas, que al pasar de los años se han ido modificando y estudiado
para su perfeccionamiento y a través de eso se ha dado lo que es su
evolución progresiva.
Los servidores de Internet crecen rápidamente, ya que la cantidad de
computadoras conectadas a Internet durante estas décadas van
aumentando dramáticamente desde los comienzos de la red, cuando
conectó cuatro computadoras en unos laboratorios universitarios de
investigación.
Los usuarios de Internet superan los mil millones ya que desde 1995
el uso de Internet se ha disparado y evolucionado
positivamente. Aunque se dice que el Internet tiene más de mil
millones de usuarios, todos están de acuerdo que la red tiene espacio
para crecer a medida que la población mundial lo hace, actualmente
alcanza los 6.000 millones de habitantes.
Eso deja a más de 4 mil millones de personas en todo el mundo sin
acceso a Internet en la actualidad, lo cual viene siendo algo ilegal
7
porque desde 2011 la Organización de Naciones Unidas ONU
declaró al internet como un derecho humano, un derecho para todos.
La Historia de la Informática y el internet durante su evolución se ha
convertido en un fenómeno global que a través del tiempo se ha hecho
más viral, las personas han pasado a depender del esta red de una
forma drástica.
A lo largo de la historia, incluso desde tiempos en los que no existía la
electricidad, el hombre siempre ha querido simplificar su modo de vida,
por esta razón los grandes pensadores de todos los tiempos, han
dedicado gran parte de su vida a desarrollar teorías matemáticas para
construir máquinas que simplifiquen las tareas de la vida diaria.
El verdadero auge de estas ideas comienza en la época de la
revolución industrial con la aparición de la máquina de tejer, y muchas
otras maquinarias. Luego se comienza a necesitar realizar cálculos
muy grandes, que eran difíciles de realizar por el hombre, ya que
tomaba años terminar un cálculo.
Entonces comienzan a crear las computadoras, con ellas se
realizaban las tareas matemáticas de manera más rápida y segura.
Sin embargo no era suficiente, por naturaleza se tiende a buscar mas
rapidez, y es cuando comienza la técnica de "miniaturización" que
cada día se perfecciona mas; con este método se logra hacer
procesadores mas rápidos por circuitos mas pequeños, de igual
manera se logra tener capacidades de almacenamiento abismales en
espacios físicos muy pequeños, la ciencia de la computación se
encuentra en su mejor momento.
8
Evolución Electrónica:
En 1904, el inglés Fleming inventó la válvula de vacío,. Que se utilizó
como elemento de control para sustituir a los relés electromecánicos y
para conformar dispositivos bien estables.
En los años cincuenta, con el descubrimiento de los semiconductores,
aparecieron el diodo y el transistor, este último inventado por Walter
Brattain, jhon Barden y W.Shockley en los laboratorios BELL en enero
de 1947, por este descubrimiento obtuvieron el premio Nobel.
El transistor sustituyó a la válvula de vacío permitiendo la reducción
de circuitos de tamaño y aumentando la fiabilidad de los equipos
debido a sus mejores características.
Basándose en el transistor, se construyeron circuitos capaces de
realizar funciones lógicas, con lo que surgieron las puertas lógicas y
sus circuitos derivados.
Años más tarde, comenzó la miniaturización con la construcción de los
circuitos integrados, que consistían en la implementación de un
circuito complejo en una pastilla que ocupaba un tamaño reducido.
Con este elemento empezó la ciencia del diseño lógico de circuitos a
baja escala de integración (SSI, Short Scale Integracion), que permitía
introducir en cada circuito alrededor de diez puertas lógicas.
Apareció a continuación la integración a media escala MSI (Médium
Scale Integration), en la que se integraban en una sola pastilla de
circuito integrado entre 100 y 1000 puertas lógicas.
Poco tiempo después, se consiguió introducir en un mismo circuito
entre 1000 y 10000 puertas lógicas, con lo que se pasó a la
integración a gran escala (LSI, Long Scale Integration).
Cuando se superaron las 10000 puertas lógicas por circuito se pasó a
la muy alta escala de integración (VLSI, Very Long Scale Integration).
9
En 1971 apareció un circuito integrado denominado microprocesador,
en el que se consiguió introducir todo el procesador de una
computadora en un solo elemento.
Hechos y Personajes:
El primer dispositivo manual de cálculo fue El Ábaco, que servía para
representar números en el sistema decimal y contar, permitiendo la
realización de operaciones aritméticas sencillas. (Figura No. 1. El
ábaco).
El matemático escocés, John Napier (1550 – 1617), es un intento de
simplificar las operaciones de multiplicación, división y
exponenciación, inventó los logaritmos naturales o neperianos a
finales del siglo XVI, construyendo en 1614 las primeras tablas de los
mismos. (Figura No. 2.
Jhon Napier y sus estructuras)
Hacia el año 1623, el científico alemán Wilhelm Schickard (1592 –
1635) ideó una calculadora mecánica denominada reloj calculante,
que funcionaba con ruedas dentadas y era capaz de sumar y restar,
pero no se pudo montar en aquella época, de tal forma que fue
construida, según el diseño de su autor, a principios del siglo XX por
ingenieros de IBM. (Figura No.3. Calculadora de Schickard y su autor)
Algunos años después, en 1642, el matemático y filósofo francés
Blaise Pascal (1623 – 1662) inventó la primera máquina automática de
calcular completa a base de ruedas dentadas que simulaba el
funcionamiento del ábaco. Esta máquina realizaba operaciones de
suma y resta mostrando el resultado por una serie de ventanillas. En
10
un principio se denominó pascalina, recibiendo posteriormente el
nombre de máquina aritmética de Pascal.
En 1650, Patridge, basándose en los descubrimientos de Napier,
inventó la regla de cálculo, pequeña regla deslizante sobre una base
fija en la que figuraban diversas escalas para la realización de
determinadas operaciones.
Paralelamente a Pascal, en 1666 el matemático inglés Samuel
Morland inventó otro aparato mecánico que realizaba operaciones de
suma y resta; se denominó máquina Aritmética de Morland y su
funcionamiento y prestaciones se asemejan a los de la máquina de
Pascal.
Pocos años más tarde, en 1672, el filósofo y matemático alemán
Gottfried Wlhelm Von Leibnitz (1646 – 1716) mejoró la máquina de
Pascal construyendo su calculadora universal, capaz de sumar, restar,
multiplicar, dividir y extraer raíces cuadradas, caracterizándose por
hacer la multiplicación de forma directa, en vez de realizarla por sumas
sucesivas, como la máquina de Pascal.
Utilizando como modelo la calculadora universal de Leibnitz, el
Francés Charles – Xavier Thomas (1785 – 1870) inventó una máquina
que además de funcionar a la perfección, tuvo un gen éxito comercial.
Esta máquina se denominó aritmómetro.
En 1779, Mattieu Hahn diseñó y construyó una máquina de calcular
capaz de realizar sumas, restas, multiplicaciones y divisiones.
Ya en el siglo XIX, en el año 1805 el francés Joseph Marie Jacquard
(1752 – 1834), después de algunos intentos anteriores, construyó un
telar automático que realizaba un control prefecto sobre las agujas
tejedoras, utilizando tarjetas perforadas que contenían los datos para
el control de las figuras y dibujos que había que tejer. Se puede
11
considerar el telar de Jacquard como la primera máquina mecánica
programada.
El matemático inglés y profesor de la Universidad de Cambridge
Charles Babbage (1792 – 1871) diseñó dos máquinas de calcular que
rompían la línea general de las máquinas de aquella época por su
grado de complejidad.
La primera de ellas, diseñaba en ruedas dentadas; sus aplicaciones
más importantes fueron la resolución de funciones y la obtención de
tablas de dichas funciones (por ejemplo, tablas de función X2).
Poco después, en 1833, Babbage diseñó su segunda máquina,
denominada máquina analítica, capaz de realizar todas las
operaciones matemáticas y con posibilidad de ser programada por
medio de tarjetas de cartón perforado (similares a las tarjetas de
Jaquard), siendo además capaz de almacenar en su interior una
cantidad de cifras considerable.
La hija del famoso poeta Lord Byron (1788 – 1824), Augusta Ada
Byron, condesa de Lovelace, fue la primera persona que realizó
programas para la máquina analítica de Babbage, de tal forma que ha
sido considerada como la primera programadora de la historia.
En 1854, el ingeniero sueco Pehr George Sheutz (1785 – 1873),
apoyado por el gobierno de su país, construyó una máquina diferencial
similar a la de Babbage, denominada máquina de tabular, que tuvo un
gran éxito y se utilizó fundamentalmente para la realización de
cálculos astronómicos y la confección tablas para las compañías de
seguros. (Figura No. 4. Calculadora de George Scheutz)
También en 1854, el matemático inglés george Boole (1815 – 1864)
desarrolló la teoría del algebra de Boole.
12
El norteamericano y funcionario de la oficina de l censo de Estados
Unidos Herman Hollerith ideo en 1886 una tarjeta perforada para
contener la información de las personas censadas y una máquina
capaz de leer y tabular dicha información. Construyó su máquina
Censadora o tabuladota que fue capaz de reducir el trabajo manual a
la tercera parte.
En 1887, el francés Léon Bollée (1870 – 1913), famoso por su gran
afición al automovilismo, construyó una máquina de multiplicar en la
que la multiplicación se realizaba directamente, sin utilizar el
procedimiento de sumas sucesivas.
También a finales del siglo XIX, un español reside en Estados Unidos,
Ramón Verea, construyó una máquina que realizaba la multiplicación
directamente de forma similar a la máquina de Léon Bollée.
En 1893, el suizo Otto Steiger Construyó la primera calculadora que
tuvo éxito comercial; su nombre fue la millonaria y se utilizó para los
grandes negocios y en algunas aplicaciones de cálculo científico.
A principios del siglo XX, en 1910, James Power Diseñó nuevas
máquinas censadoras siguiendo la idea de Hollerith.
Leonardo Torres Quevedo ()1852 – 1936), construyó a principios del
siglo XX, siguiendo la línea de Babbage, varias máquinas o autómatas
teledirigidos, una máquina para jugar al ajedrez y una máquina
calculadora.
En 1936, el matemático inglés Alan M. Turing (1912 – 1954) desarrolló
la teoría de una máquina capaz de resolver todo tipo de problemas
con solución algorítmica, llegando a la construcción teórica de las
máquinas de Turing. Una máquina de Turing es una forma de
representar un proceso a partir de su descripción. (Figura No. 5. Alan
M. Turing y el esquema de su máquina teórica)
13
Con los estudios de Alan M. Turing, se inició la teoría matemática de la
computación.
De estos estudios surgió la teórica de la computabilidad que engloba
el análisis encaminado a encontrar formas de descripción y
representación del proceso o algoritmos.
En 1937, Howard H. Aiken El resultado de sus estudios culminó en la
construcción de una calculadora numérica basada en el uso de relés
electromagnéticos, ruedas dentadas y embragues
electromecanánicos, configurando la primer computadora
electromecánica.
En 1938, el Alemán Calude Shannon comenzó a aplicar la teoría del
álgebra de Boole en la presentación de circuitos lógicos. Publicó en
1948 la teoría matemática de las comunicaciones y realizó diversos
estudios sobre la teoría de la información, donde aparecieron medidas
de la cantidad de información como el bit (binary digit).
También en 1938, el físico norteamericano John Vicent Atanasoff,
profesor de la Universidad de Iowa, junto con su colaborador Cfford
Berry construyeron una máquina electrónica que operaba en binario
siguiendo la idea de Babbage.
Esta fue terminada en 1942 y se llamó ABC (Atanasoff Berry
Computer), siendo considerada como la primer Máquina de calcular
digital. No tomó carácter de computadora puesto que no existía la
posibilidad de programarla.
En 1940, John W. Mauchly y Joh Presper Eckert junto con científicos
de la Universidad de Pensilvania construyeron en la escuela Moore de
Ingeniería Eléctrica, a petición del Ministerio de Defensa de Estados
Unidos, la primera computadora electrónica denominada ENIAC
14
(Electronic Numerical Integrator and calculador) construida a base de
válvulas al vacío, que entró en funcionamiento en 1945.
En 1944, el ingeniero y matemático John Von Neumann (1903 –
1957), de origen húngaro y naturalizado norteamericano, desarrolla la
idea de programa interno y describe el fundamento teórico de
construcción de una computadora electrónica denominada modelo de
Von Neumann.
En 1952 se realizó esta máquina que se denominó EDVAC (Electronic
30 Discrete Variable Automatic Computer) y fue una modificación de la
ENIAC. Esta computadora utilizaba líneas de demora acústica de
mercurio por donde circulaban señales eléctricas sujetas a retardo y
permitían la memorización de los datos.
Poco después, en 1951, John W. Mauchly construyó la primera
computadora de serie puesta a la venta; ésta fue UNIVAC-I (Universal
Automatic Computer – Computador Automático Universal), que
también utilizaba cintas magnéticas.
Generación de Computadores:
Primera generación (1940 – 1952). La constituyen todas aquellas
computadoras diseñadas a base de válvulas al vació como principal
elemento de control y cuyo uso fundamental fue la realización de
aplicaciones en los campos científicos y militar.
Utilizaban como lenguaje de programación el lenguaje máquina y
como únicas memorias para conservar información las tarjetas
perforadas, la cinta perforadora y las líneas de demora de mercurio.
Segunda generación (1952 -1964). Al sustituirse la válvula de vacío
por el transistor, comenzó la llamada segunda generación de
computadoras. En ella, las máquinas ganaron potencia y fiabilidad,
15
perdiendo tamaño, consumo y precio, lo que las hacía mucho más
prácticas y asequibles. Los campos de aplicación en aquella época
fueron, además del científico y militar, el administrativo y de gestión;
es decir las computadoras empezaron a utilizarse en empresas que se
dedicaban a los negocios.
Comenzaron además a utilizarse los llamados lenguajes de
programación; entre ellos podemos citar el ensamblador y algunos de
los denominados de alto nivel como Fortran, Cobol y Algol.
Así mismo, comenzaron a utilizarse como memoria interna los núcleos
de ferrita y el tambor magnético, y como memoria externa la cinta
magnética y los tambores magnéticos.
Tercera generación (1964 – 1971). En esta generación el elemento
más significativo es el circuito integrado aparecido en 1964, que
consistía en el encapsulamiento de una gran cantidad de
componentes discretos (resistencias, condensadores, diodo y
transistores), conformando uno o varios circuitos con una función
determinada, sobre una pastilla de silicona o plástico.
La miniaturización se extendió a todos los circuitos de la computadora,
apareciendo las minicomputadoras.
Se utilizaron tecnologías SSI Y MSI. También el software evolucionó
de forma considerable con un gran desarrollo de los sistemas
operativos, en los que se incluyó la multiprogramación, el tiempo real y
el modo interactivo. Comenzaron a utilizarse las memorias de
semiconductores y los discos magnéticos.
Cuarta generación (1971 – 1981). En 1971 aparece el
microprocesador, consistente en la integración de toda la UCP de una
computadora en un solo circuito integrado. La tecnología utilizada es la
LSI que permitió la fabricación de microcomputadoras y computadoras
personales, asó como las computadoras monopastilla. Se utilizó
16
además el diskette (floppy disk) como unidad de almacenamiento
externo.
Aparecieron una gran cantidad de len guajesde programación de todo
tipo y las redes de transmisión de datos (teleinformática) para la
interconexión de computadoras.
Quinta generación (1981 – 199?). En 1981, los principales países
productores de nuevas tecnologías (Fundamentalmente Estados
Unidos y Japón) anunciaron una nueva generación, uyas
características principales iban a ser:
1. Utilización de componentes a muy alta escala de integración (VLSI)
2. Computadoras con Inteligencia artificial
3. Utilización del lenguaje natural (lenguajes de quinta generación).
4. Interconexión entre todo tipo de computadoras, dispositivos y redes
(redes
integradas) y La gran red de redes Internet.
5. Integración de datos, imágenes y voz (entorno multimedia).
6. Redes neuronales
7. Realidad virtual.
8. Etcétera.
Historia de la Informática:
Generaciones:
La Historia de la Informática se divide en cinco generaciones, la cual
ha llevado a los avances en la tecnología que conocemos
17
actualmente, además de un desarrollo de muchos de los dispositivos
informáticos que usamos hoy en día.
Primera Generación de la Informática
Esta ocurre entre 1940 cuando se empieza a dar a conocer lo que es
la red informática como tal y culminó en 1955, en donde ocurren
grandes avances históricos, entre ellos tenemos que en 1947 se da a
conocer el primer ordenador o computadora digital, conocido como
ENAIC creado en los Estados Unidos.
Con esto se empieza a trabajar en su funcionamiento interno, y se
creó el manejo de información alfabética, que era más sencilla que la
numérica los cuales utilizan la separación entre los dispositivos de
entrada y salida y la computadora misma.
La computadora más exitosa de esta generación que había para el
momento era la IBM 650 la cual usaba un esquema de memoria
secundaria los cuales son los antecesores de los discos actuales.
Las características de estas máquinas que empezaron usando la red
informática se destaca que generaban mucho calor, por esto se les
empezó a incluir ventilación, esta era la causa de un mal
funcionamiento. Además se les introdujo la cinta magnética como un
compacto de almacenamiento.
Estos primeros sistemas informáticos usaban tubos de vacío para
circuitos y tambores magnéticos para la memoria , y a menudo eran
enormes, ocupando salas enteras. Estas computadoras eran muy
costosas de operar y utilizan una gran cantidad de electricidad.
18
La primera computadora comercial que vendida y entregada
comercialmente a un cliente fue la UNIVAC, la cual trabajaba en la
Oficina del Censo de los Estados Unidos para 1951.
Segunda Generación de la Informática
Esta Generación empieza a partir de 1955, de aquí se comienza un
proceso revolucionario en el que las válvulas son sustituidos por
transistores, de hecho fue conocida como la época de los
transistores.
El transistor era muy superior al tubo de vacío, lo que permitió que
las computadoras se vuelvan mucho más pequeñas, más rápidas,
más baratas y más eficientes en cuanto a energía, siendo así más
confiables que sus predecesoras de primera generación. Aunque el
transistor era de mayor eficiencia aún generaba una gran cantidad
de calor que sometía a las computadoras a daños irreparables en
muchos casos.
De todas formas, fue una gran mejora con respecto al tubo de
vacío. Las computadoras de segunda generación todavía confiaban
en las tarjetas perforadas para la entrada y las impresiones para la
salida.
Estas fueron también las primeras computadoras que
almacenan sus instrucciones dentro de su memoria, que
además pasaron de un tambor magnético lo que poseía una
tecnología de núcleo magnético, siendo para la época una
tecnología muy avanzada.
19
Se crearon los lenguajes simbólicos o de ensamblaje, lo que le
permitió a los programadores especificar instrucciones en
palabras. Los lenguajes de programación de alto nivel también se
estaban desarrollando en este momento, como las primeras
versiones de COBOL y FORTRAN.
Tercera Generación de la Informática
Fue conocida como la generación de los circuitos integrados,
debido a que para ese entonces se empezó a agrupar y se
denominaban chips, los cuales eran colocados sobre las placas del
circuito impreso.
Por esto se aumentaba drásticamente la velocidad en el
procesamiento de dichas placas, las cuales generan la aparición de
los primeros sistemas operativos.
Esta generación surgió a finales de 1965, alrededor de unos 10
años hasta 1975. Podemos destacar en esta generación el
ordenador IBM 360 siendo el primer ordenador creado únicamente
con circuitos integrados.
En lugar de tarjetas perforadas, los usuarios utilizaban
computadoras de tercera generación a través de teclados y
monitores, como es usado aún en la actualidad, pero a diferencia de
ellos contaban con un sistema operativo que hacia mas difícil el
trabajo, lo que permitía que el dispositivo
ejecutará muchas aplicaciones diferentes a la vez, con un programa
central que monitoreaba la memoria.
20
Las computadoras por primera vez se hicieron accesibles para una
audiencia masiva porque eran más pequeñas y más baratas que
sus predecesoras.
Cuarta Generación de la Informática
Esta generación se caracteriza por la llegada de un chip al cual se le
denomina microprocesador, en el que se integra componentes
electrónicos a todos los circuitos de la Unidad Central de Procesos
agrupados.
Estos microprocesadores trajeron a la cuarta generación de
computadoras, miles de circuitos integrados los cuales se
construyeron en un solo chip de silicio. Lo que en la primera
generación llenó una habitación entera, ahora cabía en la palma de
la mano, siendo un avance extremo en tan poco tiempo.
En 1971 la empresa Intel desarrolló un chip conocido como Intel
4004, el cual ubicó todos los componentes de la computadora,
desde la unidad de procesamiento central y la memoria hasta los
controles de entrada y salida, en un solo chip. Siendo más eficiente
la red informática que estas poseían.
Esta generación ocurrió desde 1975 hasta 1990 siendo una de las
generaciones más largas y extensas, debido a la cantidad de
hazañas, descubrimientos e inventos los cuales tomaron bastante
tiempo.
21
Para esta generación se presentaron las primeras computadoras de
uso doméstico integradas con una red informática eficiente para la
época, con esto se empezaron a aplicar con más confianza los
microprocesadores.
También surge la Empresa Apple muy famosa en la actualidad y
presentó su primera computadora con microprocesador conocida
como Macintosh.
A medida que estas pequeñas computadoras se volvieron más
poderosas, pudieron vincularse entre sí para formar redes, y en la
historia de la informática esto generó un gran avance, lo que
finalmente condujo al desarrollo de Internet.
Quinta Generación de la Informática
Esta generación va desde 1990 hasta la actualidad aquí se han
observado grandes y diversos avances los cuales han llevado a lo
que conocemos hoy en día, esta generación se conoce como la
generación multimedia.
Los dispositivos informáticos de quinta generación, basados
en inteligencia artificial, algunos aun se encuentran en desarrollo,
existen algunas aplicaciones, como el reconocimiento de voz, que
se están utilizando en la actualidad, reconocimiento por huella
dactilar, y lo más nuevo que podemos ver en
tecnología implementado por la empresa Apple es el reconocimiento
facial.
22
Todos estos avances se deben a la historia de la informática que a
lo largo de los años ha ido creciendo junto al mundo, siendo ahora
un factor elemental en la vida cotidiana de las personas, una
herramienta para científicos y trabajadores y un medio de
aprendizaje que utilizan los desarrolladores de este mismo.
Ventajas de la Informática:
● Han surgido redes sociales, como Facebook que nos permiten estar
conectados todo el tiempo sabiendo todo sobre nuestros amigos. Esta
es una gran ventaja de la informática.
● Han surgido muchísimos juegos relacionados a la informática que
nos permiten divertirnos y eliminar ese estrés que podemos tener.
● Podemos escribir diferentes tipos de archivos como por ejemplo de
texto que nos permiten estar mucho más organizado.
● Podemos conectarnos a Internet y tener absolutamente toda la
información que queramos ya que tenemos la enciclopedia más
grande del mundo, en donde todos suben la información que saben.
● Podemos crear redes informáticas entre diversas computadoras para
intercambiar información o jugar a algún juego entre los dos
ordenadores.
● Podemos manipular información ya sea para realizar cálculos
matemáticos mediante programas, o hacer tareas específicas de
diseño, o realizar planos en AutoCAD.
23
Desventajas de la Informática:
● La informática ha sido una causa de muchísimas adicciones, entre
ellas, a los juegos online o a las redes sociales como Facebook. Esta
es una clara desventaja de la Informática.
● La sociedad empieza a pensar diferente debido a que se
acostumbra a buscar todo lo que no sabe en Internet y como lo busca
superficialmente no se dedica a pensar delicadamente en ello sino que
lo hace de una manera superficial, y esto nos limita en la manera de
pensar de cada uno.
● La sociedad está pendiente de lo que ocurre en la web, como por
ejemplo los videos más famosos en Youtube o las páginas y los
grupos con más fans en Facebook y ese tipo de cosas, cuando en
realidad esas cosas no son importantes.
● Los residuos o la basura informática no siempre es reciclada
correctamente y esto puede traer problemas ambientales aparejados.
● Hay mucha gente que busca hacerse famosa de una manera muy
absurda como por ejemplo subiendo un video a Youtube contando
algo que no es real, y muchísimas personas se lo creen.
Estas son las principales ventajas y desventajas de la Informática.
La COMPUTADORA
Máquina capaz de efectuar una secuencia de operaciones mediante
un programa, de tal manera, que se realice un procesamiento sobre un
conjunto de datos de entrada, obteniéndose otro conjunto de datos de
salida.
24
Dispositivo electrónico capaz de recibir un conjunto de instrucciones y
ejecutarlas realizando cálculos sobre los datos numéricos, o bien
compilando y correlacionando otros tipos de información.
Es un calculador electrónico de elevada potencia equipado de
memorias de gran capacidad y aparatos periféricos, que permite
solucionar con gran rapidez y sin intervención humana, durante el
desarrollo del proceso problemas lógicos y aritméticos muy complejos.
LA PRIMERA COMPUTADORA
Fue en 1830, cuando se establecieron los principios de funcionamiento
de las modernas computadoras.
Su paternidad se debe al matemático ingles Charles Babbage, quien
tras lanzar en 1822 la denominada maquina diferencial– con nada
menos que 96 ruedas dentadas y 24 ejes, se lanzo en pos de su
proyecto mas relevante:la máquina analítica(1833).
La primera computadora fue la máquina analítica creada por Charles
Babbage, profesor matemático de la Universidad de Cambridge en el
siglo XIX. La idea que tuvo Charles Babbage sobre un computador
nació debido a que la elaboración de las tablas matemáticas era un
proceso tedioso y propenso a errores.
En 1823 el gobierno Británico lo apoyo para crear el proyecto de una
máquina de diferencias, un dispositivo mecánico para efectuar sumas
repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había
creado un telar que podía reproducir automáticamente patrones de
tejidos leyendo la información codificada en patrones de agujeros
perforados en tarjetas de papel rígido.
25
Al enterarse de este método Babbage abandonó la máquina de
diferencias y se dedicó al proyecto de la máquina analítica que se
pudiera programar con tarjetas perforadas para efectuar cualquier
cálculo con una precisión de 20 dígitos.
En 1944 se construyó en la Universidad de Harvard, la Mark I,
diseñada por un equipo encabezado por Howard H. Aiken. Esta
máquina no está considerada como computadora electrónica debido a
que no era de propósito general y su funcionamiento estaba basado
en dispositivos electromecánicos llamados relevadores.
TIPOS DE COMPUTADORAS
1. Análoga
La computadora análoga es la que acepta y procesa señales
continuas, tales como: fluctuaciones de voltaje o frecuencias. Ejemplo:
El termostato es la computadora análoga más sencilla.
2. Digital
La computadora digital es la que acepta y procesa datos que han sido
convertidos al sistema binario. La mayoría de las computadoras son
digitales.
3. Híbrida
La computadora híbrida es una computadora digital que procesa
señales análogas que han sido convertidas a forma digital. Es utilizada
para control de procesos y en robótica.
4. Propósito especial
La computadora de propósito especial está dedicada a un solo
propósito o tarea. Pueden ser usadas para producir informes del
26
tiempo, monitorear desastres naturales, hacer lecturas de gasolina y
como medidor eléctrico. Ejemplo: carros de control remoto, horno
microoondas, relojes digitales, cámaras, procesador de palabras, etc.
5. Propósito general
La computadora de propósito general se programa para una variedad
de tareas o aplicaciones. Son utilizadas para realizar cálculos
matemáticos, estadísticos, contabilidad comercial, control de
inventario, nómina, preparación de inventario, etc. Ejemplo:
“mainframes” o minicomputadoras.
Categorías de las computadoras
Supercomputadora
La supercomputadora es lo máximo en computadora, es la más rápida
y, por lo tanto, la más cara. Cuesta millones de dólares y se hacen de
dos a tres al año. Procesan billones de instrucciones por segundo. Son
utilizadas para trabajos científicos, particularmente para crear modelos
matemáticos del mundo real, llamados simulación.
“Mainframe”
Los “mainframe” son computadoras grandes, ligeras, capaces de
utilizar cientos de dispositivos de entrada y salida. Procesan millones
de instrucciones por segundo.
Su velocidad operacional y capacidad de procesar hacen que los
grandes negocios, el gobierno, los bancos, las universidades, los
hospitales, compañías de seguros, líneas aéreas, etc. confién en ellas.
Su principal función es procesar grandes cantidades de datos
rápidamente.
Estos datos están accesibles a los usuarios del “mainframe” o a los
usuarios de las microcomputadoras cuyos terminales están
27
conectados al “mainframe”. Su costo fluctúa entre varios cientos de
miles de dólares hasta el millón. Requieren de un sistema especial
para controlar la temperatura y la humedad.
También requieren de un personal profesional especializado para
procesar los datos y darle el mantenimiento.
Minicomputadora
La minicomputadora se desarrolló en la década de 1960 para llevar a
cabo tareas especializadas, tales como el manejo de datos de
comunicación. Son más pequeñas, más baratas y más fáciles de
mantener e instalar que los “mainframes”.
Su costo está entre los cincuenta mil hasta varios cientos de miles.
Usadas por negocios, colegios y agencias gubernamentales. Su
mercado ha ido disminuyendo desde que surgieron las
microcomputadoras.
Microcomputadora
La microcomputadora es conocida como computadora personal o PC.
Es la más pequeña, gracias a los microprocesadores, más barata y
más popular en el mercado.
Su costo fluctúa entre varios cientos de dólares hasta varios miles de
dólares. Puede funcionar como unidad independiente o estar en red
con otras microcomputadoras o como un terminal de un “mainframe”
para expandir sus capacidades.
Puede ejecutar las mismas operaciones y usar los mismos programas
que muchas computadoras superiores, aunque en menor capacidad.
Ejemplos: MITS Altair, Macintosh, serie Apple II, IBM PC, Dell,
Compaq, Gateway, etc
28
RESEÑA HISTÓRICA de las
computadoras
Todo comenzó con máquinas destinadas a manejar números, es así
como nos remitimos a el Ábaco, inventado por los babilonios allá por el
año 1000 A.C.. Utilizado sobre todo por los chinos para la realización
de operaciones sencillas, esta formado por una tablilla con una serie
de cuentas que sirven para efectuar sumas y restas.
Justo antes de morir en 1617, el matemático escocés John Napier
(mejor conocido por su invención de logaritmos) desarrolló un juego de
palitos para calcular a las que llamó “Napier Bones.” Así llamados
porque se tallaron las ramitas de hueso o marfil, los “bones”
incorporaron el sistema logarítmico.
Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo
de la regla deslizante (cinco años más tarde) y máquinas calculadoras
subsecuentes que contaron con logaritmos.
En 1621 la primera regla deslizante fue inventada por el del
matemático inglés William Oughtred. La regla deslizante (llamó
“Círculos de Proporción”) era un juego de discos rotatorios que se
calibraron con los logaritmos de Napier.
Uno de los primeros aparatos de la informática analógica, la regla
deslizante se usó normalmente (en un orden lineal) hasta que a
comienzos de 1970, cuando calculadoras portátiles comenzaron a ser
más popular.
En 1623 la primera calculadora mecánica fue diseñada por Wilhelm
Schickard en Alemania. Llamado “El Reloj Calculador”, la máquina
incorporó los logaritmos de Napier, hacia rodar cilindros en un
albergue grande. Se comisionó un Reloj Calcualdor para Johannes
29
Kepler, el matemático famoso, pero fue destruido por fuego antes de
que se terminara.
Uno de los antepasados mas directos de la computadora actual, fue
creada por el científico francés Blaise Pasca en el siglo XVII(1642). A
sus 18 años, Pascal invento su primera maquina calculadora, capaz
de sumar y restar; y todo ello a base de engarzar múltiples ruedas
dentadas.
En 1666 la primera máquina de multiplicar se inventó por Sir Samuel
Morland, entonces Amo de mecánicas a la corte de Rey Charles II de
Inglaterra. El aparato constó de una serie de ruedas, cada
representaba, dieses, cientos, etc.
Un alfiler del acero movía los diales para ejecutar las calculaciones. A
diferencia de la Pascalina, el aparato no tenía avanzó automático de
en columnas.
Años mas tarde, en 1673, Gottfied Von Leibnitz perfecciono los
estudios de Pascal, y llego a construir una maquina que no solo
sumaba y restaba, sino que también multiplicaba, dividía e incluso
calculaba raíces cuadradas.
En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón
Empellen, un noble húngaro.
El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un
inventor de instrumentos musicales, quien recorrió Europa y los
Estados Unidos con el aparato, a finales de 1700 y temprano 1800.
Pretendió ser una máquina pura, el Autómata incluía un jugador de
ajedrez “robótico”. El Automatón era una sensación dondequiera que
iba, pero muchas comentaristas, incluso el Edgar Allen Poe famoso,
ha escrito críticas detalladas diciendo que ese era una “máquina pura.”
En cambio, generalmente, siempre se creyó que el aparato fue
30
operado por un humano oculto en el armario debajo del tablero de
ajedrez.
El Autómata se destruyó en un incendio en 1856.
Se inventó la primera máquina lógica en 1777 por Charles Mahon, el
Conde de Stanhope. El “demostrador lógico” era un aparato tamaño
bolsillo que resolvía silogismos tradicionales y preguntas elementales
de probabilidad. Mahon es el precursor de los componentes lógicos en
computadoras modernas.
En 1790 Joseph-Marie Jacquard(1572-1834) utilizo tarjetas perforadas
para controlar un telar.
El “Jacquard Loom” se inventó en 1804 por Joseph-Marie Jacquard.
Inspirado por instrumentos musicales que se programaban usando
papel agujereados, la máquina se parecía a una atadura del telar que
podría controlar automáticamente de dibujos usando una línea tarjetas
agujereadas.
La idea de Jacquard, que revolucionó el hilar de seda, estaba formar la
base de muchos aparatos de la informática e idiomas de la
programación.
La primera calculadora de producción masiva se distribuyó,
empezando en 1820, por Charles Thomas de Colmar.
Originalmente se les vendió a casas del seguro Parisienses, el
“aritmómetro” de Colmar operaba usando una variación de la rueda de
Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió
una medalla a la Exhibición Internacional en Londres en 1862.
31
GENERACIONES DE
COMPUTADORAS
Primera Generación
En esta generación había un gran desconocimiento de las
capacidades de las computadoras, puesto que se realizó un estudio en
esta época que determinó que con veinte computadoras se saturaría
el mercado de los Estados Unidos en el campo de procesamiento de
datos.
Esta generación abarco la década de los cincuenta. Y se conoce como
la primera generación. Estas máquinas tenían las siguientes
características:
Estas máquinas estaban construidas por medio de tubos de
vacío.
Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo
aproximado de ciento de miles de dólares).
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera
computadora comercial, que disponía de mil palabras de memoria
central y podían leer cintas magnéticas, se utilizó para procesar el
censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban
tarjetas perforadas, retomadas por Herman Hollerith (1860 – 1929),
quien además fundó una compañía que con el paso del tiempo se
conocería como IBM (International Bussines Machines).
32
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18
unidades entre 1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103,
que competía con la 701 en el campo científico, por lo que la IBM
desarrollo la 702, la cual presentó problemas en memoria, debido a
esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650,
de la cual se produjeron varios cientos. Esta computadora que usaba
un esquema de memoria secundaria llamado tambor magnético, que
es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de
la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709,
Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras seguían
evolucionando, se reducía su tamaño y crecía su capacidad de
procesamiento.
También en esta época se empezó a definir la forma de comunicarse
con las computadoras, que recibía el nombre de programación de
sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores.
Se programan en nuevos lenguajes llamados lenguajes de alto
nivel.
En esta generación las computadoras se reducen de tamaño y son de
menor costo. Aparecen muchas compañías y las computadoras eran
33
bastante avanzadas para su época como la serie 5000 de Burroughs y
la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas
perforadas y otras más por medio de cableado en un tablero. Los
programas eran hechos a la medida por un equipo de expertos:
analistas, diseñadores, programadores y operadores que se
manejaban como una orquesta para resolver los problemas y cálculos
solicitados por la administración.
El usuario final de la información no tenía contacto directo con las
computadoras.
Esta situación en un principio se produjo en las primeras
computadoras personales, pues se requería saberlas “programar”
(alimentarle instrucciones) para obtener resultados; por lo tanto su uso
estaba limitado a aquellos audaces pioneros que gustaran de pasar un
buen número de horas escribiendo instrucciones, “corriendo” el
programa resultante y verificando y corrigiendo los errores o bugs que
aparecieran.
Además, para no perder el “programa” resultante había que
“guardarlo” (almacenarlo) en una grabadora de astte, pues en esa
época no había discos flexibles y mucho menos discos duros para las
PC; este procedimiento podía tomar de 10 a 45 minutos, según el
programa.
El panorama se modificó totalmente con la aparición de las
computadoras personales con mejores circuitos, más memoria,
unidades de disco flexible y sobre todo con la aparición de programas
de aplicación general en donde el usuario compra el programa y se
pone a trabajar. Aparecen los programas procesadores de palabras
como el célebre Word Star, la impresionante hoja de cálculo
(spreadsheet) Visicalc y otros más que de la noche a la mañana
cambian la imagen de la PC.
34
El sortware empieza a tratar de alcanzar el paso del hardware. Pero
aquí aparece un nuevo elemento: el usuario.
Las computadoras de esta generación fueron: la Philco 212 (esta
compañía se retiró del mercado en 1964) y la UNIVAC M460, la
Control Data Corporation modelo 1604, seguida por la serie 3000, la
IBM mejoró la 709 y sacó al mercado la 7090, la National Cash
Register empezó a producir máquinas para proceso de datos de tipo
comercial, introdujo el modelo NCR 315.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación
con las computadoras en la década de los 1960, surge la tercera
generación de las computadoras. Se inaugura con la IBM 360 en abril
de 1964.3
Las características de esta generación fueron las siguientes:
Su fabricación electrónica está basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los
sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65,
67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador,
unidades de cinta de nueve canales, paquetes de discos magnéticos y
otras características que ahora son estándares (no todos los modelos
usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360, se llamó OS que contaba con
varias configuraciones, incluía un conjunto de técnicas de manejo de
memoria y del procesador que pronto se convirtieron en estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se
consideró durante algunos años como la más rápida.
35
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125,
135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110,
máquinas en gran escala; mientras que CDC produce su serie 7000
con el modelo 7600. Estas computadoras se caracterizan por ser muy
potentes y veloces.
A finales de esta década la IBM de su serie 370 produce los modelos
3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos
6500 y 6700 de avanzado diseño, que se reemplazaron por su serie
7000. Honey – Well participa con su computadora DPS con varios
modelos.
A mediados de la década de 1970, aparecen en el mercado las
computadoras de tamaño mediano, o minicomputadoras que no son
tan costosas como las grandes (llamadas también como mainframes
que significa también, gran sistema), pero disponen de gran capacidad
de procesamiento. Algunas minicomputadoras fueron las siguientes: la
PDP – 8 y la PDP – 11 de Digital Equipment Corporation, la VAX
(Virtual Address eXtended) de la misma compañía, los modelos NOVA
y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett –
Packard con varios modelos el 36 y el 34, la Wang y Honey – Well -
Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la
Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha
pasado por varias generaciones.
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran adelanto de la
microelectrónica, son circuitos integrados de alta densidad y con una
velocidad impresionante.
Las microcomputadoras con base en estos circuitos son
extremadamente pequeñas y baratas, por lo que su uso se extiende al
mercado industrial. Aquí nacen las computadoras personales que han
36
adquirido proporciones enormes y que han influido en la sociedad en
general sobre la llamada “revolución informática”.
En 1976 Steve Wozniak y Steve Jobs inventan la primera
microcomputadora de uso masivo y más tarde forman la compañía
conocida como la Apple que fue la segunda compañía más grande del
mundo, antecedida tan solo por IBM; y esta por su parte es aún de las
cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente
subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60
millones de computadoras personales, por lo que no queda duda que
su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los
sistemas que con ellas de manejan han tenido un considerable
avance, porque han hecho más interactiva la comunicación con el
usuario.
Surgen otras aplicaciones como los procesadores de palabra, las
hojas electrónicas de cálculo, paquetes gráficos, etc. También las
industrias del Software de las computadoras personales crece con
gran rapidez, Gary Kildall y William Gates se dedicaron durante años a
la creación de sistemas operativos y métodos para lograr una
utilización sencilla de las microcomputadoras (son los creadores de
CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por su puesto, las minicomputadoras
y los grandes sistemas continúan en desarrollo.
De hecho las máquinas pequeñas rebasaban por mucho la capacidad
de los grandes sistemas de 10 o 15 años antes, que requerían de
instalaciones costosas y especiales, pero sería equivocado suponer
que las grandes computadoras han desaparecido; por el contrario, su
presencia era ya ineludible en prácticamente todas las esferas de
control gubernamental, militar y de la gran industria.
37
Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM
por ejemplo, eran capaces de atender a varios cientos de millones de
operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad
industrial se ha dado a la tarea de poner también a esa altura el
desarrollo del software y los sistemas con que se manejan las
computadoras.
Surge la competencia internacional por el dominio del mercado de la
computación, en la que se perfilan dos líderes que, sin embargo, no
han podido alcanzar el nivel que se desea: la capacidad de
comunicarse con la computadora en un lenguaje más cotidiano y no a
través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado “programa de la quinta generación de
computadoras”, con los objetivos explícitos de producir máquinas con
innovaciones reales en los criterios mencionados. Y en los Estados
Unidos ya está en actividad un programa en desarrollo que persigue
objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños
especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede
esperar que esta ciencia siga siendo objeto de atención prioritaria de
gobiernos y de la sociedad en conjunto.
Hardware.
Podemos denominar al hardware como todo el conjunto físico de la
computadora, lo cual incluye el CPU (el cual contiene todas las tarjetas
38
de procesamiento, ya sean de sonidos, gráficos, módem, unidades de
discos, procesador, memoria RAM, etc.), el monitor, bocinas, escáner,
impresora, mouse, teclado, micrófono, entre otros.
El Hardware es la unión de componentes físicos capaces de realizar la
comunicación entre el usuario y el software. (De manera análoga, el
software o sistema operativo es el traductor entre la maquina y el
hombre, convirtiendo las señales digitales o análogas en lenguaje
humano).
Todo sistema de cómputo tiene componentes de hardware dedicados
a estas funciones:
1. Unidad de entrada
2. Unidad de salida
3. Unidad central de procesamiento.
4. Memoria y dispositivos de almacenamiento.
Unidad Central de Procesamiento.
Una unidad central de procesamiento (UCP) es donde ocurre el
procesamiento de datos. Se le conoce como el cerebro de la
computadora. En las microcomputadoras la CPU se encuentra en un
chip llamado microprocesador. La CPU consiste de dos componentes
básicos: unidad de control y unidad de aritmética y lógica.
Unidad de control
La función de la unidad de control es coordinar todas las actividades
de la computadora. Todos los recursos de la computadora son
administrados por la unidad de control. Esta unidad contiene las
instrucciones de la CPU para llevar a cabo comandos.
39
En resumen, la unidad de control es la que supervisa, controla las
demás partes de la computadora y regula el trabajo que debe realizar,
o sea, selecciona, verifica e interpreta las instrucciones del programa y
después verifica que se ejecuten.
Unidad de aritmética lógica – ALU
En la unidad de aritmética lógica (ALU) es donde ocurre el
procesamiento real de los datos. Se realizan todos los cálculos y todas
las comparaciones y genera los resultados.
Cuando la unidad de control encuentra una instrucción de aritmética o
de lógica, le envía el control a la unidad de aritmética lógica. La ALU
contiene una memoria construida directamente en la CPU que se usa
para guardar los datos que se están procesando por la instrucción
actual.
Unidad de entrada
Son todos los elementos que permiten la unión del usuario con la
unidad de procesamiento central y la memoria.: Entre estos tenemos.
Teclado: Dispositivos de entrada que traducen los datos a una forma
que la computadora pueda interpretar, para luego procesarlos y
almacenarlos, los hay de forma: Teclado alfanumérico y para
perfoverificación
Mouse y Joysticks: Dispositivos que convierten el movimiento físico
en señales eléctricas binarias y que la misma sea repetida en el
monitor.
Escáner o digitalizador de imágenes: Están concebidos para
interpretar caracteres, combinación de caracteres, dibujos gráficos
escritos a mano o en maquinas o impresoras y traducirlos al lenguaje
que la computadora entiende.
40
Dispositivos ópticos: entre estos tenemos, Lector de marcas o
rastreador de marca óptica, Digitalizador de imágenes (scanner),
Cámara digital:
Digitalizador de audio: entre estos tenemos, Micrófonos
Unidad de salida
Estos dispositivos permiten al usuario ver los resultados de los
cálculos o de las manipulaciones de datos de la computadora. El
dispositivo de salida más común es el monitor, impresora, módem.
Monitor: sirve como dispositivo de salida para recibir mensajes del
computador.
Impresora: seguro Una impresora permite obtener una copia dura o
física de cualquier información que pueda aparecer en pantalla. Hay
dos grupos básicos que son: impresora de Impacto y no impacto o de
página.
Módem: dispositivo que sirve para enlaza dos ordenadores
transformando las señales digitales.
Memoria
La memoria, es una de las partes mas importantes de las
computadoras. Cualquier usuario desea agregarle mas memoria a su
computadora.
Para definirla, diremos que es la capacidad de la PC en retener datos
o información de manera permanente o temporal. Memoria hay de dos
tipos, la memoria RAM y memoria ROM, a continuación se explican:
41
Tipos De Memorias.
Memoria ROM (del inglés Read Only Memory, memoria de sólo
lectura).
Es una memoria de sólo lectura, de dimensiones más pequeñas que el
microprocesador.
Si se levanta la capa protectora de los circuitos integrados, se
encuentra información sobre el tipo de memoria ROM, y el tamaño
máximo de información que puede contener. La ROM BIOS (Basic
Input/Output System, sistema básico de entrada/salida) traduce todas
las órdenes a código máquina, para que la computadora pueda
entenderlas.
Dispositivo de almacenamiento
Es todo aparato que se utilice para grabar los datos de la computadora
de forma permanente o temporal. Una unidad de disco, junto con los
discos que graba, es un dispositivo de almacenamiento. A veces se
dice que una computadora tiene dispositivos de almacenamiento
primarios (o principales) y secundarios (o auxiliares).
Cuando se hace esta distinción, el dispositivo de almacenamiento
primario es la memoria de acceso aleatorio (RAM) de la computadora,
un dispositivo de almacenamiento permanente pero cuyo contenido es
temporal. El almacenamiento secundario incluye los dispositivos de
almacenamiento más permanentes, como unidades de disco y de
cinta.
SOFTWARE
El Software es un conjunto de programas, documentos,
procedimientos, y rutinas asociadas con la operación de un sistema de
42
cómputo. Distinguiéndose de los componentes físicos llamados
hardware.
Comúnmente a los programas de computación se les llama software;
el software asegura que el programa o sistema cumpla por completo
con sus objetivos, opera con eficiencia, esta adecuadamente
documentado, y suficientemente sencillo de operar. Es simplemente el
conjunto de instrucciones individuales que se le proporciona al
microprocesador para que pueda procesar los datos y generar los
resultados esperados. El hardware por sí solo no puede hacer nada,
pues es necesario que exista el software, que es el conjunto de
instrucciones que hacen funcionar al hardware.
Sistema Operativo
Un Sistema Operativo es un programa que actúa como intermediario
entre el usuario y el hardware de un computador y su propósito es
proporcionar un entorno en el cual el usuario pueda ejecutar
programas.
El objetivo principal de un Sistema Operativo es, entonces, lograr que
el Sistema de computación se use de manera cómoda, y el objetivo
secundario es que el hardware del computador se emplee de manera
eficiente.
Tipos de Sistemas Operativos.
Actualmente los sistemas operativos se clasifican en tres
clasificaciones: sistemas operativos por su estructura (visión interna),
sistemas operativos por los servicios que ofrecen y sistemas
operativos por la forma en que ofrecen sus servicios (visión externa).
Sistemas Operativos por Servicios (Visión Externa).
43
Esta clasificación es la más comúnmente usada y conocida desde el
punto de vista del usuario final.
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un
usuario a la vez, sin importar el número de procesadores que tenga la
computadora o el número de procesos o tareas que el usuario pueda
ejecutar en un mismo instante de tiempo. Las computadoras
personales típicamente se han clasificado en este renglón.
En otras palabras los sistemas monousuarios son aquellos que nada
más puede atender a un solo usuario, gracias a las limitaciones
creadas por el hardware, los programas o el tipo de aplicación que se
este ejecutando.
Sistema Operativo Multiusuario.
Los sistemas operativos multiusuarios son capaces de dar servicio a
más de un usuario a la vez, ya sea por medio de varias terminales
conectadas a la computadora o por medio de sesiones remotas en una
red de comunicaciones. No importa el número de procesadores en la
máquina ni el número de procesos que cada usuario puede ejecutar
simultáneamente.
En esta categoría se encuentran todos los sistemas que cumplen
simultáneamente las necesidades de dos o más usuarios, que
comparten mismos recursos. Este tipo de sistemas se emplean
especialmente en redes. En otras palabras consiste en el
fraccionamiento del tiempo (timesharing).
Por el Número de Tareas:
Sistema Operativo Monotarea.
44
Los sistemas monotarea son aquellos que sólo permiten una tarea a la
vez por usuario. Puede darse el caso de un sistema multiusuario y
monotarea, en el cual se admiten varios usuarios al mismo tiempo
pero cada uno de ellos puede estar haciendo solo una tarea a la vez.
Los sistemas operativos monotareas son más primitivos y, solo
pueden manejar un proceso en cada momento o que solo puede
ejecutar las tareas de una en una.
Sistema Operativo Multitarea.
Un sistema operativo multitarea es aquél que le permite al usuario
estar realizando varias labores al mismo tiempo.
Es el modo de funcionamiento disponible en algunos sistemas
operativos, mediante el cual una computadora procesa varias tareas al
mismo tiempo.
Existen varios tipos de multitareas. La conmutación de contextos
(context Switching) es un tipo muy simple de multitarea en el que dos
o más aplicaciones se cargan al mismo tiempo, pero en el que solo se
esta procesando la aplicación que se encuentra en primer plano (la
que ve el usuario.
En la multitarea cooperativa, la que se utiliza en el sistema operativo
Macintosh, las tareas en segundo plano reciben tiempo de procesado
durante los tiempos muertos de la tarea que se encuentra en primer
plano, y siempre que esta aplicación lo permita.
En los sistemas multitarea de tiempo compartido, como OS/2, cada
tarea recibe la atención del microprocesador durante una fracción de
segundo.
Un sistema operativo multitarea puede estar editando el código fuente
de un programa durante su depuración mientras compila otro
programa, a la vez que está recibiendo correo electrónico en un
proceso en background.
45
Es común encontrar en ellos interfaces gráficas orientadas al uso de
menús y el ratón, lo cual permite un rápido intercambio entre las tareas
para el usuario, mejorando su productividad.
Un sistema operativo multitarea se distingue por su capacidad para
soportar la ejecución concurrente de dos o más procesos activos. La
multitarea se implementa generalmente manteniendo el código y los
datos de varios procesos simultáneamente en memoria y
multiplexando el procesador y los dispositivos de E/S entre ellos.
La multitarea suele asociarse con soporte hardware y software para
protección de memoria con el fin de evitar que procesos corrompan el
espacio de direcciones y el comportamiento de otros procesos
residentes.
Por el Número de Procesadores:
Sistema Operativo de Uniproceso.
Un sistema operativo uniproceso es aquél que es capaz de manejar
solamente un procesador de la computadora, de manera que si la
computadora tuviese más de uno le sería inútil. El ejemplo más típico
de este tipo de sistemas es el DOS y MacOS.
Sistema Operativo de Multiproceso.
Un sistema operativo multiproceso se refiere al número de
procesadores del sistema, que es más de uno y éste es capaz de
usarlos todos para distribuir su carga de trabajo. Generalmente estos
sistemas trabajan de dos formas: simétrica o asimétricamente.
Asimétrica.
Cuando se trabaja de manera asimétrica, el sistema operativo
selecciona a uno de los procesadores el cual jugará el papel de
procesador maestro y servirá como pivote para distribuir la carga a los
demás procesadores, que reciben el nombre de esclavos.
46
Simétrica.
Cuando se trabaja de manera simétrica, los procesos o partes de ellos
(threads) son enviados indistintamente a cual quiera de los
procesadores disponibles, teniendo, teóricamente, una mejor
distribución y equilibrio en la carga de trabajo bajo este esquema.
Se dice que un thread es la parte activa en memoria y corriendo de un
proceso, lo cual puede consistir de un área de memoria, un conjunto
de registros con valores específicos, la pila y otros valores de
contexto.
Un aspecto importante a considerar en estos sistemas es la forma de
crear aplicaciones para aprovechar los varios procesadores.
Existen aplicaciones que fueron hechas para correr en sistemas
monoproceso que no toman ninguna ventaja a menos que el sistema
operativo o el compilador detecte secciones de código paralelizable,
los cuales son ejecutados al mismo tiempo en procesadores
diferentes.
Por otro lado, el programador puede modificar sus algoritmos y
aprovechar por sí mismo esta facilidad, pero esta última opción las
más de las veces es costosa en horas hombre y muy tediosa,
obligando al programador a ocupar tanto o más tiempo a la
paralelización que a elaborar el algoritmo inicial.
Sistemas Operativos por su Estructura (Visión Interna).
Según, se deben observar dos tipos de requisitos cuando se construye
un sistema operativo, los cuales son:
Requisitos de usuario: Sistema fácil de usar y de aprender, seguro,
rápido y adecuado al uso al que se le quiere destinar.
47
Requisitos del software: Donde se engloban aspectos como el
mantenimiento, forma de operación, restricciones de uso, eficiencia,
tolerancia frente a los errores y flexibilidad.
A continuación se describen las distintas estructuras que presentan los
actuales sistemas operativos para satisfacer las necesidades que de
ellos se quieren obtener.
Estructura Monolítica. Es la estructura de los primeros sistemas
operativos constituidos fundamentalmente por un solo programa
compuesto de un conjunto de rutinas entrelazadas de tal forma que
cada una puede llamar a cualquier otra. Las características
fundamentales de este tipo de estructura son:
Construcción del programa final a base de módulos compilados
separadamente que se unen a través del ligador.
Buena definición de parámetros de enlace entre las distintas
rutinas existentes, que puede provocar mucho acoplamiento.
Carecen de protecciones y privilegios al entrar a rutinas que
manejan diferentes aspectos de los recursos de la computadora,
como memoria, disco, etc.
Internet
Internet es una red informática, realmente se trata de un conjunto de
ordenadores conectados entre sí intercambiándose información.
El rápido y ascendente crecimiento de Internet ha conseguido que esta
red haya pasado a llamarse “La Red” o “la red de redes”, debido a la
existencia de ordenadores conectados a la misma en todo el mundo.
La principal diferencia entre Internet y cualquier otra red informática
reside en que esta no pertenece a ningún país, ni organismo oficial, ni
a una empresa determinada, es decir, se trata de una red libre ya que
cualquier persona puede acceder a ella desde cualquier punto del
48
planeta, de la misma forma que no existe ningún tipo de restricción
para toda la información que circula por la misma.
Solamente existen unos organismos internacionales repartidos por
todo el mundo y organizados de forma jerárquica. Estos organismos
no tienen ningún afán de lucro, y son los encargados de regular el
crecimiento de Internet y garantizar el buen funcionamiento de la Red.
Probablemente la característica más llamativa de Internet es que
puede tener acceso a cualquier parte del mundo por el precio de una
llamada local, es decir, la distancia de la misma no es proporcional al
coste de la comunicación establecida, esto es debido a que a que
cada tramo de red se gestiona sus propios gastos y no son
repercutidos directamente al usuario.
Comercio Electrónico
El comercio electrónico se puede definir, en un sentido amplio, como
cualquier forma de transacción o intercambio de información comercial
basada en la transmisión de datos sobre redes de comunicación como
Internet.
En este sentido, el concepto de comercio electrónico no sólo incluye la
compra y venta electrónica de bienes, información o servicios, sino
también el uso de la Red para actividades anteriores o posteriores a la
venta, como son:
Publicidad
Búsqueda de información sobre productos, proveedores, etc.
Negociación entre comprador y vendedor sobre precio,
condiciones de entrega, etc.
Atención al cliente antes y después de la venta
Dar cumplimiento a trámites administrativos relacionados con la
actividad comercial
49
Colaboración entre empresas con negocios comunes (a largo plazo o
sólo de forma coyuntural) Estas actividades no tienen necesariamente
que estar presentes en todos los escenarios de comercio electrónico.
– En el comercio electrónico participa como actores principales las
empresas, los consumidores y las administraciones públicas.
Así se distinguen normalmente tres tipos básicos de comercio
electrónico.
Entre empresas o B2B (business to business)
Entre empresa y consumidor o B2C (business to consumers)
Entre empresa y administración o B2A (business to
administrations)
– Las empresas intervienen como usuarias (compradoras o
vendedoras) y como proveedoras de herramientas o servicios de
soporte para el comercio electrónico: proveedores de servicios de
certificación de claves públicas, instituciones financieras, etc.
Por su parte, las administraciones públicas, actúan como agentes
reguladores y promotores del comercio electrónico y como usuarias
del mismo (por ejemplo en los procedimientos de contratación pública
o de compras por la Administración).
– En un sentido amplio, los consumidores participarían en dos formas
adicionales de comercio electrónico además del B2C: por una parte, el
comercio electrónico directo entre consumidores (venta directa entre
particulares) y, por otra, las transacciones económicas entre
ciudadano y administración (pago de prestaciones sociales, pago de
impuestos, etc.)
– La mención a Internet en la definición que abre esta sección se
justifica porque, si bien las actividades de comercio electrónico entre
50
empresas, por ejemplo mediante los sistemas de Intercambio
Electrónico de Documentos, existen desde hace más de una década y
son anteriores al uso comercial de Internet, ha sido esta apertura al
uso comercial de Internet y, en particular, el desarrollo de la World
Wide Web el elemento clave que ha hecho posible al comercio
electrónico llegar al consumidor final y, en definitiva, ha provocado el
actual crecimiento explosivo del comercio electrónico en todas sus
formas.
51
Conclusión:
La Historia de la Informática y el internet durante su evolución se ha
convertido en un fenómeno global que a través del tiempo se ha
hecho más viral.
La ciencia de la informática (popularmente llamada como
computación) se divide en diversas ramas como la programación, la
arquitectura de redes y computadoras, electricidad y electrónica,
inteligencia artificial (entre otras).
La Historia de la Informática se divide en cinco generaciones, la cual
ha llevado a los avances en la tecnología que conocemos
actualmente, además de un desarrollo de muchos de los
dispositivos informáticos que usamos hoy en día.
52
Bibliografia:
https://www.bbvaopenmind.com/articulos/historia-de-la-informatica/
https://www.caracteristicas.co/informatica/
http://conocelahistoria.com/c-tecnologia/historia-de-la-informatica/
https://sites.google.com/site/misitiowebpahp/la-
informatica/caracteristicas
https://www.google.com/search?ei=OxbGXJDqBoPAsAXP74jQBQ&q=la+i
nformatica+y+su+evolucion&oq=la+informatica+y&gs_l=psy-
ab.1.7.35i39j0l9.36715.36715..41343...0.0..0.199.199.0j1......0....1..gws-
wiz.......0i71.i7BkL92zYeo
http://camilitacoral.blogspot.com/
https://nawowgonzalez.wordpress.com/bimestre-2/tareas/evolucion-de-la-informatica/
https://www.bbvaopenmind.com/articulos/historia-de-la-informatica/
53
Anexos: