Post on 22-Mar-2016
description
Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la
técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología.
Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el
fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un
microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos
son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de
la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha
permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de
nano escala como la materia programable.
Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.
El arte de la
computadora
muestra un nano
tubo convertido en
anillo. La Nano-
litografía es un
método usado para
crear tableros de
circuitos
El poder de la información
Nanotubos de Carbono (1991)
En 1991 el físico Japonés Sumio Lijuma
descubrió los nanotubos de carbono,
considerado uno de los más importantes
descubrimientos en la historia de los físicos.
Los nanotubos pueden ser construidos por
un método de evaporación en arco, en el
cual una corriente de 50 amp pasa en
medio de dos electrodos de grafito en
helio. Los resultados son notables a la
medida de 3 a 30 nanómetros en diámetro.
Una de la más impresionante propiedad de
los nanotubos de carbono es su fuerza. Su
resistencia a la presión es 5 veces que la del
metal, y su fuerza de tensión está 50 veces
arriba que la del metal. Los nanotubos de
carbono pueden ser también usados como
semiconductores. Algo de la conductividad
de los nanotubos es más grande que la del
cobre, por ejemplo.
Científicos e ingenieros están buscando
maneras de usar los nanotubos en la
construcción industrial tanto como en
aplicaciones aeroespaciales.
Hoy en día, las pantallas de paneles planos
y algunos microscopios y aparatos sensibles
incorporan nanotubos de carbono. En el
futuro muchos artículos diarios desde los
chips de las computadoras de los hogares
hasta las baterías de los autos podrían ser
hechos de nanotubos de carbono.
Los nanotubos
de carbono
están hechos
WORLD WIDE WEB (1990)
El ancho mundo de la web a cambiado vidas
desde siempre conectando computadoras a
través del mundo, de esta manera haciendo
toda la información y su contenido al alcance
para todos. Además el termino ancho mundo
de la web e internet son usados como
intercambiables, pero no son lo mismo. El
internet es el sistema que conecta las redes de
información esa es la red. Es posible tener
internet sin la red pero la red no puede existir
sin el internet.
El internet empezó en 1962 como ARPANET,
una red de dos computadoras adquiridas por el
ejército de estados unidos. La red creció con
más de un millón de computadoras para 1992.
En 1990 el científico británico Tim Berners –lee
invento la web, eso es el primer buscador de
web y páginas web con el cual accedes vía
internet, páginas web con hipertexto- texto
desplazado en un monitor con hiperconectores
a otros documentos- en un monitor.
Un mapa global
de la internet
mostro una red
extensa para la
búsqueda de
hoy
4 BUCKYBALL (1985)
A principios de 1965 científicos predijeron la
teoría existente de una molécula hecha de
múltiples átomos de carbón en forma de esfera
o cilindro. Pero 20 años más tarde Richard
Smalley y otros profesores de Houston, Texas y
profesores de Sussex, Inglaterra se centraron en
el láser, ellos generaron imitando
simétricamente y geométricamente, en esta
notable semejanza hicieron construcciones de
ángulos. El arquitecto R. Buckminster llamo al
nuevo kminsterfullerene o buchyball para
acortarlo. El recibió el premio novel en 1996.
Cada fullerene tenía tecnología implicada en
moléculas. Análisis de buckyball hiso entender
la manipulación de hojas conductoras de calor y
materiales de silicón basado en dispositivos
como computadoras, celulares y eléctricos
similares.
El material también exhibe increíble resistencia
a la tracción así prometiendo nuevas
posibilidades en arquitectura, ingeniería y
diseños de avión.
En 1991 un investigador japonés Sumio Lijima
descubrió un oblond versión de el buckyball
últimamente llamado nanotubo, estimulando la
revolución de la nanotecnología del siglo 21
5 Sistema Posicionamiento Global
(1978)
Localizado 12000 millas Tierra morada y
viajando a una velocidad 7.000 millas por hora, el sistema de navegación basado en satélite fue lanzado en 1978 por el Departamento de EE.UU. de Dfense con fines militares. Poco después, los manofactures de equipos GPS reconocido su potencial de mercado masivo para su uso como una aplicación civil. El departamento de Defensa cumplido con su solicitud en la década de 1980. GPS, que es extremadamente preciso, funciona según el principio de triangulación, en la que la posición de un objeto determinado (una persona en un coche, por ejemplo) está determinada por la distancia del objeto desde cuatro satélites de la red con un dispositivo está
comunicando. La red GPS se compone de 24 satélites, con 3 de reserva en caso de fracaso, y cada satélite realiza dos vueltas completas alrededor del planeta cada día. Entonces, ¿qué significa el futuro del GPS parece? Sin duda, la red son cada vez más
precisos y proporcionar información cada vez más de grano fino a en un lugar determinado. Los conductores todavía tienen que quitar los ojos del camino para mirar el dispositivo GPS, pero que mi cambio. Una compañía llamada Haciendo Solida Virtual está trabajando en una solución llamada Virtual Cable, el cual está diseñado para ser construido en el parabrisas de un coche. La línea roja que aparece a seguir el guía del conductor de su destino.
LACOMPUTADORA PERSONAL (1997)
De acuerdo a la compañía Nielsen, en 2008,
más del 80 por ciento de las familias de E.U
tenían una computadora en casa, y de estas,
cerca del 90 por ciento tenían acceso a
internet. Ya sea uno de los primeros modelos –
como el Commodore PET (Muy popular en las
escuelas en la década de 1970). La Apple II
(Uno de los primeros microcomputadores de
producción masiva) y la IBM PC (Diseñada para
reemplazar los primeros dos dispositivos en los
hogares)- O lo ultimo y lo mejor en maquinas,
todas las computadoras tienen los mismos
componentes básicos. Una computadora está
construida con una tarjeta madre (Mother
Board), un procesador, una unidad central d
procesamiento (CPU), memoria, controladores,
un ventilador y cables. Agregados a la
computadora están los periféricos: el ratón,
teclado, monitos, bocinas, impresora, escáner y
más. Estos componentes trabajan juntos para
correr software: el sistema operativo y
programas adicionales, tales como el
procesador de textos, las hojas de cálculo, o un
programa editor de fotografías.
Con la computadora personal, la tecnología de
la computación ha llegado a estar disponible al
público en general. Las computadoras han
dejado de ser grandes, o piezas de equipos
demasiado costosos solo grandes corporaciones
o agencias gubernamentales pueden pagar o
computadoras que solo los científicos pudieran
operar. Este significante desarrollo ha permitido
el nacimiento de nuevas industrias, ha
cambiado el cómo la gente se comunica e
irrevocablemente ha alterado su trabajo y vidas
personales.
6
A diferencia de la realidad virtual, cual está basado
en un ambiente generado por computadora, el
aumento de realidad está diseñado para aumentar el
mundo real, con la súper presentación en audio,
visual, y otros elementos de tus sentidos.
El investigador de Boeing Tom Caulled fue el primero
en acuñar el término de aumento de realidad en
1990 para describir la explosióndigitalusada por los
electricistas de las aerolíneas, cual combina graficas
virtuales con la realidad física. Pero el concepto es
mucho más antiguo que eso. En la película Quien
engaño al conejo Roger de 1988, es un buen ejemplo
de esta tecnología- y originalmente antes en una
versión simple en las demostraciones de las flechas
amarillas de los anunciadores de la televisión en los
juego de futbol americano cuando analizaban las
jugadas.
El aumento de realidad actualmente está dirigido al
desarrollo de consumo de electrónicos porque esta
es usada en las aplicaciones the Smartphone. Una
aplicación llamada Layar usa la cámara de un celular
y las capacidades de un GPS para obtener la
información de los alrededores de una área. Layar
entonces muestra la información de ciertos sitios
cercanos, como restaurantes o cines, entonces
aparece información de estos en la pantalla del
celular. Apunta el celular hacia unaedificación y Layr
te dirá si en esaedificaciónestán contratando o
localiza edificios históricos en la enciclopedia en
línea Wikipedia.
Hay algunas limitaciones para el aumento de
realidad que actualmente existen; el sistema GPS
tiene solo un rango de 30 pasos, las pantallas de
celular son pequeñas, y haytambién unos
entendimientos en las cláusulas de privacidad,
especialmente la tecnología afecta más y más
nuestras vidas. Sin embargo, el futuro de estas
tecnologías es brillante, con ambición pronto será
usado para los videos juegos, la educación,
seguridad, medicina, negocios y otras áreas.
AUMENTO DE REALIDAD
Aprende más
Como subtítulos en una página, realmente
puede proporcionar antecedentes y
explicaciones, tales como una biografía
del arquitecto Frank Gehry cuando visitó
sus edificios firmados.
Oriente y navegar
Los sistemas de posición global
permite marcar geográficamente la
ubicación de las personas notifica en
momentos y luego los alrededores de
las parcelas y los senderos.
Haz decisiones
Considera opciones y haz decisiones
virtualmente. Aquí, galerías son
representadas por imágenes de
museos conservados, como Richard
Serra’s “La materia del tiempo”.
(Illustrado)
Usa un teléfono
inteligente para
visualizar entradas
conectadas a un
lugar actual, tales
como el museo
Guggenheim
Bilbao, y puedes
descargar
información.
ELECTRONICA MOLECULAR
(1974)
Como su nombre implica, la electronica
molecular se refiere al uso molecular de
componentes para la construccion de
dispositvos electronicos. Desde que los
quimicos, Mark Ratner and Ari Aviram
crearon el primer
dispositivo electrónico molecular
rectificado en 1974, los cuales se
convirtieron de corriente alterna a
corriente directa. Los científicos tuvieron
que continuar en avanzar juntos y
entender de la ciencia y sus
aplicaciones potenciales. Muchos
investigadores han trabajo para
reemplazar semiconductores en todas
sus aplicaciones con los interruptores
moleculares electrónicos
Algunas compañías están preparadas
para insertar interruptores en las
computadoras y en dispositivos
electrónicos manufacturados. Un
ejemplo es en Huntsville, Alabama
basada en la compañía llamada
CALMEC el cual ha creado un
dispositivo molecular, este dispositivo
puede ser usado en semiconductores
electrónicos el cual permiten que sea
monitorizada a tecnología más de lo
que es en día.
El metal oro es
depositado en agua para
formar circuitos
electrónicos para los
dispositivos mecánicos
micro electrónicos
(MEM).
Teléfonos celulares (1973)
s difícil decir qué es más omnipresente en
el mundo de hoy ordenador personal o el
teléfono celular, que fue inventado en
1973 por Martin Cooper cuando era el
director de investigación y desarrollo de
Motorola.
Una célula es en realidad una radio si bien
de manera muy sofisticada. se trata de un
dispositivo de full-duplex significa que dos
frecuencias diferentes se utilizan para
hablar y escuchar. Las Comunicaciones se
produce en los canales de los que se
cuenta en medio de celda de teléfono más
que 1650 en un teléfono celular típico
Netwok un vehículo que proporciona el
servicio de teléfono móvil se le asigna
frecuencias 800 se dividen intohexagonal
unidades llamadas células cada célula
contiene alrededor de diez millas
cuadradas. Cada célula de su propia
estación base y la torre. Tanto los teléfonos
celulares y las torres celulares tienen
transmisores de baja potencia en los
mismos.
el teléfono y la torre utilizar una frecuencia
especial para comunicarse entre sí (si esta
frecuencia no se puede encontrar un "fuera
de rango" o "no servicio" mensaje aparece
en la pantalla del teléfono) como una
persona que llama utiliza el teléfono y
películas desde un célula a otra, la
frecuencia se pasa de una célula a la
siguiente. el portador mantiene la
frecuencia necesaria para comunicarse con
la persona en el otro extremo y controla
continuamente la intensidad de la señal. si
la persona que llama se mueve de una red
de transportistas de otro, la llamada no será
dado de baja de la mandíbula, pero las
personas que llaman pueden dejar que se
vean las tarifas de itinerancia en su factura.
Los primeros celulares tenían una primera
celda voluminosa y tenía antenas Los
primeros teléfonos móviles eran
voluminosos y tenían antenas (a la
izquierda).
E
10
Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que comenzócomo una colaboración entre academia, gobierno e industria en los últimos años de los 60´s y losprimeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura. El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete deswitch”, que contiene la información en unidades especialmente formateadas o paquetes, que estándirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete contiene lainformación de la dirección que identifica al remitente y al destinatario. Usando estas direcciones, la red el trabajo y los enrutadores determinan la mejor manera de transferir el paquete entre ambos puntos enel camino para su llegada. En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de red
de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este concepto,diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran, y la red detrabajo funciona junta a través de esta arquitectura. De esta manera, las redes de trabajo actúan demanera semejante en una unión que ofrece un servicio de principio a fin. Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet oTCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como elsistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o documento enpaquetes más pequeños que son transmitidos a través del Internet y el IP lee la dirección de cadapaquete de manera que obtiene el correcto destino. Cada computadora en la red checa esta direcciónpara determinar de donde es el mensaje.
<<HECHO: Se estima que arriba de 2 billones de personas en el mundo
ingresaron a Internet en el 2011.
Un mapa del uso
del Internet muestra la
densidad de
conexiones en Norte
América y Europa.
Por el año 1959 el objetivo de crear dispositivos más inteligentes estaba en las mentes de científicos y investigadores, y ellos hicieron algunos progresos. Por ejemplo, inventores desarrollaron motores que eran sobre el tamaño de un dedo. Richard Feynman, profesor de física del instituto de tecnología de california , ambicionaba en extremo hacer grandes avances. En la noche del 29 de diciembre de 1959, el dio su nuevo famoso discurso de nanotecnología en el evento para la sociedad de físicos americanos. En su discurso, titulado “hayun montón de espacio en la parte inferior”el describió la habilidad para escribir la enciclopedia británica entera en la cabeza de un código usando herramientas y maquinas del tamaño de un átomo. La visión de nanotecnología de Feynman consideraba que tiene muchas aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada célula viva de un organismo contenía toda la información genética necesaria para crear ese organismo. Esta fue la evidencia de la que almaceno más cantidades de información por minuto de objetos como fuera posible.
EL PODER DE LA INFORMACION
NANOTECNOLOGIA (1959)
Los vidrios resistentes al fuego contienen una capa de
nanopartículas de sílice con paneles que ayudan a resistir
temperaturas de hasta 1800° F. por más de 2 horas.
Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy endía, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo.Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntospara regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integradostienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo “n” trabaje y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo eslento e inefectivo. En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron esteproblema usando el mismo material para instruir ambos, el circuito integrado y el chipcolocado.
Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estoscircuitos pueden ser hechos más pequeños y el proceso manual puede ser automático.(Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci originaltenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique den adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones detransistores.) En 1961 el primer circuito integrado comercialmente disponibles fue integrado fueintroducido y los productores de computadoras inmediatamente vieron la ventaja queofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cualtomo un CI un paso adelante para posicionar la unidad de proceso central de lacomputadora memoria y controles de entada y salida con un pequeño chip.
<< HECHO: La invencion de los semiconductores en 1911 allanaron
el camino para el desarrollo de los circuito
CIRCUITOS INTEGRADOS (1958)
En el pasado, la computadora era tomada en una infraestructura física: rutas, enlace de datos, hardware y servidores. Estos objetos aun no desaparecen- y no parece que vayan a desaparecer al mismo tiempo- pero el proceso de entrega de fuentes y servicios se transforma en un modelo en donde el internet es usado para almacenar las aplicaciones necesarias. Un inmediato beneficio de este modelo es un costo menos elevado. Por ejemplo, las compañías no comprarían licencias de software individual a cada empleado. Con ´´nubes de informática´´, una simple aplicación daría a múltiples usuarios un acceso remoto a software. La dirección de un servidor, como Gmail de google, es un ejemplo de computación en las nubes. Para entender el concepto de computación en las nubes, ayuda a pensar en los términos de las capas. Los principios de un proceso que es visto e interactuado por los usuarios con- la cuenta de Facebook, por ejemplo. El final de un proceso consiste en la arquitectura de que corre la interface del software y el hardware hacia el primer proceso. Porque las computadoras son establecidas en una red, las aplicaciones pueden tomar ventaja de todas las combinaciones de cableado como si estuvieran conectadas a una maquina en particular. Mientras hay ventajas de este modelo, no existe sin inconvenientes. Privacidad y seguridad son dos de
las más grandes preocupaciones. Después de todo, la compañía permite importante, datos potentemente sensibles que están en línea, donde en teoría, nadie puede accesar a ellos. Las compañías que proveen servicios de ‘’ nubes de informática’’, sin embargo, son altamente motivadas para garantizar su privacidad y seguridad- su reputación está estancada. Una autenticación del sistema de seudónimos y contraseñas u otras autorizaciones para los empleados ayudaría a asegurar la privacidad. · 3 las aplicaciones de computación en las nubes, por definición, en las redes de todo el mundo. · 6 la computadora personal es el significado por el cual la mayoría de gente accesa a la nube. · 8 la clave pública criptográfica enlaza el cifrado electrónico transmitido para la información privada. · 11 el internet es la fundación de computación en las nubes que permite a los usuarios a correr aplicaciones en otras computadoras tanto como en casa.
NUBES DE
INFORMATICA Visitar sitios web de
medios sociales tales
como Facebook,
Twiter, Flickr, o el
disparo de National
Geographic (en la
imagen) y puedas
entrar en la nube.
·
15 Teoria de la Informacion (1948)
eoría de la información tiene su origen en un documento de 1948 por el ingeniero americano matemático Claude Shannon: "La teoría matemática de comunicación esta
teoría permite que la información en un mensaje a ser cuantificados, usando como bits de datos que representan uno de dos estados: Dentro o fuera de. También dicta cómo codificar y transmitir información en la presencia de "ruido". Genérale puede corromper un mensaje en el camino. en el oído de la teoría de Shannon es el concepto de incertidumbre. La mayor incertidumbre que hay con respecto a lo que es la señal. La más vista de información tiene la obligación de asegurarse de que la información esencial se transmite. Shannon llamó a esta incertidumbre-medida basada entro de información. Que matemáticamente probado que una señal puede ser codificado-reducido a su forma más simple. Eliminando de este modo la interferencia o ruido para transmitir un mensaje claro y sólo el mensaje. Aunque hay siempre una posibilidad de error en transmisión, la aplicación de la teoría de la información ampliamente minimiza esa posibilidad. A través de teoría de la codificación, una rama
importante de la teoría de la información, los
ingenieros de estudiar las propiedades de los
códigos para el diseño eficiente propósito de,
por datos fiables la eliminación de redundancia
y los errores en los datos transmitidos. Tiene
dos características principales.
Codificación de fuente es un intento para
comprimir los datos de una fuente con el fin de
transmitir los datos de forma más eficiente en
una fuente con el fin de transmisión de los datos
de manera más eficiente (si alguna vez ha
"comprimido" en un archivo para enviar a
alguien). Codificación de canal añade bits de
datos extra para hacer la transmisión de datos
más resistentes a las perturbaciones presentes
en el canal de transmisión.
>>HECHO, la teoría de la información se desarrolló a
partir de Shannon deseo de aclarar el "ruido" en las
conversaciones telefónica
T
EL PODER DE LA INFORMACION
TRANSISTOR (1947) Transistor es un tipo de semiconductor, sin que módem dispositivos electrónicos -.
Incluyendo ordenadores-no podría funcionar Aunque hay varios tipos diferentes de
transistores, todos contienen una pieza sólida de material semiconductor, con al menos
terminales que se pueden conectar a un dispositivo externo transferencias circuito.
Actuales de la tecnología a través de un material que normalmente tiene una
resistencia alta (en otras palabras, una resistencia): por lo tanto, es una resistencia de
transferencia, acortado a transistor.
Antes de la introducción del transistor, los ordenadores operados por medio de tubos
de vacío, que eran voluminosos y caros para producir. Los ordenadores más potentes
contenían miles de ellos, por lo que los primeros ordenadores llena habitaciones
enteras. estadounidenses John Bardeen y Walter Brattain en los Laboratorios Bell
observó que cuando los
contactos eléctricos se aplicaron a un cristal de germanio, la energía generada fue
mayor que la potencia utilizada. Americano William Shockley, también físico, vio el
potencial en esto, y en los meses el equipo ha trabajado para ampliar su conocimiento
de los semiconductores, en 1956, los tres hombres ganó el premio Nobel de Física por
la invención del transistor.
¿Por qué es tan importante el transistor a la electrónica moderna? entre otros
beneficios, que pueden ser producidos en masa usando un proceso altamente
automatizado para una adición cost.in relativamente bajo. Transistores se puede
producir por separado o, más comúnmente, empaquetado en circuitos integrados con
otra componentes para producir circuitos electrónicos completos.
16
EL PODER DE LA INFORMACION
Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur C. Clarke hizo una contribución significante a las tecnologías de la comunicación. En octubre de el esquematizó su concepto de satélites de comunicación geoestacionario en un documento titulado “Relevancia Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el primero en popularizarla. El término geoestacionario se refierea la posición de la órbita del satélite alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten regularmente a través de puntos específicos. Cuando esa orbita regular yace cerca del Ecuador y es circular, es llamado: geoestacionario Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en sus orbitas. Las antenas no enviadas son más baratas que las antenas enviadas, así que el costo de operación
como un sistema, son reducidos. Las desventajas: Porque los satélites están tan altos, las señales de radio tardan un poco para ser recibidas y transmitidas, resultando en un pequeño pero significante retraso. En adición, estos satélites tienen cobertura geográfica incompleta porque las estaciones terrestres a mayor una mayor altura más o menos 60º de latitud tienen dificultad …..a elevaciones bajas. Independientemente de las desventajas, no se puede negar que las comunicaciones satelitales han revolucionado áreas como las comunicaciones globales, radiodifusión televisiva y predicciones de clima, y tienen defensa importante y aplicaciones de inteligenci
SATELITES DE COMUNICACIÓN (1945)
PODER DE LA INFORMACION
EL PODER DE LA INFORMACIÓN
18 Radio Ondas (1888)
l físico escocés James Clerk
Maxwell fue uno de los primeros en
scientissts especulan sobre la
naturaleza del electromagnetismo.
Las ecuaciones que formuló describir el
comportamiento de los campos eléctricos y
magnéticos, así como sus interacciones
con la materia. Maxwell teoría de que los
viajes campos eléctrico y magnético a
través espacio vacío, en el de las olas, a
una velocidad constante. También propuso
que las ondas de luz y las ondas de radio
son dos formas de radiación
electromagnética.
En 1888, el alemán Heinrich Hertz pysicist
se convirtió en la primera persona de
demostrar la teoría de Maxwell ¨ s
satisfactoriamente cuando demostró la
existencia de ondas de radio, Hertz hizo
esto bulding un dispositivo capaz de
detectar muy alta frecuencia y ondas de
radiofrecuencia iltrahigh. Ha publicado sus
trabajos en un libro titulado
Ondas eléctricas: ser investigaciones sobre
la propagación de la acción eléctrica con
velocidad finita a través del espacio.
Estos experimentos ampliado
considerablemente el campo de la
transmisión electromagnética, y otros
científicos en el campo futher
eventualmente desarrolló la antena
receptora Hertz.
hertz también encontraron que las ondas
de radio podría ser transmitido throungh
diferentes tipos de materiales ans se
reflejaron por otros. Este descubrimiento en
última instancia condujo a la invención del
radar. Su incluso allanó el camino para la
comunicación inalámbrica, aunque él nunca
reconoció ese importante aspecto de sus
experimentos.
En reconocimiento a sus contribuciones, la
designación hertz tiene la abeja una parte
oficial del sistema métrico internacional
desde 1933, es el término que se utiliza
para las unidades de radio y frecuencias
eléctricas.
E
>> HECHO: Las ondas de radio han ayudado a desarrollar este tipo de
dispositivos inalámbricos como teléfonos y teclados de computadora.
Obra representa los
picos y los valles de
radio olas
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
Inventor Thomas Edison fue el primero en diseñar e implementar la generación de energía eléctrica y la distribución a los hogares, negocios y fábricas, un hito clave en el desarrollo de la palabra industrializada moderna. Edison patentó este sistema en 1880 con el fin de sacar provecho de su invención de la lámpara eléctrica-no era nada si no es un astuto hombre de negocios. El 17 de diciembre de 1880, se fundó la Edison Illuminating Company, con sede en Pearl Street Station en New York City. El 4 de septiembre de 1882, Edison encendió el sistema eléctrico de potencia de su estación Pearl Street generadora de distribución, que proporcionan 110 voltios de corriente directa a cerca de 60 clientes en el Bajo Manhattan. Aunque Edison perdió la llamada guerra de las corrientes que siguieron-con la consecuencia de que la corriente alterna se convirtió en el sistema a través del cual se distribuye la energía eléctrica, su sistema de distribución de energía sigue siendo importante por varias razones. Estableció el valor comercial de dicho sistema, y que ayudó a estimular los avances en el campo como ocupación valiosa. Por ejemplo, el ingeniero eléctrico americano Charles Proteus Steinmetz, a través de su trabajo en corriente alterna, hizo posible la expansión de la industria de la energía eléctrica en los Estados Unidos mediante la formulación de teorías matemáticas para ingenieros que diseñaban motores eléctricos para su uso en la industria.
>>HECHO: El sistema electrónico de poder de los estados unidos es el
más largo en el mundo.
A GRAN ESCALA DE LA RED
(1880)
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
LÓGICA BOOLEANO (1854)
La operación de las computadoras está
basada en una cosa:
Determinar si una puerta o cambio está
abierto o cerrado, lo cual es usualmente
señalado por los numero 0 y 1. Esta es la
esencia de la Lógica Booleano que subraya
toda la informática moderna. El concepto
fue llamado después por el matemático
ingles George Boole, quien definió un
sistema de lógica algebraica en 1854. La
motivación de Boole para crear esta teoría
fue su creencia de que los símbolos de la
operación matemática podrían estar
separados de esas cantidades y podrían
estar tratadas como distintos objetos de
cálculo.
Cercano al siglo siguiente, Claude Shannon
demostró que los circuitos eléctricos con
transmisiones eran modelos
perfectos para la lógica de
Boolean, un hecho que
permite el desarrollo de la
computadora eléctrica.las computadoras
usan la lógica de Boolean para decidir si
una declaración es verdadera o falsa ( esto
tenía que ser con una evaluación, no
verazmente). Estas son tres puertas básicas:
Y, O Y NO. La operación Y dice que si
solamente todas las entradas están
encendidas las salidas estarán encendidas.
La operación O dice que si alguna entrada
está encendida la salida estará encendida.
La operación NO dice que las salidas
tendrá un estado opuesto al de la entrada.
0: ABIERTO
1: CERRADO
La tradición algebraica en lógica,
desarrollado por el matemático ingles
George Boole (anteriormente). Hoy
encontramos esta aplicación den varios
tipos de tomas de daciones
HECHO.: aunque inventada en el siglo XIX, las formas lógicas de Boolean las
bases de la mayoría de las investigaciones de internet del siglo XXI.
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
Materia programable, que se introdujo por primera vez por el Instituto de Tecnología de Massachusetts (MIT) por los investigadores Tommaso Toffoli y Margolus Norman en un documento de 1991, se está convirtiendo rápidamente en una realidad, aunque a una escala relativamente pequeña. Materia programable es materia que puede simular o formar objetos diferentes como resultado de la entrada del usuario o en sus propios cálculos. Alguna materia programable está diseñada para crear formas diferentes, mientras que en otro asunto, como células biológicas sintéticas, están programadas para funcionar como un interruptor genético que se activa e indica a otras células a cambiar propiedades como el color o la forma. Los posibles beneficios y aplicaciones de la materia programable-en particular, la posibilidad de usarla para realizar el procesamiento de información y otras formas de computación- han creado un gran entusiasmo en el mundo de la investigación. Desde la publicación del documento de Toffoli y Margolus, se ha hecho mucho
trabajo para cumplir el potencial que predijeron. En 2008, por ejemplo, la Corporación Intel anunció que sus investigadores habían utilizado la materia programable para desarrollar los primeros prototipos de un dispositivo móvil en la escala de centímetro y milímetro. En 2009, el Departamento de Defensa de la Agencia en Defensa Avanzada de Proyectos de Investigación de los EE.UU. informó que cinco equipos de investigadores diferentes de la Universidad de Harvard, el MIT y la Universidad de Cornell están haciendo progresos en la investigación de la materia programable. En 2010 uno de estos equipos, dirigido por Daniela Rus, del MIT, ha anunciado su éxito en creación de hojas de origami auto-plegables. La Agencia en Defensa Avanzada de Proyectos de Investigación ha creado esperanzas para aplicaciones futuristas del concepto. Sus miembros imaginan, por ejemplo, un soldado equipado con un cubo de material ligero programable que podría convertirse, en el lugar, en casi cualquier cosa que él o ella necesite.
Diseños como el origami conducen proyectos en micro y hasta nano escala.
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
22
Diferencia del
motor (1822)
harles Babbage, Inglés, matemático e, filósofo, inventor e ingeniero mecánico, se dio
cuenta en 1822 que el motor de corto plazo podría ser programado con las tarjetas de
papel de que almacenan información en las columnas que contienen patrones de agujeros
perforados. Babbage vio que una persona puede programar una serie de instrucciones por medio
de tarjetas perforadas, y la máquina automáticamente podría llevar a cabo esas instrucciones. El
uso previsto de motor de diferencia Babbages fue calcular diversas funciones matemáticas, tales
como logaritmos. A pesar de que nunca fue terminado, se considera uno de los primeros
ordenadores de propósito generales encuentros digitales.
>>HECHO: En 2011 los investigadores británicos comenzaron a
construir el motor diseñado por Babbage, pero nunca avía
construido construido.
C
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
NUMEROS BINARIOS / CÓDIGO
BINARIO (1697) En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz, cuya realización se incluyen la invención del
cálculo y muchos avances importantes en las matemáticas, la
lógica y la ciencia inventada y máquina aritmética que podría
multiplicar y sumar. Leibniz también vio cómo se máquina
podría ser modificado para utilizar un sistema binario de
cálculo, un concepto que está en el corazón de la computación
digital.
En el sistema de Leibniz, el término binario se refiere a un
sistema de número por el que todos los valores se expresan
con los números 1 y 0. El sistema binario puede entenderse mejor mediante su comparación con
la base actual sistema de 10, cosa que expresa los números del 0 al 9 utilizando. En la base 10, el
número 367, por ejemplo, representa 3 x 100 + 6 x 10 +7 x. Cada posición en el numeral 367
representa una potencia de diez, a partir de cero y el aumento de derecha a izquierda. En el
binario, o base 2, un sistema, cada posición representa una potencia de dos. Así, en binario, 1101
representa 1 x 23 + 1 x 22 + 0 x21 +1 x 20 , cosa que es igual 8+ 4+ 0+ 1, o 13.
23
NÚMEROS
DULCE FÁTIMA AGUILAR JUÁREZ CARLOS MOZENCAHUATZI FLORES
EL PODER DE LA INFORMACIÓN
Moderno número Sistema (800)
E
l sistema de numeración hindú-árabe
sobre la que se basa el sistema de numeración módem se desarrolló probablemente en el siglo IX por los matemáticos indios, adoptadas por el matemático persa Al-Khwarizmi y matemático árabe Al-Kindi, y se extendió a todo el mundo Westem por la alta Edad Media. Las características del sistema de numeración módem son los conceptos de valor relativo y valores deciman. El sistema de valor posicional indica que el valor de cada dígito en un número de varios dígitos depende de su posición. Tome el número 279, por ejemplo. De acuerdo con el sistema de valor de posición, el 2 representa las decenas, y el 9 representa unos. Así, el número aparece como 279. Mientras tanto, el sistema decimal relacionada presenta números en incrementos de diez. En otras palabras, cada valor de posición es diez veces el
valor del lugar antes de ella. El sistema decimal matemáticos permite realizar operaciones aritméticas con números altos que de otro modo sería muy engorroso de manipular.
Ordenadores hacer uso de la sistema de
numeración posicional. Ya que un equipo
utiliza una pequeña cantidad de
memoria.Para almacenar un número,
algunos números son demasiado grandes o
demasiado pequeños para ser
representado. Que es donde números de
punto flotante vienen pulg punto decimal
puede "flotar" en relación con los dígitos
significativos en un número. Por ejemplo,
una representación de punto fijo que tiene
siete dígitos decimales con dos cifras
decimales pueden representar los números,
12345,67 123,45, 1,23, y así
sucesivamente, mientras que la misma
representación de coma flotante también
puede representar a 1,234567, 123456,7,
0,00001234567, y así sucesivamente.
24