INFORMÁTICA I - educacional.com.br · Para aprovação na disciplina o aluno devera obter no exame...

26
Informática I Profª Jucilene Marsura Bibanco Oliveira 1 INFORMÁTICA I MODULO 1 - INFORMÁTICA 2008

Transcript of INFORMÁTICA I - educacional.com.br · Para aprovação na disciplina o aluno devera obter no exame...

Informática I

Profª Jucilene Marsura Bibanco Oliveira 1

INFORMÁTICA I

MODULO 1 - INFORMÁTICA

2008

Informática I

Profª Jucilene Marsura Bibanco Oliveira 2

ORGANIZAÇÃO DO CURSO Profª Jucilene Marsura Bibanco Oliveira

[email protected]

Administração de Empresas Ciências Contábeis

Carga Horária: 40 horas

Carga Horária Semanal: 2 horas Objetivos da Disciplina Propiciar ao aluno conhecimentos necessários para o uso do computador em seu ambiente de trabalho. Conhecer basicamente o funcionamento e as bases de divisão dos equipamentos, como são instalados e os recursos possíveis de manuseio. Reconhecer os meios de comunicação via computador, bem como sua importância e facilidade em utilizá-lo. Ementa O computador: origem, funcionamento, componentes básicos Tecnologia hardware: processadores, memória, dispositivos de entrada e saída de dados Software: categorias, sistemas operacionais, linguagens de aplicação. Editor de Texto, Editor de Slides Internet: Recursos e Cuidados Conteúdo Programático:

1º Bimestre Informática Básica: história do computador e conceitos Hardware: processador, memórias e periféricos. Editor de Texto: utilização de recursos básicos para formatação ABNT 2º Bimestre Editor de Texto: utilização de recursos avançados de editoração Software: linguagens, sistemas operacionais, utilitários e aplicativos. Editores de Slides: utilização de software de apresentação eletrônica Pesquisa na Web: técnicas de buscas de informações / sites de busca

Critérios de Avaliação Média do Bimestre

A média do Bimestre é calculada como segue: (T1 + T2+ E1) = MB1 sendo MB1 = 1ºBimestre MB2 = 2º Bimestre • sendo T1a nota do(s) trabalho(s) a ser desenvolvido ao longo do bimestre no valor de até 2,0 pontos, • sendo T2 a nota do(s) trabalho(s) a ser desenvolvido ao longo do bimestre no valor de até 2,0 pontos • sendo E1 nota de Exercício de avaliação do Bimestre corrente no valor total de até 6,0 pontos

Média Final (MB1 + MB2) / 2 = MS se MS >= 7 ---> aprovado Exame

O aluno que não obtiver a média semestral MS igual ou superior a sete deverá realizar o exame final, que ira abranger a matéria de todo o semestre. Aprovação após o exame

Para aprovação na disciplina o aluno devera obter no exame (NE) a nota que falta para a Média Final ser igual ou superior a 5,0 (cinco). MF = (MS + NE) / 2 Exemplo: Média Semestral (MS) Nota de Exame (NE) Média Final Situação do aluno

6,0 4,0 (6,0+4,0)/2=5,0 Aprovado 2,0 7,5 (2,0+7,5)/2=4,75=5,0 Aprovado 4,0 3,0 (4,0 + 3,0)/2=3,5 Reprovado

Distribuição de material e exercícios Todas as turmas possuem um e-mail ao qual mandarei os exercícios e/ou trabalhos.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 3

Índice

1 INTRODUÇÃO À INFORMÁTICA 4

1.1 INFORMÁTICA 4 1.2 COMPUTADORES 4 1.3 EVOLUÇÃO DOS COMPUTADORES 4

1.3.1.1 A Evolução Histórica dos Computadores 4 1.3.2 As Gerações dos Computadores 11

2 PROCESSOS BÁSICOS EM INFORMÁTICA 12

2.1 REPRESENTAÇÃO DA INFORMAÇÃO 13 2.1.1 A Informação 13 2.1.2 Processamento da Informação pelo Ser Vivo 13 2.1.3 Representação de Informações 13 2.1.4 Sistemas de Numeração 14

3 UNIDADES BÁSICAS DE MEDIDA DE INFORMAÇÃO 14

3.1 MÚLTIPLOS DAS UNIDADES BÁSICAS DE MEDIDA DE INFORMAÇÃO 14

4 MODELO HIPOTÉTICO DE UM COMPUTADOR 15

4.1 EXERCÍCIO 1: 15 4.2 EXERCÍCIO 2: 16 4.3 DEFINIÇÕES 16 4.4 RESPOSTAS DOS EXERCÍCIOS 17

5 HARDWARE 18

5.1 PLACA MÃE 19 5.2 PROCESSADOR 19 5.3 MEMÓRIA PRINCIPAL 20 5.4 MEMÓRIA AUXILIAR 20

5.4.1 Disco Rígido (Winchester, HD) 20 5.4.2 Disquetes magnéticos (Disco flexível ou floppy disk) 21 5.4.3 Disquetes zip drive 21 5.4.4 Discos ópticos: CD-ROM, CD-RW, DVD 21

5.5 SCANNER 21 5.6 TECLADO 22 5.7 MOUSE 22 5.8 MONITOR DE VÍDEO 22

5.8.1 Resolução de vídeo 23 5.9 IMPRESSORAS 23 5.10 PLOTTER 24 5.11 OUTROS DISPOSITIVOS 24

6 SOFTWARE 25

6.2 SISTEMAS OPERACIONAIS 25 6.3 SOFTWARE LIVRE 25 6.4 SOFTWARE PROPRIETÁRIO 25 6.5 PIRATARIA DE SOFTWARE 25 6.6 DEMOS, FREEWARES E SHAREWARES 26

Informática I

Profª Jucilene Marsura Bibanco Oliveira 4

1 INTRODUÇÃO À INFORMÁTICA

1.1 INFORMÁTICA

A Informática nasceu da necessidade de auxiliar o homem nos trabalhos rotineiros e repetitivos, principalmente de cálculo e gerenciamento de informações. O homem é incapaz de processar com a rapidez necessária o grande e complexo universo da informação.

É a ciência que estuda o processamento de informações, sendo que seu principal instrumento é o computador.

1.2 COMPUTADORES

Computador é um dispositivo eletrônico que lê dados, submetendo-os a operações pré-determinadas, fornecendo assim resultados.

O Sistema do computador é composto por duas partes que são o Software e o Hardware, sendo que o software é a parte lógica (programas), e o hardware é a parte física do computador (equipamento).

Assim, o computador é um conjunto de equipamentos eletrônicos (HARDWARE) que necessita ser programado (SOFTWARE) para efetuar operações sobre informações conhecidas e fornecer os resultados desejados.

O conjunto de técnicas e equipamentos de informática, assistido por sistemas de comunicação, é denominado TECNOLOGIA DA INFORMAÇÃO.

1.3 EVOLUÇÃO DOS COMPUTADORES

1.3.1.1 A EVOLUÇÃO HISTÓRICA DOS COMPUTADORES

Resumo

O trabalho mostra a evolução dos computadores desde os primórdios, da utilização numérica até o fim da década de 70. Através dele pode se observar que no inicio sua evolução era lenta, e que com o passar dos séculos ela vai acelerando, como hoje por exemplo, em que a média para que algo evolua é de apenas 18 meses.

Passados de alguns séculos, da invenção da escrita foram inventados os algarismos numéricos, que tinham um desenvolvimento mais lento que a escrita, enquanto a escrita se desenvolvia através de vários símbolos para diferentes sílabas, as contagens continuavam a ser feitas com base no conceito 1. Um evento igual a um risquinho numa pedra, numa árvore ou em um osso.

Uma das categorias que contribuíram para o avanço da ciência do cálculo foram os primitivos pastores. Durante séculos eles soltavam seus rebanhos pela manhã, para pastar em campo aberto, e recolhiam a tarde. Tudo de maneira simples, até que um dia alguém perguntou para um pastor como ele sabia que a quantidade de ovelhas que saiu foi a mesma que voltou? Esse "seríssimo" problema foi resolvido por um pastor: pela manhã, ele fazia um montinho de pedra colocando nele uma pedra para cada ovelha que saia, e de noite retirava uma pedra para cada ovelha que voltava. Mesmo sem saber foi o primeiro ser humano a calcular. Porque pedra, em latim, é calculus.

A primeira maneira que os homens encontraram para mostrar a quantidade que estavam se referindo foi com o uso dos dedos das mãos. A 5 mil anos atrás para contar até 20 era necessário 2 homens, porque tinham que ser usadas quatro mãos, até que alguém percebeu que bastava apenas acumular o resultado de duas mãos, e voltar a primeira mão.

Até essa época a maioria das pessoas só saibam contar até três. Há cerca de 4 mil anos os mercadores da Mesopotâmia desenvolveram o primeiro sistema

cientifico para contar e acumular grandes quantias. Primeiro eles faziam um sulco na areia e iam colocando neles sementes secas (ou contas) até chegar a dez. Depois faziam um segundo suco, uma só conta – que equivalia a 10 –, esvaziavam o primeiro suco e iam repetindo a operação: cada dez contas no primeiro suco

Informática I

Profª Jucilene Marsura Bibanco Oliveira 5

valia uma conta no segundo sulco. Quando o segundo suco completava dez contas, um terceiro sulco era feito e nele era colocada uma conta que equivalia a 100. Assim uma quantia enorme como 732 só precisava de 12 continhas para ser expressa.

Apesar que o homem começou a fazer as contas com elas também vieram os erros, e para diminuir esses erros os homens se preocuparam em inventar algum aparelho para auxiliar na contagem.

A primeira tentativa bem sucedida de criar uma máquina de contar foi o ábaco. O nome tem origem em uma palavra hebraica abaq (pó), em memória a antiqüíssimos tabletes de pedra, aspergidos com areia, onde os antigos mestres desenhavam figuras com o dedo para educar seus discípulos.

Os inventores do ábaco, aparentemente foram os chineses, que deram o nome de suan pan. Os japoneses também reivindicam a invenção – no Japão o ábaco chama-se soroban – , para não falar nos russos: o deles se chama tschoty. Feito com fios verticais paralelos pelos quais sues operadores podiam fazer deslizar sementes secas, o ábaco chinês era incrivelmente eficiente. Um operador com pratica podia multiplicar dois números de cinco algarismos cada um com a mesma velocidade com que alguém hoje faria mesma conta numa calculadora digital. Quase 3 mil anos depois de ter sido inventado, o ábaco ainda é muito utilizado na Ásia por muitos comerciantes.

Até meados do século IX, um computador não era uma máquina, mas uma pessoa que tinha a função de fazer contas e arbitrar conflitos que envolvessem números.

A ampliação do termo ao moderno computador só aconteceria a partir de 1944, quando o jornal inglês London Times, que publicou uma matéria de alguns equipamentos que poderiam substituir o esforço humano, o jornal chamou uma hipotética máquina pensante de computer.

O computador é uma invenção sem inventor, o computador sempre foi o aperfeiçoamento de idéias anteriores. Muitas vezes, passavam-se séculos sem que nada fosse inovado, ao contrario de hoje que leva em média 18 meses para que se inventem uma máquina mais rápida que a anterior.

A primeira máquina moderna de calcular – na verdade uma

somadora – foi construída, pelo físico, matemático e filosofo francês Blaise Pascal, em 1642. A máquina, com seis rodas dentadas, cada uma contendo algarismos de 0 a 9, permitia somar até três parcelas de cada vez desde que o total não ultrapassasse 999999. Por exemplo uma multiplicação de 28 por 15 era feita somando-se 15 vezes o número 28.

A somadora original de Pascal ainda existe e funcionando e está exposta no Conservatorie des Arts et Metiers, em Paris. Quando Pascal construiu a máquina tinha apenas 19 anos, passando a frente de grandes cientistas da época.

Antes de morrer, aos 39 anos, em 1662, Pascal daria outras grandes contribuições a vários campos da ciência. Por isso ficou em segundo plano em um invento seu que é usado até hoje: a caixa registradora.

A máquina de Pascal teve uma vida útil de quase 200 anos e foi aperfeiçoada por vários inventores. Funcionava cada vez melhor mais tinha um limite: a entrada de dados dependia da eficiência da pessoa que estivesse batendo o número em suas teclas. Por melhor que fosse está pessoa, ela tinha um limite físico, então o passo seguinte seria o aumento da velocidade na alimentação de dados.

Quem conseguiu encontrar a solução foi o francês Joseph-Marie Jacquard, depois de ficar 20 anos pensando. Ele era aprendiz têxtil desde os dez anos de idade, ele se sentiu incomodado com a monótona tarefa de alimentar os teares com novelos de linhas coloridas para formar os desenhos no pano que estava sendo fiado. Como toda a operação era manual, a sua tarefa era interminável: a cada segundo ele tinha que mudar o novelo, seguindo as determinações dos contramestre.

Com o tempo Jacquard percebeu que as mudanças eram sempre seqüenciais. E inventou um processo simples: cartões perfurados, onde o contramestre poderia registrar, ponto a ponto a receita para a confecção de um tecido. Daí ele construiu um tear automático, capaz de ler os cartões e executar as seqüências programada. A primeira demonstração prática aconteceu em 1801. Dez anos depois já havia mais de 10 mil teares de cartões em uso na França, e logo se espalhou pelo mundo e se manteve inalterado por 150 anos. E fez a primeira vítima da tecnologia: o contramestre que era importantíssimo no sistema de tecelagem, foi substituído, nas suas funções mais nobres por uma máquina.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 6

Os mesmos cartões, teriam poucos anos depois uma importante presença no ramo da computação. E, praticamente continuam sendo aplicados ainda hoje: forma eles, os famigerados punching cards, que causaram aquela confusão na Flórida nas eleições dos EUA em 2000.

Nesse mesmo século, um inglês matemático, Charles Babbage, deu um grande impulso no papel das máquinas matemáticas. O seu objetivo era de construir máquinas que calculassem e imprimissem

tabelas matemáticas. Idealizou um pequeno modelo constituído por

96 rodas de 24 eixos que denominou Máquina Diferencial. Estimou 3 anos para o final do projeto mas a medida que avançava novas idéias iam surgindo e acabavam por inutilizar todo o trabalho anterior, e passou a um novo projeto.

Como os cartões podiam alimentar as máquinas com milhares de dados em poucos minutos eliminando a lentidão humana. Ainda faltavam dois passos para poder

aperfeiçoar as máquinas, em 1834, Babbage elaborou um projeto a qual chamou de Aparelho Analítico. Segundo o projeto, devia dispor de uma memória capaz de armazenar mil números de cinqüenta dígitos, comparando números e agindo de acordo com o resultado obtido. Baseado no sistema de numeração decimal, a sua principal limitação era, que não existindo ainda a eletrônica, o seu funcionamento tinha que se conformar com a mecânica. Toda a informação seria armazenada em cartões perfurados tanto os dados como os programas, o mecanismo baseava-se em arames que podiam ou não atravessar os furos dos cartões, pondo em marcha as engrenagens adequadas. Com isso anteviu os passos que até hoje são a base de funcionamento de um computador:

Alimentação de dados através de cartões perfurados. Uma unidade de memória, onde os números podiam ser armazenados e reutilizados. Programação seqüencial de operações, um procedimento que hoje chamamos de sistema

operacional. Infelizmente, sua máquina jamais chegou a ser

construída: Ele não dispunha de recursos para financiá-la, e também não encontrou investidores que se interessassem totalmente pelo projeto. Mas seus relatórios tornaram-se leitura obrigatória para os cientistas, que seguiram o mesmo caminho.

Os planos originais de Babbage ficaram engavetados por 157 anos, até que em 1991 cientistas britânicos, montaram a máquina, que funcionou com uma precisão de 31 casas depois da vírgula.

Mas os seus planos não resultaram em nada de prático na época, pelo menos os conceitos teóricos se espalharam pelo mundo, e logo os cartões perfurados ganharam aplicação prática na computação de dados, através de Hollerith.

O conceito de Herman Hollerith tinha duas etapas: primeiro transferir dados numéricos para um cartão duro, perfurando-o em campos predeterminados; depois transformar os furos em impulsos, através de energia elétrica que passava por eles, ativando dessa forma os contadores mecânicos dentro de um máquina. A idéia de Hollerith foi de juntar duas coisa que já existiam: os cartões de Jacquard e o conceito de impulsos elétricos para a transmissão de dados de Samuel Morse havia desenvolvido bem antes em 1844, quando inventou o telégrafo e transformou letras e números em sinais elétricos.

O cartão perfurado de Hollerith estreou em 1887, em estudo estatísticos de mortalidade. Mas foi em 1890, no recenseamento dos EUA, que o sistema ganhou fama mundial. Pela primeira vez o pessoal do censo não precisou fazer o trabalho braçal de tabular os milhões de dados que haviam sido coletados pelos pesquisadores. O recenseamento ficou pronto em uma fração de tempo que as anteriores, gerou uma grande economia para o governo a americano e fama para Hollerith.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 7

Apesar de parecer irônico, o salto definitivo dos computadores foi dado durante a II Guerra Mundial.

Para cifrar suas mensagens, os nazistas haviam criado uma máquina chamada de enigma. Durante os primeiros anos de guerra, os serviços de contra-espionagem dos países aliados conseguiam interceptar as mensagens dos alemães, mas não conseguiam decifrá-la. E quando conseguiam já era tarde demais. O que o enigma fazia era gerar novos códigos a cada mensagem. Desvendar como esses códigos eram reprogramados passou a se um prioridade absoluta, e os ingleses resolveram pedir ajuda a cientistas como Alan Turing.

Turing já havia publicado trabalhos teóricos sobre computação de dados antes da guerra e por isso foi recrutado a toque de caixas pelas Forças Armadas. Se suas teorias estivessem certas, elas levariam a construção de uma máquina capaz de imitar o cérebro humano para explorar todas as alternativas possíveis a partir de uma variável. Como a hipotética máquina de Turing estaria apta a computar e traduzir milhares de caracteres por segundo, bastaria alimentar com qualquer mensagem cifrada alemã, para que ela em seguida devolvesse a mesma mensagem escrita em alemão compreensivo.

Com o aprendizado alcançado com a construção do Enigma, foi construído logo em seguida outra máquina, mais elaborada e mais sofisticada, chamada de Colossus. A máquina levou um ano para ser montada nos laboratórios dos correios londrinos, pelo cientista Thomas Flowers. Uma vez plugada, programada e alimentada, resolvia qualquer questão de criptografia em poucos minutos. Concluído em 1941, o Colossus não era ainda um modelo bem acabado de computador, pois só executava uma única e especifica função, mas mostrou que a computação poderia resolver rapidamente qualquer problema que pudesse ser transformado em instruções numéricas. Mas, tudo isso foi mantido em segredo durante e após a guerra (os 10 modelos foram desmontados em 1946, para que evitasse cair em mãos inimigas.) a obra de Turing só se tornou pública anos depois que outras máquinas mais poderosas já existiam.

Vários pesquisadores passaram anos disputando a honra de ter sido o primeiro criador do computador moderno. Entre eles foi um alemão Konrad Zuse, que aparentemente construiu em 1941 o primeiro computador eletromecânico, perfeitamente operacional controlado por um programa de sistema binário (que Zuse chamava de já/nein, sim/não, o antecessor do zero/um dos bits), mas sua máquina chamada de Z1 foi destruída em um bombardeio em Berlim, em 1944. Mas, Zuse sobreviveu ao bombardeio e com ele suas anotações e as plantas do Z1 e seus princípios que mostraram incrivelmente semelhante a tudo o que viria depois.

Uma ampla e bem feita campanha promocional, talvez

explique por que hoje se acredite que o primeiro computador tenha sido uma máquina americana, o ENIAC.

O ENIAC foi ligado na tomada em 1946. Era um máquina que funcionava usando 17.480 válvulas de rádio, pesava 4 toneladas, media 30 metros de comprimento por 3 de largura e ocupava uma área de 180m2. Era capaz de fazer 5 mil somas por segundo. Foi construído por dois cientistas da Universidade da Pennsylvania, nos EUA, e seu nome vem das iniciais de Eletronic Numerical Integrator And Computer – Integrador e Computador Numérico-Eletrônico. Sua construção foi financiada pelas Forças Aramadas americanas, a um custo na época, de 500 mil dólares (20 milhões de dólares atualmente). Por conta da repercussão daquela matéria do London Times, a mídia usou a palavra computer para explicar ao povo o que aquela engenhoca era capaz de fazer. Se a escolha recaísse sobre o I, de ENIAC, e não sobre o C hoje poderíamos ter integradores ao invés de computadores.

O ENIAC funcionava da seguinte maneira: Primeiro um grupo de cientistas desenvolvia equações matemáticas na exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir seis especialistas programavam o computador para executá-las, girando botões de sintonia e plugando centenas de fios nas tomadas corretas.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 8

Portanto o que hoje é o sistema operacional, em 1946 era uma operação completamente manual. O primeiro teste do ENIAC – uma demonstração feita para generais das Forças Armadas –

calculou a trajetória de uma bala de canhão até um alvo determinado. Alimentado com as equações, o computador forneceu os dados para que o canhão fosse calibrado. A bala acertou o alvo, mas o que mais impressionou os generais, foi que o tempo que o computador levou para resolver, foi menor que o tempo da trajetória da bala. O único problema do ENIAC era que para calcular a trajetória de outra bala, até um novo alvo, tudo tinha que ser refeito: das equações até o reacerto dos fios. É essa tarefa que hoje já vem embutido nos programas.

Mas antes disso tudo na década de 30, além de Zuse, o doutor John Atasanoff, professor de Física da Universidade de Iowa States. Em 1939, sem muita divulgação, ele construiu um aparelho experimental, que chamou de ABC (Atasanoff Berry Computer). Clifford Berry era o seu assistente no projeto. Atasanoff fez demonstrações práticas de seu protótipo para vários cientistas, e um deles demostrou total interesse em saber todos os detalhes, era o doutor John Mauchly, que trabalhava nas Forças Armadas no desenvolvimento do ENIAC.

A repercussão positiva que o ENIAC causou junto a opinião publica americana transformou o doutor Mauchly e seu associado: o doutor Eckert proeminentes acima de qualquer suspeita. Mas Atasanoff levou o caso aos tribunais, acusando a dupla do ENIAC por pirataria. O processo durou 20 anos quando finalmente uma corte distrital americana decidiu que o ENIAC havia derivado das idéias do doutor Atasanoff. Apesar disso nem a dupla do ENIAC foi condenada, nem Atasanoff recebeu alguma compensação.

Além de Atasanoff , também a IBM reivindica sua participação na invenção do primeiro computador moderno, que teria sido o Harvard Mark I, parcialmente financiado pela IBM. O Mark I tinha o nome técnico de Calculador Automático Seqüencial Controlado, e foi construído entre 1939 e 1944, pelo professor Howard Aiken. O Mark I talvez tenha sido a maior máquina calculadora já construída (20 metros de comprimento por 3 de altura e 750 mil componentes). Independente dessa discussão a participação da IBM nos desenvolvimentos dos computadores é inegável.

A IBM também teria um outro destaque na história dos computadores por um acontecimento: foi em um Mark II em que ocorreu o primeiro bug.

A palavra já vinha sendo usada como gíria para significar qualquer complicação desde a Revolução Industrial, as máquinas eram instaladas em locais onde havia muitos insetos voando e havia grande chance de que algum isento pousar em um lugar errado e causar estragos era grande, e qualquer parada mecânica era atribuída a principio por bug.

Com os computadores realmente foi um bug: em 1945, uma mariposa conseguiu entrar num Mark II do Centro Naval de Virgínia, nos EUA, e travou todo o sistema, a partir daí o nome passaria a ser sinônimo de qualquer falha ou erro.

A IBM foi fundada em 1911, e fabricava materiais de escritório e se chamava CTR. O nome IBM vem da sigla International Business Machines, apareceu em 1924.

A IBM entrou no ramo de computadores em uma época em que as empresas estavam em duvida da viabilidade comercial.

Apesar das desconfianças inicias de Mr. Watson (presidente da IBM), após a Segunda Guerra Mundial a IBM lançaria versões cada vez mais avançadas de computadores, desenvolvido principalmente para gestão de negócios. Em 1952 seria a vez do IBM 701, inaugurando a moda dos modelos numerados.

No começo a maior concorrente da IBM era a Remington Rand, que produzia o UNIVAC (Univesal Automatic Computer). Em 1952 um UNIVAC acertou o resultado da eleição da Presidência da Republica, contrariando ao do instituto de pesquisas.

O domínio da IBM tem sido tão grande que em 1952 e 1969 que foi acusada pelos EUA de monopólio, mas ela saiu das duas brigas intacta.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 9

Bit é uma palavra formada pelas duas primeiras letras de binário e pela última letra do dígito (digit). Quem inventou a palavra foi um engenheiro belga, Claude Shannon, em sua obra Teoria Matemática

da Comunicação, de 1948. Nela ele descrevia um bit como sendo uma unidade de informação. O bit é a base de toda a linguagem dos computadores: o sistema binário, ou de base dois, é

representado graficamente por duas alternativas possíveis: 0, ou 1. No sistema binário usam-se só dois dígitos: 0 e 1, para representar qualquer número. A vantagem do sistema binário é sua simplicidade para o computador: se cada um dos dez

algarismos arábicos, tivessem que ser reconhecido individualmente pelo sistema, os cálculos demorariam muito mais.

Os bits servem para representar qualquer coisa que precise ser informada ao computador. O sistema binário é bem antigo. Os cartões perfurados do século 19 já o utilizavam: ou uma

determinada posição tinha um furo (1) ou não (0). Depois vieram as fitas perfuradas de papel (mais estreitas que um cartão, e em bobinas contínuas) e finalmente as fitas magnéticas, tipo fita de áudio. Mas o principio continuou o mesmo: na fita, um espaço estava magnetizado (1) ou não (0).

Um byte é uma informação inteira. E os bits são as oito peças que o sistema reconhece que número é aquele. Em linguagem binária o número 14 é: 00001110. Cada um dos oito algarismos é um bit. Todos eles juntos um byte. São oito bits em um byte porque as combinações possíveis de oito dígitos são mais que suficiente para expressar qualquer número, letra ou símbolo.

Um Kilobyte tem 1024 bits. Porque a base de tudo, é o número 2, e capacidade de processamento dos micros evolui em múltiplos, sempre dobrando em relação a medida anterior: 4K, 8K, 32K.... 512K. O próximo valor é 1024, o valor mais próximo de mil. Portanto esse Kilo de byte já vem com uma diferença, pois o sistema usa o logaritmo 2: o número 1024 corresponde a 210.

Um megabyte tem mil kilobyte, redondinho. É porque a partir do megabyte todas as medidas são mil vezes maiores que as anterior.

Na década de 1950 apareceu o transistor, circuito integrado para substituir as antigas válvulas.

Eram elas enormes, que ocupavam a maior parte da estrutura física de um computador. Fabricado inicialmente pela Fairchild Semicondutors, o transistor era uma maravilha eletrônica que fazia a mesma coisa que uma válvula – deixar ou não passar uma corrente elétrica – ,mas ocupando um espaço muitas vezes menor.

O termo foi inventado por um cientista dos Laboratórios Bell, Jonh Bardeen, a partir de outra duas palavras: transferir e reter (transfer e resistor). Em 1945 foram concluídos os estudos teóricos, que anos depois possibilitou a fabricação de grandes quantidades de transistor.

Depois veio o microchip: uma placa minúscula com um monte de minúsculos transistores, cada um com a mesma função original. A diferença está na dimensão: se o transistor era do tamanho de um dedo, o microchip era do menor que uma impressão digital. O que permitiu o aparecimento dos microchips foi a aplicação prática de novos semicondutores de eletricidade, que conduzem ou não uma carga elétrica.

A vantagem do microchip sobre o transistor é o silício, um elemento que faz com que a corrente elétrica seja conduzida muito mais rapidamente de um bit para o outro. A Intel Corporation criou em 1971 o primeiro microchip.

Em 1970, a Xerox Corporation, aproveitando os avanços tecnológicos, contratou as melhores pessoas ligadas na tecnologia da época – cientistas, principalmente, mas também gênios recém-saídos de universidades de alta tecnologia e confinou essa turma e seu Centro de Pesquisa em Palo Alto, cidade da Califórnia. Ao fim de dois anos eles chegaram a duas idéias interessantes:

A primeira foi um protótipo batizado de Alto, em homenagem a cidade – uma maquininha para pertencer a um único indivíduo, que poderia usá-lo em sua própria casa. O Alto era uma tela vertical de televisão, acoplada a um teclado semelhante a de uma máquina de escrever, ambos conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas com instruções faziam a engenhoca funcionar. O seu conceito foi revolucionário para uma época em que os computadores eram enormes e caros, tanto que só empresas de grande porte podiam ter um.

O Alto ainda tinha outras características hoje muito usadas: Para que o usuário de um Alto, não precisasse digitar milhares de instruções, foi criado pequenos

desenhos (ícones) que ficavam na tela, através dos quais podia-se abrir os programas. Para abrir os ícones foi usado um pequeno aparelho, conectado ao micro. Ao movê-lo um

pontinho na tela acompanhava o movimento feito pela mão. Era o mouse. Quando o pontinho passava pelo

Informática I

Profª Jucilene Marsura Bibanco Oliveira 10

ícone bastava o usuário apertar um de seus três botões para abrir o programa. O mouse não era uma idéia nova (havia sido inventado sete anos antes, em 1965, pelo engenheiro Doug Engelbart, e era de madeira).

Ao invés de fazer os caracteres – letras, números e figuras – aparecessem já formados na tela, semelhante a máquina de escrever, o sistema construía cada um deles, a partir de milhões de pontos isolados (ou pixels), um processo chamado hoje de bit mapping , que é a base de qualquer sistema gráfico.

Para operacionar os comandos do Alto, a Xerox criou uma linguagem com codificação própria, chamada Smalltalk, que permitia a seus programadores a desenvolver novos programas compatíveis com o sistema.

Foram feitas 150 unidades do Alto, mas nenhuma chegou a ser colocada a venda. O Alto era tão avançado que muitas de suas características, não apareceriam nem na primeira geração de computadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em 1984.

A segunda com o conceito do Alto os cientistas da Xerox previram a possibilidade de criar uma rede integrando todos os computadores pessoais, o que permitiria a seus usuários acessar e transferir dados uns para os outros, nem os grandes computadores tinham essa capacidade na época. O nome que os cientistas deram para essa rede foi: Ethernet.

Como a xerox não colocou o Alto a venda, a primeira empresa a colocar foi a americana MITS (Micro Instrumentation and Telemetry Systems) em 1975. Na verdade ele era um kit de partes vendidas separadamente que tinha que ser montada pelo usuário. Mas já tinha um único microprocessador e o chip. E as instruções para que ele pudesse funcionar estava em um programa em BASIC, escritas por Bill Gates e seu colega de escola, Paul Allen, ambos tinham 18 anos e estavam entrando na faculdade.

O nome da máquina era Altair 8800 que custava 395 dólares e tinha 256 bytes de memória. A Apple foi fundada na Califórnia no dia 1º de Abril de 1976. O computador da Apple, era

parecido com o Altair, também era vendido em kit: uma caixa, que continha o circuito impresso mais um saco cheio de pequenas partes, e um manual de montagem de 16 páginas custavam 666 dólares.

Os primeiros micros da Apple faziam pouca coisa se comparados aos dias atuais: joguinhos que não ocupassem muita memória e um editor de texto bem simples. O grande salto – que abriria os olhos das corporações para a primeira e real utilidade prática dos micros – viria em 1979, com o VisiCalc, a primeira planilha eletrônica de cálculos, foi ele que impulsionou as vendas de um novo modelo que estava sendo lançado, o Apple II, e multiplicou da noite para o dia o valor da Apple como empresa.

Cada processador é constituído por vários milhões de transistores. Um Pentium II possui pouco mais de 9 milhões de transistores. Um Pentium III Coppermine já possui 22 milhões. Um Athlon Thunderbird possui 35 milhões de transistores, enquanto um Pentium 4 possui incríveis 42 milhões. Graças ao nível de miniaturização que temos atualmente, estas quantidades fabulosas de transistores ocupam uma área muito pequena. Um Athlon Thunderbird por exemplo mede apenas 112 milímetros quadrados. Com isto, um único waffer de silício é suficiente para produzir vários processadores, que são separados no final do processo de fabricação.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 11

1.3.2 AS GERAÇÕES DOS COMPUTADORES

Os computadores evoluíram. Para entender esta evolução, foram classificados em gerações, de acordo com os componentes eletrônicos básicos utilizados.

1ª Geração de computadores (1940-1960) � utilização de válvulas � grande dimensão � Exemplos: ENIAC, Univac I e IBM 704

Os computadores eram verdadeiros monstros eletrônicos que ocupavam muito espaço e consumiam muita energia.

O ENIAC (Eletronic Numerical Integrator and Computer), tinha 19.000 válvulas e consumia cerca de 200 quilowatts, um absurdo para a época.

2ª Geração de Computadores (1960-1965) � utilização de transistores � redução do tamanho � Exemplos: Univac 80 e IBM

1401

3ª Geração de Computadores (1965-1971) � utilização de CHIP � maior redução do tamanho � Exemplos: Univac 1101 e IBM

360

Informática I

Profª Jucilene Marsura Bibanco Oliveira 12

4ª Geração de Computadores (1971 - hoje) � utilização de MICROCHIP � miniaturização � popularização em função do

baixo preço �

5ª Geração de Computadores (1979 - hoje)

� inteligência artificial � utilização de tecnologia de raios laser para discos, fitas e impressoras A evolução dos computadores tornou-se possível graças ao desenvolvimento da eletrônica,

proporcionando a colocação de idéias teóricas em prática.

2 PROCESSOS BÁSICOS EM INFORMÁTICA

Entrada de dados: ler os dados iniciais ou constantes. Processamento : efetua os cálculos. Saída de dados : apresenta os resultados. Por exemplo, quando nos dirigimos a um terminal bancário para efetuar saque de dinheiro, o ato

de escolhermos a operação, passarmos o cartão, digitarmos a senha e a quantidade, constitui a entrada de dados.

A tarefa que o computador faz de verificação do saldo do cliente, do limite diário de retirada são fases do processamento dos dados.

O novo saldo do cliente e a retirada do dinheiro constituem a saída, o resultado de toda operação.

ENTRADA PROCESSAMENTO SAÍDA

Informática I

Profª Jucilene Marsura Bibanco Oliveira 13

2.1 REPRESENTAÇÃO DA INFORMAÇÃO

2.1.1 A INFORMAÇÃO

Estamos vivendo a Era da Informação. Dispomos hoje de acesso instantâneo a uma quantidade de informação maior do que conseguimos tratar. Mas, afinal, o que é INFORMAÇÃO?

Um dos grandes nomes da teoria da informação, Claude Shannon (autor de "The Mathematical Theory of Communication") define que informação está presente sempre que um sinal é transmitido de um ponto a outro.

Por exemplo, são informações: - palavras, - um quadro (sinais visuais na forma de ondas de luz), - os impulsos elétricos através dos quais nossos olhos transmitem imagens ao cérebro, música, etc.

Além de transmitidas e recebidas, informações podem ser armazenadas e depois reproduzidas:

em livros, em discos, em fotografias, e na memória humana. Desta forma, uma informação original pode ser reproduzida (transmitida muitas vezes). Um exemplo radical de armazenamento e reprodução da informação são os genes: o código genético de um ser vivo é armazenado nos genes que permitem a reprodução do ser vivo a partir de uma única célula; todas as células contendo a mesma informação genética da célula inicial.

Processamento da informação refere-se ao armazenamento, transmissão, combinação e comparação da informação.

Alguns agentes contribuíram de forma expressiva para estarmos hoje vivendo a Era da Informação. A escrita iniciou este processo, a imprensa foi um passo muito importante, e recentemente as telecomunicações difundem informação instantânea por todo o planeta. O mais recente dos agentes fundamentais que propiciaram esta onda de informações é também o mesmo agente da tecnologia que mais nos auxilia a lidar com ela, um agente que nos permite armazenar, classificar, comparar, combinar e exibir informações e com velocidade: este agente tecnológico é o COMPUTADOR.

2.1.2 PROCESSAMENTO DA INFORMAÇÃO PELO SER VIVO

De certa forma, cada ser vivo é também um computador: - os SENTIDOS são meios de receber sinais do meio ambiente; - estas impressões sensoriais são transmitidas por uma rede nervosa ao cérebro através de sinais elétricos e químicos - sons emitidos pelos seres vivos são também meios de transmitir informações a outros seres: são mensagens que exprimem vontades, impressões, ordens... (Bom, para ser mais preciso, é o computador quem emula o ser vivo...! E, por enquanto, nada de muito brilhante, apenas extremamente rápido.) A evolução do ser humano permitiu que, com o aumento do poder computacional do seu cérebro e demais órgãos (por exemplo, o aparelho fonador) fosse possível criar e utilizar LINGUAGENS. Depois das palavras, vieram regras para combiná-las: as Leis da GRAMÁTICA e da LÓGICA (e, não, se, então, ...)

Maior número de expressões e maior número de combinações e mensagens possíveis, expressando um conjunto de situações mais amplo: portanto, mais INFORMAÇÃO.

Depois, um tipo especial de palavra surgiu, expressando um novo conceito - quantidade: OS NÚMEROS! Números podem ser representados com os dedos (dedo = dígito). Possivelmente vem daí que o sistema numérico ao qual estamos todos acostumados é o decimal (dez dedos).

O sistema decimal não é o único, nem o mais prático, pois 10 só é divisível por 2 e 5. Seria mais interessante usar um sistema numérico que fosse divisível por mais números, por exemplo o sistema duodecimal pois 12 é divisível por 2, 3, 4 e 6. Esse sistema foi criado há milhares de anos e é muito usado ainda hoje pelo comércio: por exemplo, uma dúzia (doze) de bananas, uma grosa (144) de parafusos.

2.1.3 REPRESENTAÇÃO DE INFORMAÇÕES

Bom, no início dos tempos informações eram transmitidas apenas por gestos e som (naquela época, eram apenas grunhidos) e se guardava informações apenas com o cérebro (a nossa memória, ou possivelmente apenas uma vaga lembrança!).

Os habitantes das cavernas pintavam animais nas paredes, não se sabe muito bem o que eles representavam. Muito tempo depois, os sumérios criaram um sistema para representar sua linguagem através de desenhos, gravados em placas de argila. Os egípcios representavam sua linguagem através dos hieróglifos

Informática I

Profª Jucilene Marsura Bibanco Oliveira 14

gravados em papiros, os chineses gravavam mensagens nos cascos de tartarugas, os incas usavam fios com nós (os quipos). Assim nasceu a escrita!

Os conceitos gerais de linguagem tem uma representação muito complexa - por exemplo, como representar um objeto, uma ação ou um sentimento. E quanto à representação de quantidades? Inicialmente, quantidades eram representadas com os dedos. Assim, desde o princípio nosso entendimento de quantidades sempre foi digital (vem de "digitus" = dedos). Mas, após a contagem (usando os dedos), como armazenar (guardar ou registrar) o resultado? E como processar uma conta? Os mais antigos registros encontrados representam quantidades através de entalhes em ossos, possivelmente para contagem dos dias. Cada entalhe, um dia, imitando a contagem nos dedos! Todas as civilizações antigas criaram alguma forma de representação de quantidades, mas cada número n era sempre representado por n símbolos da unidade. Para facilitar a contagem, as unidades eram agrupadas em grupos de 5 (uma mão-cheia) ou 10 (duas mãos-cheias).

2.1.4 SISTEMAS DE NUMERAÇÃO

Os sistemas de numeração tem por objetivo prover símbolos e convenções para representar quantidades, de forma a registrar a informação quantitativa e poder processá-la. A representação de quantidades se faz com os números. Na antiguidade, duas formas de representar quantidades foram inventadas. Inicialmente, os egípcios, criaram um sistema em que cada dezena (uma mão-cheia de nosso exemplo anterior) era representada por um símbolo diferente. Usando por exemplo os símbolos # para representar uma centena, & para representar uma dezena e @ representando uma unidade (símbolos escolhidos ao acaso), teríamos que ###&&@ representaria 321.

Relembremos ainda um outro um sistema, o sistema de numeração romano. Eram usados símbolos (letras) que representavam as quantidades, como por exemplo: I ( valendo 1), V (valendo 5), X (valendo 10), C (valendo 100), etc. A regra de posicionamento determinava que as letras que representavam quantidades menores e precediam as que representavam quantidades maiores, seriam somadas; se o inverso ocorresse, o menor valor era subtraido do maior (e não somado). Assim, a quantidade 128 era representada por CXXVIII = 100 + 10 + 10 + 5 + 1 + 1 + 1 = 128.

Por outro lado, a quantidade 94 era representada por XCIV = (-10 + 100) + (-1 + 5) = 94. Nesses sistemas, os símbolos tinham um valor intrínseco, independente da posição que

ocupavam na representação (sistema numérico não-posicional). Um grande problema desse sistema é a dificuldade de realizar operações com essa representação. Experimente multiplicar CXXVIII por XCIV! Assim, posteriormente foram criados sistemas em que a posição dos algarismos no número passou a alterar seu valor (sistemas de numeração posicionais).

3 UNIDADES BÁSICAS DE MEDIDA DE INFORMAÇÃO

O BIT (Binary digit), é a menor unidade de informação. Pode assumir os valores 0 e 1. Um conjunto de 8 BIT’s, é chamado de BYTE (Bynary Term). Através de um BYTE o

computador representa qualquer caractere (letra, dígito, vírgula, ponto, etc). O termo BYTE é utilizado para medidas de armazenamento em disco e memória.

3.1 MÚLTIPLOS DAS UNIDADES BÁSICAS DE MEDIDA DE INFORMAÇÃO

Para facilitar a comunicação e cálculo da capacidade de armazenamento dos computadores foram criados alguns múltiplos do byte, assim temos (do menor para o maior):

• kilobyte ou Kbyte (Kb): 1 Kbyte corresponde a 1024 bytes (210);

• megabyte ou Mbytes (Mb): 1 Megabyte corresponde a 1.048.576 bytes (220);

• gigabyte ou Gbytes (Gb): 1 Gigabyte corresponde a 1.073.741.824 bytes (230);

• terabyte ou Tbytes (Tb): 1 Terabyte corresponde a 1.099.511.627.776 bytes (240).

Informática I

Profª Jucilene Marsura Bibanco Oliveira 15

4 MODELO HIPOTÉTICO DE UM COMPUTADOR

Operador - só faz o que for ordenado, não toma decisões Conjunto de escaninhos - com capacidade para um cartão cada Máquina de calcular - executa as operações Caixa de entrada - para receber cartões de fora Máquina de escrever - para dar saída às informações / resultados

Para que este modelo funcione, deve existir em cada cartão uma INSTRUÇÃO. O operador

segue de escaninho em escaninho, fazendo exatamente o que está escrito em cada cartão, até encontrar um cartão contendo uma instrução que manda que ele PARE.

4.1 EXERCÍCIO 1:

Obs.: Utilizaremos a notação (E10) significando "o conteúdo do escaninho E10", isto é, o valor que está agora armazenado no escaninho E10 (ou, mais formalmente, o valor corrente daquela posição de memória).

• E1 : armazene o valor 1 no E10 • E2 : leia o conteúdo de E11 (externo - a caixa de entrada) • E3 : multiplique E10 com E11 (usando a máquina de calcular) e armazene o resultado

em E10 • E4 : subtraia o valor 1 de E11 • E5 : se o valor de E11 > 0, volte para E3, senão continue • E6 : imprima o conteúdo de E10 (usando a máquina de escrever) • E7 : PARE • E8 :

Informática I

Profª Jucilene Marsura Bibanco Oliveira 16

• E9: A partir de um sinal externo do tipo COMECE, este modelo inicia do E1 daí por diante prossegue até E8 (o final).

• Resolva o exercício; o que faz este algoritmo? Depois, confira a Resposta.

4.2 EXERCÍCIO 2:

No mesmo algoritmo acima, avalie as conseqüências das seguintes alterações:

• E5 : se o valor de E11 > 0, volte para E3, • E5 : se o valor de E11 >= 0, volte para E3; senão continue, • E7 : XXX

Resolva o exercício e depois confira a Resposta. Num modelo real - o COMPUTADOR- este só faz aquilo que ele recebe instrução para realizar. Um computador funciona a partir de um programa que o instrui sobre o que deve fazer. "O problema dos computadores é que eles fazem exatamente aquilo que você os instruiu a fazer

e não aquilo que você realmente queria que eles fizessem." Um programador frustrado

4.3 DEFINIÇÕES

PROGRAMA é uma seqüência de instruções (no modelo hipotético, os cartões).

O programa deve ser escrito numa LINGUAGEM DE PROGRAMAÇÃO; as linguagens naturais têm ambigüidades e podem dar margem a diferentes interpretações.

HARDWARE (significa originalmente "ferragens" em inglês - hardware store significa

originalmente "loja de ferragens") é o conjunto de dispositivos físicos do computador, o equipamento. SOFTWARE (em analogia a hardware, a parte "soft", macia, são os programas que permitem que

o equipamento saiba o que realizar, que ele funcione. Depois surgiram outros termos, aproveitando as mesmas analogias, tais como firmware

(indicando programação gravada em dispositivos físicos e não modificável pelo usuário). PROCESSAMENTO AUTOMÁTICO DE DADOS Um computador é capaz de executar um programa sozinho, desde que o programa seja

previamente armazenado nele, de forma que ele tenha as indicações de onde procurar as instruções. MEMÓRIA - os escaninhos Dispositivo físico para armazenar programas e dados PROCESSADOR - Operador e máquina de calcular Dispositivo que realiza o processamento DISPOSITIVOS DE ENTRADA E SAÍDA - caixa de entrada, caixa de saída, máquina de escrever Formas de comunicação entre o usuário e o computador SISTEMA - Um conjunto interligado de programas (e, eventualmente, também de

equipamentos).

Informática I

Profª Jucilene Marsura Bibanco Oliveira 17

LINGUAGEM DE MÁQUINA - é a linguagem que o computador entende, cujo "alfabeto" é composto apenas de "1's"e "0's" (linguagem binária).

LINGUAGEM DE PROGRAMAÇÃO - é uma linguagem formal, utilizando termos que se aproximam da linguagem humana, que pode ser traduzida por programas especiais em linguagem de máquina.

4.4 RESPOSTAS DOS EXERCÍCIOS

Resultado das operações do modelo - Exercício 1: LEMBRE-SE.: Utilizaremos a notação (E10) significando "o conteúdo do escaninho E10", isto

é, o valor que está agora armazenado no escaninho E10 (ou, mais formalmente, o valor corrente daquela posição de memória).

ALGORITMO E10)

(E11) AÇÃO

E1- armazene o valor 1 no E10 - -

E2 - leia (E11) (caixa de entrada - p.ex: 4)

4 -

E3 - (E10) x (E11); armazene resultado em E10

- -

E4 : subtraia o valor 1 de (E11) 3 -

E5 : se (E11) > 0, volte para E3, senão continue

- Volta p/E3

E3 2

- -

E4 2 -

E5 - Volta p/E3

E3 4

- -

E4 1 -

E5 - Volta p/E3

E3 4

- -

E4 0 -

E5 - Segue p/E6

E6 : imprima o conteúdo de E10 - Imprime 24

E7 : PARE - PARA

Este programa calcula o FATORIAL de um número. Resposta - Exercício 2: a) E5 : se o valor de E11 > 0, volte para E3, (eliminar "senão continue"), o modelo não saberia o

que fazer quando o valor de E11 chegasse a zero. b) E5 : se o valor de E11 >= 0, volte para E3, Haveria mais um passo no loop, multiplicando o conteúdo de E10 por 0 (zero) e o resultado do

processamento do algorítmo seria SEMPRE ZERO.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 18

c) E7 : XXX Quando o modelo chegasse até E7, poderia encontrar qualquer coisa. No caso de encontrar

código válido (por exemplo, o "lixo" deixado por um programa anterior) com algum significado, ele executaria a instrução (fosse esta o que quer que fosse), chegando a um resultado imprevisível (poderia dar um resultado errado, poderia travar, poderia entrar em um loop, etc.).

Caso o conteúdo de E8 fosse um valor sem significado (por exemplo, um dado), o modelo não saberia o que fazer e pararia.

Portanto, num modelo real - o COMPUTADOR- este só faz aquilo que ele recebe instrução para realizar. Um computador funciona a partir de um programa que o instrui sobre o que deve fazer.

5 HARDWARE

São os componentes eletrônicos e elétricos que constituem a parte física dos computadores. Um computador em geral, é composto dos seguintes componentes:

Informática I

Profª Jucilene Marsura Bibanco Oliveira 19

5.1 PLACA MÃE

É a placa principal do computador, na qual são conectados todos os componentes internos (como por exemplo: processador, memória RAM, unidades de disco). Nela há encaixes (slots), onde podem ser instalados outros componentes como: Placa de fax modem, placa de rede, placa de som, placa controladora scanner etc.

5.2 PROCESSADOR

É a parte mais importante do computador, controla o armazenamento dos dados, identifica as operações a serem realizadas, busca as instruções que devem ser seguidas para realizar as tarefas, executa as operações e coordena o armazenamento dos resultados, além de enviar estes resultados para o vídeo, discos ou impressora.

O processador é composto por inúmeros circuitos eletrônicos miniaturizados dentro de um chip de silício. Os termos 286, 386, 486 e Pentium se referem ao tipo de processador que o seu computador possui. Cada vez em que é criado um novo processador ele terá maior velocidade que o seu antecessor, esta velocidade é medida em Hertz (Hz).

Os computadores variam de acordo com o processador utilizado: XT, 286, 386 SX, 386 DX, 486 SX, 486 DX, 486 DX2, 486 DX4, Pentium, Pentium MMX, Pentium Pró, Pentium II, Pentium III, K6-2, K6-3, Celeron, Duron, K7, Pentium IV, Athlon, Xeon, Dual Core, etc.

Os processadores de equipamentos mais antigos tinham velocidades que variavam de 8Hz,

33Mhz, 66 Mhz, 100 Mhz. Atualmente são vendidos equipamentos em velocidade entre 1 e 4 Ghz. Hz < Mhz < Ghz

Informática I

Profª Jucilene Marsura Bibanco Oliveira 20

5.3 MEMÓRIA PRINCIPAL

Também conhecida como Memória RAM (Random Access Memory - memória de Acesso aleatório).

Para qualquer programa ser executado, suas instruções são armazenadas na memória do computador.

Durante a execução do programa, os dados operados também são mantidos nesta memória, a fim de agilizar o processamento. Entretanto, os dados armazenados na Memória Principal são perdidos ao se desligar o computador. Para o armazenamento permanente, são utilizadas as memórias auxiliares.

5.4 MEMÓRIA AUXILIAR

É um dispositivo utilizado para armazenar informações que não caberiam na memória principal ou que seriam perdidas quando o computador fosse desligado. Estes dados são transferidos para a memória principal durante o processamento, quando necessário. Além disso, permitem que o usuário reutilize as informações mais tarde, realizando a gravação física das mesmas. Ex: Fitas, Discos flexíveis e Discos Rígidos, etc.

É fácil verificar que os tempos de leitura e gravação são mais lentos que o da memória principal,

tendo em vista que a principal está relacionada diretamente com a CPU. A auxiliar, por sua vez encontra-se fora da CPU, e necessita de um meio externo, acionador de leitura e gravação, para o armazenamento das informações desejadas, normalmente um acionador mecânico.

5.4.1 DISCO RÍGIDO (WINCHESTER, HD)

Os discos rígidos são construídos a partir de uma base de alumínio recoberta por um material magnético, sobre o qual são gravados os dados. Estes discos são acoplados no interior do microcomputador, e se encontram selados não sendo possível removê-los.

Estes discos possuem alta capacidade de armazenamento e menor tempo de acesso. Sua capacidade de armazenamento é medida em Gb (gigabytes) ou até Tb (terabytes).

Fita DAT

HD ou Winchester Disquetes CD ROM

Informática I

Profª Jucilene Marsura Bibanco Oliveira 21

5.4.2 DISQUETES MAGNÉTICOS (DISCO FLEXÍVEL OU FLOPPY DISK)

São elementos físicos compostos por uma base de plástico ou metal, recoberta por uma fina camada de material magnético.

Estes discos são reutilizáveis, uma vez que a informação pode ser apagada ou gravada quantas vezes for necessário. A capacidade de armazenamento destes discos varia de acordo com o tipo do disco. Atualmente o mais utilizado é o disco de 3½” que armazena 1,44 Mb.

É importante lembrar que pode ocorrer erros de gravação neste tipo de dispositivo, para arquivos importantes recomenda-se fazer várias cópias.

5.4.3 DISQUETES ZIP DRIVE

Este tipo de disquete difere-se em 3 aspectos do que vimos no disquete mostrado no item anterior:

1) Necessita de um drive que é acoplado a parte do computador (pois o drive existente na maioria dos computadores só consegue ler informações dos disquetes de 1,44 mb);

2) Aumento na capacidade de armazenamento, passando de 1,44 MB para 100 MB, 250 MB, 750 MB ou 1GB;

3) Aumento da segurança, pois o meio magnético onde são gravadas as informações é de melhor qualidade.

5.4.4 DISCOS ÓPTICOS: CD-ROM, CD-RW, DVD

Os CDs para computadores utilizam tecnologias ópticas, semelhantes aos Cds de música. Usa luz para ler os dados registrados diferentemente do método utilizado pelos discos convencionais.

O CD é um componente fundamental para sistemas de multimídia que utilizam som, texto e imagem em movimento. A capacidade de armazenamento de um CD é consideravelmente maior que a de um disco flexível, ficando entre 540Mb até 1,5Gb.

A capacidade padrão é de 700Mb. Esta capacidade corresponde a aproximadamente 250.000 páginas de texto.

O CD não tem a mesma facilidade de gravação e regravação como nos discos flexíveis, pois não é um meio magnético.

É necessário então possuirmos unidades especiais que possam ser gravadas e mídias que permitam tal operação CD-RW, DVD, DVD-RW.

A capacidade do DVD é de 3 a 7 Gb.

5.5 SCANNER

Dispositivo de entrada com capacidade de leitura óptica de caracteres gráficos, códigos de barras, imagens, etc. (podem ser de mesa ou de mão). Ele usa uma espécie de lente para executar a varredura

Informática I

Profª Jucilene Marsura Bibanco Oliveira 22

da imagem. Funciona de modo semelhante a uma máquina de fotocópias, porém ele digitaliza a imagem e envia ao microcomputador.

5.6 TECLADO

É um dispositivo responsável única e exclusivamente pela entrada de informações, composto por um agrupamento de teclas que geram códigos dos caracteres.

5.7 MOUSE

Dispositivo de Entrada, cuja forma encaixa na palma da mão e que é rolado sobre uma superfície lisa, de modo a mover, de forma correspondente, o cursor na tela, enviando sinal por um fio de conexão. Possui botões programáveis que funcionam como teclas de função.

5.8 MONITOR DE VÍDEO

Permite a interação entre o homem e a máquina, exibindo a imagem emitida pela CPU, por este motivo é considerado periférico de saída.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 23

O Sistema de vídeo nos microcomputadores compreende: placa controladora, monitor de vídeo e memória de vídeo. Para obterem-se imagens de boa qualidade, a placa de vídeo e o monitor devem atuar de forma harmônica.

Algumas placas controladoras: • CGA (Color Graphics Adapter) • EGA(Enhanced Graphics Adapter) • VGA (Video Graphics Array) • SVGA(Super Video Graphics Array)

5.8.1 RESOLUÇÃO DE VÍDEO

A resolução de um vídeo, ou seja a qualidade de sua imagem, é função sobretudo do número de pontos, ou pixels (picture elements) representados na tela e do seu dot pitch.

O número de pixels de um monitor é em geral indicado na forma pixels por linha x linhas na tela. Ex: um monitor com resolução de 640 x 200 apresenta 640 pixels por linha em 200 linhas de tela, num total de 128.000 pontos.

As imagens mostradas no monitor de vídeo são compostas de minúsculos pontos por onde incidem os raios de luz nas cores vermelha, verde e azul - representadas pela sigla em inglês RGB (red, green, blue).

Esses feixes luminosos atravessam uma superfície perfurada chamada de máscara de sombra que fica posicionada atrás do vidro do tubo de vidro.

Dot pitch é o valor que representa a distância entre os pontos da superfície perfurada, por onde incidem os três raios de luz que vão formar a imagem. Por isso, quanto menor o dot pitch, maior número de pontos (pixels) a imagem terá e melhor será a resolução do monitor.

Assim um modelo com dot pitch de 0,26 mm produz imagens mais nítidas do que um de 0,28 mm.

5.9 IMPRESSORAS

A utilidade deste periférico está na produção de informação escrita; portanto, pode-se afirmar que ela é uma unidade unicamente de saída.

As impressoras podem ser divididas em impressoras de impacto (matricial) e de não impacto (jato de tinta, térmica, laser). Para utilizar uma impressora é necessário conectá-la ao microcomputador. Para efetuar esta ligação é necessário um cabo específico que pode ser encontrado de três tipos: paralelo, serial ou USB.

Matriciais Utiliza Agulhas Boa para Modo Texto Pode usar Formulário Contínuo - Carbono Baixa Qualidade Gráfica Usada em departamentos Financeiros

Inkjet - Jato de Tinta Alta Qualidade Gráfica Custo Benefício Favorável Uso Residencial Cartucho ficou muito caro

Laser Alta Qualidade Gráfica Valor Alto Custo x Benefício - Ótimo Ótimo para grande volume de impressão

Cera Térmica Alta Qualidade Gráfica Valor Muito Alto Birôs de Impressão Qualidade Fotográfica

Informática I

Profª Jucilene Marsura Bibanco Oliveira 24

5.10 PLOTTER

São dispositivos capazes de realizar como saída de um processo, um gráfico ou desenho. A impressão pode ser feita em uma ou várias cores, utilizando-se canetas ou jato de tinta como elemento de impressão. Os plotters são bastante utilizados na impressão de desenhos arquitetônicos e de engenharia.

5.11 OUTROS DISPOSITIVOS

Joystick: Usado sobretudo em jogos e aplicações de CAD (Computer Aided Design, ou seja, Projeto Assistido por Computador). Hastes e botões substituem o teclado no acionamento de programas.

Mesa Digitalizadora: Cria e manipula imagens. Possui uma rede de fios embutidos na sua

superfície. A intersecção dos fios corresponde aos pontos elementares – pixels - da tela ou monitor de vídeo. Percorrendo-se a superfície da mesa com uma caneta especial conectada à mesa, a posição dos pontos de intersecção dos fios percorridos pela caneta é enviada ao computador e registrada na tela. A imagem ou desenho é assim digitalizada.

Câmeras fotográficas digitais: também considerado um dispositivo de entrada, as câmaras

digitais não utilizam filmes e através de várias formas de conexão ao computador, transmitem as imagens das fotos diretamente à eles.

Informática I

Profª Jucilene Marsura Bibanco Oliveira 25

6 SOFTWARE

Softwares são conjuntos de instruções armazenadas na memória do computador que têm a finalidade de definir as ações da CPU em cada situação específica, de acordo com as necessidades do usuário. Os Softwares avançam apoiados em versões, onde em uma nova versão são incorporados melhoramentos, sugestões, novos recursos e até mesmo correções de falhas de versões anteriores.

6.1 PROGRAMAS

São conjunto de instruções, ordenadas de forma lógica, elaboradas com o propósito de resolver um determinado problema. Exemplos: Processadores de Texto, Planilhas Eletrônicas, Gerenciadores de Banco de Dados, etc.

6.2 SISTEMAS OPERACIONAIS

Em termos técnicos, um sistema operacional fornece uma ligação entre os circuitos elétricos de seu computador e os programas que você utiliza. Ou seja, um Sistema Operacional é um programa ou conjunto de programas que tem por finalidade iniciar a máquina, gerenciar seus recursos (fluxo de informações), bem como permitir a manutenção de discos e arquivos. Exemplos: MS-DOS, Linux, Unix, Windows XP, Windows NT, Windows 2000 e AltaVista, etc.

Para ilustrar, podemos comparar o sistema operacional como um tradutor, que tem a função de realizar a comunicação entre indivíduos de diferentes linguagens.

6.3 SOFTWARE LIVRE

O conceito de software livre foi criado por Richard Stallman (da Free Software Foundation) em 1983.

“Software Livre” refere-se à liberdade dos usuários para executarem, copiarem, distribuírem, estudarem, modificarem e melhorarem o software.

O sistema operacional Linux é um dos softwares livres mais conhecidos. Uma cópia de um software livre pode custar ou não algo ao usuário. Um software ser livre é uma

questão de liberdade, não de preço.

6.4 SOFTWARE PROPRIETÁRIO

Software Proprietário é o software que não é livre ou semi-livre. Seu uso, redistribuição ou modificação são proibidos ou são cercados de tantas restrições que na prática não são possíveis de serem realizados livremente.

Mecanismos que barateiam o custo de software proprietário, sobretudo para empresas: Licença de uso empresarial: comprador adquire o direito de usar o software em um número

determinado de máquinas a um preço menor do que a soma dos valores do número de cópias envolvidas. Versão para rede: uma variação da licença de uso empresarial. O software é comprado com

autorização para instalação em um servidor e uso em um número determinado de máquinas.

6.5 PIRATARIA DE SOFTWARE

No âmbito do software livre, não há pirataria de software, uma vez que a cópia e uso dos softwares estão garantidos de forma livre para os usuários.

A pirataria de software existe para quem copia ou usa ilegalmente um software proprietário. Uma cópia de um programa é legal quando:

Informática I

Profª Jucilene Marsura Bibanco Oliveira 26

• foi comprada por quem o usa e está sendo usada de acordo com o que foi acertado na compra; • não foi comprada por quem o usa, mas essa pessoa está autorizada a usá-la (ver shareware,

freeware e demos a seguir); • é uma cópia de segurança (backup) produzida pelo proprietário do software ou pessoa

autorizada, estando prevista na compra ou autorização a realização dessa cópia; Há leis internacionais relacionadas à pirataria de software desde 1976. No Brasil, pirataria de software é crime e é normatizada pela Lei Federal 9.606.

6.6 DEMOS, FREEWARES E SHAREWARES

Há softwares que podem ser usados temporária ou permanentemente a um custo zero ou muito próximo a isso, são os demos, freewares e sharewares.

Demos: softwares em versão reduzida, distribuídos livremente, sem qualquer custo. Freewares: totalmente gratuitos. Nesta categoria estão os softwares de domínio público, que

qualquer um pode usar sem custo ou restrição, uma vez que o desenvolvedor não reclama direitos autorais, e aqueles softwares que ainda que protegidos por direito autoral, foram liberados para uso e cópia pelo desenvolvedor.

Sharewares: softwares distribuídos gratuitamente para serem testados pelo usuário. Se houver interesse em ficar permanentemente com o software, então ele deverá ser registrado e pago.

Demos, Freewares e Sharewares podem em geral ser obtidos via Internet, por download, ou ao adquirir revistas especializadas em Informática.