Pág
ina1
Aula 00 - TEMA DESTA AULA: Microinformática. Conceitos. Características. Modalidades
de processamento Online, Offline, batch, real time, time sharing. Operação de
microcomputadores. Hardware: conceitos, identificação dos componentes e funções,
siglas, tipos, características, barramentos, interfaces, conexões PS/2, USB e RJ45,
dispositivos de armazenamento, de entrada e de saída de dados. Dispositivos de
armazenamento, de impressão, de entrada e de saída de dados, mídias. Memória.
Discos rígidos, pendrives, CD-R, DVD, Blu-Ray, impressoras, scanner, plotters.
ORIGEM DA PALAVRA INFORMÁTICA
Em 1957, o cientista da computação alemão Karl Steinbuch publicou um jornal
chamado InformÁtica: Informationsverarbeitung ("Informática: processamento de
informação").
A palavra portuguesa é derivada do francês informatique, vocábulo criado por Philippe
Dreyfus, em 1962, a partir do radical do verbo francês informer, por analogia com
mathématique, électronique, etc.
Em português, há profissionais da área que também consideram que a palavra
informática seja formada pela junção das palavras informação + automática. Pode
dizer-se que informática é a ciência que estuda o processamento automático da
informação por meio do Computador.
COMPUTADOR
O computador é um dispositivo concebido para manipular símbolos, dados, com rapidez
e precisão, que recebe dados de entrada, os processa de modo a obter dados de saída
com base em um conjunto detalhado de instruções (que também constituem dados de
entrada). Processar dados significa transformar informações que temos em mãos
(informações iniciais ou de entrada) em informações úteis (informações finais ou de
saída). Os principais tipos de computadores são:
Mainframe: (Lê-se: meinfrêimi): computador de grande porte,
requerendo pessoal especializado para a sua operação. Esses
equipamentos estão distribuídos em uma ampla sala refrigerada,
com possibilidade de instalação de terminais em ambientes
remotos. (Ex: operadoras de cartões de crédito, bancos,
companhias telefônicas, provedores de acesso).
Microcomputador (desktop): Os microcomputadores surgiram
em 1974, são computadores pessoais (PC), destinados ao uso de
empresas que tenham um pequeno, mas variado tipo de
processamento de dados e tarefas distintas.
Pág
ina2
Notebooks ou Laptops: São computadores portáteis, cabem em
uma maleta e são importantes para o trabalho de campo
(pesquisadores) ou a movimentação dos seus dados (professores,
palestrantes), podem ser levados a qualquer lugar, pois possuem
bateria com duração de 3 horas ou mais. Atualmente com os
avanços da conectividade sem fios (wireless) pode-ser ter acesso
à internet nos lugares mais remotos.
Netbooks: são os computadores portáteis tipo subnotebook com
características típicas: peso reduzido, dimensão pequena ou
média e baixo custo. São utilizados, geralmente, em serviços
baseados na internet, tais como navegação na web e e-mails.
Ultrabook é um tipo de subnotebook (laptop ultrafino) termo
criado pela Intel e lançado no ano de 2011, é uma iniciativa para
criar um mercado de notebooks para concorrer com o MacBook
Air da Apple. Os ultrabooks, além de finos e leves, possuem telas
sensíveis ao toque, comandos por reconhecimentos de voz, maior
autonomia de bateria e menor preço.
Tablets, Handheld e Palmtop (computadores de mão) e Smartphones (telefones
inteligentes): São computadores normalmente do tamanho
de uma agenda eletrônica. Possuem funcionamento
semelhante a um microcomputador, mas com capacidades
reduzidas que se ampliam cada vez mais com as novas
tecnologias, tais como: sistema operacional leve, instalação
de programas compatíveis com Word, Excel e outros,
câmeras digitais, acesso a internet, telefonia VOIP, etc. O
que difere um celular convencional de um smartphone é
que neste último podemos instalar programas de acordo
com a plataforma desenvolvida para o aparelho, entenda plataforma como o sistema
operacional que roda dentro do aparelho, as mais comuns são: Android (Samsung,
Sony), IOS (Iphone), Windows Mobile (Nokia).
Vantagens Desvantagens
Baixo custo
Bateria de longa
duração
Ultraportátil
Conexão com a
internet
Processador um pouco mais
simples
Pouca memória RAM
HD menor
Não possui drive de CD ou DVD
Pág
ina3
COMO FUNCIONA O COMPUTADOR – Arquitetura de John von Neumann
John von Neumann, nascido em Budapeste no dia 28 de dezembro de
1903 foi um matemático húngaro de origem judaica, naturalizado norte
americano. Foi professor na Universidade de Princeton e um dos
construtores do ENIAC (primeiro computador do mundo!). Entre os anos
de 1946 e 1953, von Neumann integrou o grupo reunido sob o nome de
Macy Conferences, contribuindo para a consolidação da teoria
cibernética. Von Neumann faleceu pouco depois, aos 53 anos, vítima
de um tumor cerebral.
Ele é que inventou “ Como o computador pensa!!!”
1ª Etapa: Os dados entram
pelos dispositivos de entrada,
tais como teclado, mouse,
scanner. Depois de inserido o
dado é enviado a CPU.
2ª Etapa: Já na CPU (que é o
processador, o cérebro de
todo o sistema), ocorre o
processamento da
informação onde os dados
são convertidos
(interpretados).
3ª Etapa: Depois de
processado na CPU, os dados
são armazenados temporariamente (memórias primárias) ou definitivamente (memórias
secundárias).
4ª Etapa: Agora que a informação está pronta e já armazenada, ela é apresentada ao
usuário através de um dispositivo de saída, tais como: monitor, impressora.
TRABALHANDO COM AS INFORMAÇÕES DIGITAIS
Na tecnologia analógica, uma onda é
registrada ou usada em sua forma
original. Então, por exemplo, em um
gravador de fitas analógico, um sinal é
capturado diretamente através do
microfone e colocado em uma fita. A
onda do microfone é uma onda
analógica, então a onda na fita é
analógica também. Esta onda pode
ser lida, amplificada e enviada a um
alto-falante para produzir o som.
Pág
ina4
Na tecnologia digital a onda analógica é usada por amostra em um intervalo, e então
se transforma em números que são armazenados no dispositivo digital. Em um CD, o
ritmo de amostras é de 44 mil por segundo, isto é, em um CD, existem 44 mil números
armazenados por segundo da música. Para escutar a música, os números são
transformados em uma onda de voltagem que se aproxima da onda original.
E qual é a grande vantagem nisso tudo?
A gravação não se degrada com o passar do tempo: enquanto os números podem ser
lidos, você sempre terá a mesma onda, a mesma informação.
UNIDADES DE MEDIDA
A forma como a arquitetura de um computador foi elaborada faz com que ele se
comunique apenas através de “combinações” positivas e negativas, assumindo valores
0 (desligado) e 1 (ligado). Isso significa que para cada ordem que mandamos o
computador executar, ele realiza milhares de operações apenas usando as
“combinações” 0 e 1, por isso o termo binário ou digital, que deriva de dois, já que são
apenas 1 e 0. Assim como metro mede distâncias, litro mede capacidade e o grama
mede massa, Byte mede informação. É muito comum os alunos medirem as informações
de uma forma bem divertida, mas incorreta: “ Esse arquivo cabe quem quantos
disquetes” (Disquete e pendrive são “coisas de velho”. Risos...Agora tudo é Nuvem...!) –
Está se utilizando a mídia de armazenamento (disquete) como se fosse uma unidade de
medida, o que está errado.
Bit
Contração do termo em inglês “BInary digiT”, é a unidade básica de informações no
sistema binário ou digital de numeração. O bit é a menor quantidade de informação
que se pode armazenar num computador. A reunião de 8 bits forma um dígito ou uma
palavra.
Byte
É um grupo de 8 bits. Cada byte armazena o equivalente a um caractere de nossa
língua. É a unidade de medida básica e universal para a capacidade de
armazenamento de informações que o computador e todos os seus dispositivos utilizam.
Com a necessidade de maior processamento e armazenamento, surgiram as outras
unidades agrupadas conforme a tabela abaixo:
Pág
ina5
PROCESSAMENTO DE DADOS
Responsável pela coleta, armazenamento, processamento e recuperação, em
equipamentos de processamento eletrônico, dos dados necessários ao funcionamento
de um sistema de informações.
Ao escrever a palavra casa, o nosso processador entende da seguinte forma:
HARDWARE
É toda a parte física que compõe o computador e seus periféricos: equipamentos e
suprimentos tais como CPU, disquetes, HD, formulários, impressoras. Tudo aquilo que é
tangível, corpóreo, pois no software você não toca, mas no hardware sim.
Seus principais componentes são:
CPU (Central Processing Unit) ou UCP (Unidade Central de Processamento)
É o “cérebro” do computador. Todas as informações que
entram e saem do micro passam por ela. Na arquitetura atual
dos computadores, a CPU é o componente mais importante,
todos os outros dispositivos do computador estão interligados a
ela, direta ou indiretamente, ela lê e escreve informações na
memória, reconhece e executa os comandos, controla todas
as operações entre o processador, memória e periféricos. Vale
lembrar que não se deve confundir o gabinete (caixa de
proteção metálica) com CPU, a CPU (microprocessador) está abrigada dentro do
gabinete.
Vamos estudar as duas principais partes da CPU:
Pág
ina6
Unidade de Controle (UC): A Unidade de Controle gerencia todo o funcionamento da
CPU, e de todo o computador. A UC é responsável pelo tráfego das informações
recebidas e enviadas para todos os componentes do computador através da emissão
de pulsos elétricos. Suas funções são:
- Controle de entrada de dados
- Interpretação de cada instrução de um programa
- Coordenação do armazenamento das informações
- Análise das instruções dos programas
- Controle da saída de dados
- Decodificação dos dados
Unidade Lógica e Aritmética (ULA): é a parte da CPU responsável por manipular os
dados recebidos e enviar as respostas dessa manipulação. Quando há necessidade de
os dados coletados passarem por operações matemáticas (soma, subtração,
multiplicação e divisão) ou de comparação lógica, a UC requisita os serviços da ULA.
Temas Relacionados
CLOCK
Cada processador possui um cristal interno que vibra suas moléculas quando recebe
alimentação elétrica. Essa “oscilação” é regular e compassada, funcionando como o
“batimento cardíaco” do processador. Quanto maior for à frequência, ou seja, quanto
mais oscilações houver em um determinado espaço de tempo, mais rápido seu
processador executa as operações. A frequência é medida em Hertz (oscilações por
segundo), e já chegamos à fronteira dos GHz (Gigahertz). Atualmente existem
processadores com frequências superiores as de 2,4GHz (2,4 bilhões de oscilações por
segundo). Aquilo que as pessoas costumam perguntar: Qual é a velocidade do seu
processador? Na verdade, é o clock! O termo velocidade está empregado de forma
errada, pois velocidade é usada somente quando algo está em movimento. O certo
seria perguntar: Qual é a frequência do seu processador? Ou ainda, qual o clock do seu
processador? Mas já vi bancas usarem o termo velocidade sem problema! Pois estão
adotando o conceito coloquial ou popular!
Imagine você converter em binários todos os textos da Bíblia! Já pensou quanto tempo
demoraria tal tarefa? Isso mesmo...pegar cada letra e transformar em conjuntos de zeros
e uns...A=01000001. Seria humanamente impossível, mas note que quando abrimos um
texto enorme no computador, ele o faz em segundos. Isto está intimamente ligado ao
que acabamos de ler na explicação acima. O processador consegue realizar esta
conversão de bilhões de binários em apenas um segundo!
Overclocking
Um processador vem da fábrica com sua frequência definida. Contudo, é possível
aumentar o clock de um processador através de um processo técnico (não
recomendado) chamado overclocking. Caso seja realizado de forma indevida pode
acarretar a perda do processador por superaquecimento ou até danificar a placa mãe.
Geralmente o sujeito que faz isso quer ter mais “potência” sem gastar mais por isso!
Pág
ina7
Arquitetura dos processadores: 32 bits x 64 bits
Se você vai a uma loja de informática para comprar um computador, o
vendedor pode lhe oferecer dois tipos: um com um processador de 64
bits e outro com um processador de 32 bits. "O de 64 bits é mais caro,
porém é muito mais rápido e tem melhor desempenho", lhe diz o
vendedor de modo bem convincente. Isso significa que seus jogos e
programas rodarão mais rápidos, bem como os programas pesados, tipo:
AutoCad (arquitetura), Adobe Premiere (Edição de vídeo), entre outros!
Será? Talvez! Vejamos o por que.
Quando nos referimos aos processadores de 16 bits, 32 bits ou 64 bits estamos falando
dos bits internos do chip, isso representa a quantidade de dados e instruções que o
processador consegue trabalhar por vez. Por exemplo, com 16 bits um processador pode
manipular um número de valor até 65.535. Se certo número tem valor 100.000, ele terá
que fazer a operação em duas partes. No entanto, se um chip trabalha a 32 bits, ele
pode manipular números de valor até 4.294.967.296 em uma única operação.
Para calcular esse limite, basta fazer 2 elevado à quantidade de bits internos do
processador. Então, qual o limite de um processador de 64 bits? Vamos à conta:
2^64 = 1.84467441 × 10^19
Um valor extremamente alto!
Agora, suponha que você esteja utilizando um editor de textos. É improvável que esse
programa chegue a utilizar valores grandes em suas operações. Neste caso, qual a
diferença entre utilizar um processador de 32 bits ou 64 bits, sendo que o primeiro será
suficiente? Como o editor utiliza valores suportáveis tanto pelos chips de 32 bits quanto
pelos de 64 bits, as instruções relacionadas serão processadas ao mesmo tempo
(considerando que ambos os chips tenham o mesmo clock).
Por outro lado, aplicações em 3D ou programas como AutoCad requerem boa
capacidade para cálculo e aí um processador de 64 bits pode fazer diferença. Suponha
que determinadas operações utilizem valores superiores a 4.294.967.296. Um processador
de 32 bits terá que realizar cada etapa em duas vezes ou mais, dependendo do valor
usado no cálculo. Todavia, um processador de 64 bits fará esse trabalho uma única vez
em cada operação. Compare a uma locomotiva cujo motor é preparado para suportar
mais vagões. Ela carregará mais, o que diminui a quantidade de viagens, mas sua
velocidade continuará a mesma.
RISC x CISC
Um processador CISC (Complex Instruction Set Computer, ou "computador
com um conjunto complexo de instruções"), é capaz de executar várias
centenas de instruções complexas, sendo extremamente versátil. Todos os
processadores usados em micros PC até pouco tempo, incluindo o 386, 486
e Pentium, utilizam a arquitetura CISC, onde o processador é capaz de
Pág
ina8
executar diretamente todas as instruções x861, usadas pelos programas que vemos em
micros PC convencionais, como o Windows.
No começo da década de 80, a tendência era construir chips com conjuntos de
instruções cada vez mais complexos. Alguns fabricantes resolveram seguir o caminho
oposto, criando o padrão RISC (Reduced Instruction Set Computer, ou "computador com
um conjunto reduzido de instruções"). Ao contrário dos complexos CISC, os
processadores RISC são capazes de executar apenas algumas poucas instruções simples.
Justamente por isso, os chips baseados nesta arquitetura são mais simples e muito mais
baratos, daí a queda dos preços nos computadores a partir no final dos anos 90 (Dez
anos para isso acontecer por aqui). Outra vantagem dos processadores RISC, é que, por
terem um menor número de circuitos internos, podem trabalhar com clocks mais altos.
Um exemplo são os processadores Alpha, que em 97 já operavam a 600 MHz.
Tanto a Intel quanto a AMD, perceberam que usar alguns conceitos da arquitetura RISC
em seus processadores poderia ajuda-las a criar processadores mais rápidos. Porém, ao
mesmo tempo, existia a necessidade de continuar criando processadores compatíveis
com os antigos.
Não adiantaria muito lançar um Pentium ou Athlon extremamente rápidos, se estes não
fossem compatíveis com os programas que utilizamos.
A ideia então passou a ser construir chips híbridos, que fossem capazes de executar as
instruções x86, sendo compatíveis com todos os programas, mas ao mesmo tempo
comportando-se internamente como chips RISC, quebrando estas instruções complexas
em instruções simples, que podem ser processadas por seu núcleo RISC. Tanto o Pentium
II e III, quanto o Athlon, Duron e Celeron, utilizam este sistema.
O fato de utilizar um núcleo RISC permite que estes processadores sejam muito mais
rápidos do que os Pentiums antigos, mas ao mesmo tempo os transforma em chips
extremamente complexos, devido ao grande número de circuitos necessários para
traduzir e ordenar as instruções. Para se ter uma ideia, um Pentium MMX tem 4.300.000
transistores, enquanto um Athlon tem nada menos que 27.000.000 deles, mais de 6 vezes
mais!
1 Em informática, x86 ou 80x86 é o nome genérico dado à família de processadores baseados no Intel 8086, da
fabricante Intel. A arquitetura é chamada x86 porque os primeiros processadores desta família eram identificados
somente por números terminados com a sequencia "86", tais como: o 8086, o 80186, o 80286, o 80386 e o 80486.
Pág
ina9
Modalidades de processamento – Os Primeiros sistemas – Tempo do Vovô:
Nos primórdios da computação, havia apenas o hardware. Grandes máquinas (os
Mainframes velhões...lembra?) Operadas de um console. Eram utilizadas da seguinte
forma:
O programa é carregado na memória através de chaves, fita de papel ou cartões
perfurados;
Através de botões se inicia a execução;
O andamento da execução é acompanhado através de luzes no painel (é isso
mesmo...não existia monitor! Por isso aquelas antigas impressoras matriciais tinham
formulário contínuo! Elas imprimiam o que o computador estava fazendo ao se
pressionar PrintScreen...tecla que hoje captura uma imagem da tela!)
O resultado da computação é obtido através de impressora, fita de papel ou
cartão perfurado;
Se ocorrer um erro durante a computação, deve-se parar o programa, examinar a
memória e os registradores, consertar o programa e repetir todo o processo.
Programador e operador eram a mesma pessoa (normalmente, um cientista!). Existia
uma tabela de horário onde era feita a reserva de horas de máquina. Com o passar do
tempo, mais hardware e software ficaram disponíveis. As fitas magnéticas passaram a ser
empregadas com bastante intensidade. Surgiram bibliotecas de funções, contendo
principalmente rotinas para acessar os dispositivos de E/S (Entrada e Saída). Cada novo
periférico exigia que novas rotinas fossem escritas e adicionadas à biblioteca existente.
Com o aparecimento das linguagens de alto nível FORTRAN e COBOL, a programação
ficou mais fácil, mas a operação ficou mais difícil. A execução de um JOB (programa)
em FORTRAN era feita da seguinte forma:
Carrega a fita magnética que contém o compilador;
Lê o programa de cartões, gera assembler em fita magnética ou cartão
perfurado;
Carrega a fita magnética que contém o montador;
Lê o programa montado e gera código de máquina, sem as rotinas da biblioteca;
Carrega a fita magnética que contém o ligador;
Lê o código gerado antes e inclui as rotinas da biblioteca que serão executadas,
gerando código executável;
Carrega o código executável e executa o programa.
As características deste ambiente “pré-histórico” são:
Grande tempo de preparação para colocar e retirar fitas magnéticas, colocar e
retirar maços de cartão;
Um erro em qualquer etapa significa volta ao início;
Durante a preparação a CPU fica parada.
Em uma época que os computadores custavam milhões de dólares, todo este tempo
de CPU (Processador hein...não é a caixa!) parada era inaceitável. Era necessário
buscar uma melhor utilização da CPU, o que foi obtido através de duas medidas:
Pág
ina1
0
• Operadores especializados foram contratados. Isto significa que a preparação é mais
rápida. Não existe mais perdas devido a pequenos espaços na planilha de horário.
Entretanto, o programador deixa de ser ele mesmo o operador. Passa a existir diferença
entre as duas funções. A depuração deve agora ser feita a partir das listagens geradas,
pois o programador não tem mais acesso ao console.
• Os jobs com necessidades parecidas são reunidos em batches (lotes), para minimizar a
necessidade de trocar fitas magnéticas. Apesar destas duas alterações,
na transição entre jobs a CPU fica parada. O operador deve perceber quando um job
termina e então iniciar a execução do job seguinte.
O Monitor Residente
O passo seguinte foi o surgimento do sequenciador automático de jobs, o primeiro
sistema operacional criado, ainda que bastante rudimentar. O sequenciamento
automático de jobs é feito por um monitor residente, ou seja, um pequeno programa
que fica o tempo todo na memória do computador e que transfere o controle
automaticamente de um job para o outro.
Quando o computador é ligado, o controle é entregue ao monitor residente, que inicia
a execução de um programa. Quando o programa termina, o controle volta ao monitor
residente, que ativa o programa seguinte, e assim por diante. Antes, o programador
informava ao operador o que devia ser feito através de um pedaço de papel contendo
a descrição do job (que compilador utilizar, que módulos de biblioteca usar, etc.). Agora
o programador deve fornecer uma descrição semelhante para o monitor residente. Isto
era feito na forma de cartões de controle. Os cartões de controle utilizavam algum
caractere especial para se diferenciar dos demais (cartões de programa e de dados).
Abaixo está um exemplo de job:
$JOB (Identifica o job que inicia)
$FTN (Executa o compilador FORTRAN)
prog (Programa a ser compilado)
$LOAD (Carrega o resultado da compilação na memória)
$RUN (Executa o programa compilado)
dados (Dados para o programa)
$END (Marca o fim do job)
A maior vantagem do monitor residente é a redução do tempo entre 2 jobs do mesmo
batch, pois automatiza a transição entre jobs. A organização do monitor residente é a
seguinte:
Tabela de interrupção
Controladores de Dispositivos (Device Drivers)
Interpretador de cartões e Sequenciador de jobs
Área para programas dos usuários
O controle da CPU fica parte do tempo com o monitor residente e parte do tempo com
o programa do usuário. Eventualmente, pode ser solicitada a ação do operador para,
por exemplo, carregar determinada fita magnética.
Pág
ina1
1
Performance
O objetivo de todas as mudanças feitas até agora é obter um melhor desempenho do
computador, uma vez que se trata de uma máquina cara. Como humanos são muito
lentos, a operação humana foi substituída por um software, no caso, o sistema
operacional. Entretanto, dispositivos mecânicos de I/O (em geral na faixa milissegundos)
são mais lentos que os dispositivos eletrônicos (microssegundos). Isto faz com que a CPU
acabe parada boa parte do tempo esperando pelo I/O. Por exemplo, se um compilador
é capaz de processar 300 cartões/segundo e a leitora somente é capaz de ler 2
cartões/segundo, a CPU ficará parada 93,3% do tempo durante a compilação.
Algumas técnicas foram utilizadas para minimizar este problema. Entre elas está a
operação off-line.
Operação off-line
Na operação chamada (na época) on-line, a CPU recebe dados diretamente da leitora
de cartões e envia resultados diretamente para a impressora. Na operação off-line, a
CPU recebe e envia dados para fitas magnéticas. Como unidades de fita são mais
rápidas que leitoras de cartões e impressoras, a CPU fica menos tempo parada.
Dispositivos especiais ou pequenos computadores são responsáveis pela transferência
dos cartões para a fita e da fita para a impressora. A passagem de operação on-line
para operação off-line não exige mudança nos aplicativos, mas apenas no sistema
operacional (device drivers). O aplicativo pensa estar lendo dados de cartões, mas na
verdade o sistema operacional está acessando uma fita magnética. O mesmo
acontece com a impressora.
Multiprogramação
A operação off-line não garante uma utilização eficiente do computador. Um único
programa não consegue manter a CPU o tempo todo ocupada. Por isso surgiu a
multiprogramação, que é a execução “simultânea” de vários programas (vários
programas na memória). A multiprogramação aumenta a utilização da CPU, fazendo
com que ela tenha sempre algo para executar. Os primeiros sistemas multiprogramados
foram implementados através de uma extensão da técnica de spooling, conforme é
descrito a seguir.
O SO (Sistema Operacional) possuía três grandes processos, denominados input spooler,
executive e output spooler. A função do input spooler era ler, continuamente, cartões
colocados em leitoras de cartões e gravar suas imagens no disco. Todos os cartões de
um job (cartões de controle, programa fonte e dados) eram copiados para arquivos em
disco. No disco podiam existir várias filas, uma para cada classe de job, por exemplo. A
função do executive era carregar e executar os jobs colocados no disco, de forma
multiprogramada. O executive procurava manter na memória tantos jobs quantos
fossem permitidos pelos recursos disponíveis. Toda vez que um job necessitava ler um
cartão, a leitura era feita do arquivo em disco que continha as imagens dos cartões
desse job. Toda vez que um job imprimia uma linha, o executive providenciava que a
imagem da linha fosse gravada em um arquivo de saída em disco. Assim, tudo se
passava como se cada job tivesse a sua leitora e a sua impressora particulares. Esses
Pág
ina1
2
dispositivos de E/S virtuais eram implementados por arquivos de spooling em disco. O
terceiro e último componente do SO, o output spooler, tinha a função de providenciar a
saída dos jobs já executados. Este componente ficava, continuamente, pegando no
disco os jobs já executados, um de cada vez, e fazendo a saída das suas linhas na
impressora.
A multiprogramação funciona da seguinte maneira:
O SO escolhe um job e inicia a sua execução;
Eventualmente o job para, devido ao I/O;
Sem multiprogramação, a CPU pararia também, mas neste caso o sistema
operacional escolhe um novo job e inicia sua execução;
Quando o primeiro job é liberado – pois terminou o I/O que ele estava esperando –
este volta a ficar apto a receber a CPU para continuar a sua execução.
Para obter maior eficiência, o SO procura manter na memória uma mistura de jobs CPU-
bound e I/O-bound. A multiprogramação aumenta a complexidade do sistema, mas
aumenta muito a sua eficiência. A multiprogramação é o tema central em qualquer
curso de sistemas operacionais.
Tipos de sistemas operacionais quanto ao tipo de processamento:
Sem considerar os sistemas para redes de computadores, os sistemas distribuídos e os
sistemas paralelos, pode-se dizer que existem três tipos básicos de SOs.
Batch
Os primeiros sistemas operacionais eram chamados de sistemas batch devido ao fato
dos programas (chamados na época de Jobs) semelhantes estarem agrupados em
lotes. Isto simplificava a operação do computador quando toda operação de entrada
de dados e saída de informação era feito através de fitas magnéticas ou cartões
perfurados, dispositivos essencialmente sequenciais. Com o surgimento dos discos
magnéticos (HDs), não havia mais a necessidade de reunir os jobs em lotes, pois agora o
sistema operacional poderia obter diretamente no disco qualquer programa solicitado.
A palavra batch passou então a designar os sistemas onde não há interação entre
usuário e programa.
Neste tipo de sistema existe uma medida importante que é o tempo de turnaround, ou
seja, o tempo entre a entrega dos cartões e o recebimento da listagem com os
resultados. Não existe a possibilidade de comunicação entre o usuário e o seu programa
em execução, o que dificulta a depuração de programas. Um sistema operacional
batch é apropriado para jobs longos, que não necessitam de comunicação com o
usuário. Para jobs curtos, onde a ação a seguir depende da decisão do usuário, o ideal
é um sistema operacional interativo.
Pág
ina1
3
Time-sharing
A busca por maior eficiência no desenvolvimento de programas levou ao surgimento
dos sistemas interativos. Os sistemas operacionais do tipo time-sharing permitem
interação de uma forma eficiente. Eles são implementados da seguinte forma:
O sistema operacional dispõe de multiprogramação;
Cada usuário possui um job (programa) ativo vinculado a um terminal;
A comunicação via terminal é lenta, sobra CPU para os outros;
Os usuários, ao longo do tempo, compartilham a CPU (time-sharing);
A ideia de um sistema time-sharing foi demonstrada no início dos anos 60 e tornou-se
comum no início da década seguinte. Alguns sistemas operacionais suportavam os dois
ambientes (batch e time-sharing).
Real-time
Em um sistema de tempo real, o computador está ligado a processos externos (processos
industriais, equipamentos cirúrgicos, etc.) que dependem fundamentalmente dos
tempos de resposta do computador. Sinais dos processos externos acionam o
computador através do sistema de interrupção; se estes sinais não são respondidos
prontamente (em microssegundos ou milissegundos, dependendo da aplicação), os
processos externos podem prosseguir de forma errada ou degradada.
Nas aplicações de tempo real, o computador é apenas uma das peças do sistema (não
a mais importante, em geral) e os “usuários” são os processos externos controlados pelo
computador. Um SO tempo real utiliza conceitos de multiprogramação e oferece
facilidades para as aplicações de tempo real.
Fechamos aqui os estudos sobre Processador (CPU) ...vamos aos demais componentes
do computador!
Pág
ina1
4
PLACA-MÃE OU MOTHERBOARD
A placa mãe é a placa de circuito impresso onde
reside toda a principal parte eletrônica do
computador. Os componentes elétricos /
eletrônicos ligados à placa-mãe são os seguintes:
- O microprocessador;
- A memória do computador;
- Os slots de expansão e as placas especiais de
expansão que são encaixadas neles;
- Chips especiais, chamados de chips ROM;
- A BIOS;
- Outros circuitos de suporte.
Uma característica importante da placa-mãe é seu chipset. Chipset é uma série de
circuitos que controlam todo o fluxo de dados na placa-mãe. Atualmente existem vários
modelos de chipsets, fabricados por várias empresas. É interessante saber que as placas-
mãe possuem frequência, também medida em MHz. A frequência da placa-mãe não
chega nem perto da frequência interna do Microprocessador, mas seu valor também
influencia no desempenho final do computador.
Placa-mãe On-board
Por exemplo, uma placa-mãe pode ser fabricada já com diversos equipamentos
presentes nela mesma, como placa de som, placa de rede, modem e placa de vídeo.
Dizemos, portanto, que esses equipamentos já se encontram on-board (“na placa”).
Existem placas mãe que possuem todos os equipamentos já inseridos, há outras, porém,
em que apenas um ou outro equipamento está na própria placa-mãe. Um ponto
negativo para as placas-mãe On-board é que, pelo fato de haver vários componentes
instalados, a placa não possui muitos slots (encaixes, conectores) para expansão,
limitando a escolha de componentes, outro fato ruim é que nem sempre os
equipamentos que vêm junto com a placa-mãe possuem boa qualidade. Por razões de
custo, as fábricas escolhem equipamentos fracos, o que compromete o desempenho
final do computador.
BARRAMENTOS DE ENTRADA E SAÍDA
São conjuntos de trilhas, circuitos e conectores (slots) por onde as informações trafegam
de um ponto a outro como linhas de comunicação. Os barramentos interligam os
dispositivos entre si e estes com a placa mãe e demais componentes. Imagine os
barramentos como as ruas de uma cidade, onde em determinados locais passam
carros, em outros caminhões, em outros os pedestres.
O desempenho do barramento é medido pela sua largura de banda (quantidade de
bits que podem ser transmitidos ao mesmo tempo), geralmente em potências de 2.
Exemplo: 8 bits, 16 bits, 32 bits, 64 bits, etc.
Os barramentos de entrada e saída podem ser classificados basicamente em dois tipos:
Pág
ina1
5
Internos – localizados dentro do gabinete do computador, para acessá-los será preciso
desmontar a “carcaça” do micro para vê-los.
Pág
ina1
6
Pág
ina1
7
Externos – Com saídas e conectores para fora do gabinete, também chamados de
portas de comunicação.
Cuidado para não confundir com as portas que ainda vamos estudar lá no
assunto Protocolos no capítulo de Redes!
Pág
ina1
8
O HDMI
O HDMI é uma tecnologia de
conexão capaz de lidar com áudio e
vídeo ao mesmo tempo, isto é, não é
necessário ter um cabo separado
para cada coisa. Além disso, toda
transmissão do HDMI é feita por meio
de sinais digitais, o que torna a
tecnologia apta a transmitir vídeo e
áudio de altíssima qualidade.
Resolução da imagem
Quando o assunto é HDMI (ou outras tecnologias relacionadas, como o HDTV - High-
Definition Television), é comum a menção de resoluções como 720p e 1080p. Mas, o que
isso significa? Embora pareça complicado, essas nomenclaturas simplesmente facilitam
a identificação da quantidade de pixels (em poucas palavras, pixel é um ponto que
representa a menor parte da imagem em uma tela) suportava pelo dispositivo, além do
uso de progressive scan ou interlaced scan. No progressive scan, todas as linhas de pixels
da tela são atualizadas simultaneamente. Por sua vez, no modo interlaced scan, primeiro
as linhas pares recebem atualização e, em seguida, as linhas ímpares (ou seja, é um
esquema do tipo: linha sim, linha não). Em geral, o modo progressive scan oferece
melhor qualidade de imagem.
Assim sendo, a letra 'p' existente em 720p, 1080p e outras resoluções indica que o modo
usado é progressive scan. Se for utilizado interlaced scan, a letra aplicada é 'i' (por
exemplo, 1080i). O número, por sua vez, indica a quantidade de linhas de pixels na
vertical. Isso significa que a resolução 1080p, por exemplo, conta com 1080 linhas
verticais e funciona com progressive scan. Eis algumas resoluções comuns:
Pág
ina1
9
480i = 640x480 pixels com interlaced scan;
480p = 640x480 pixels com progressive scan;
720i = 1280x720 pixels com interlaced scan;
720p = 1280x720 pixels com progressive scan;
1080i = 1920x1080 pixels com interlaced scan;
1080p = 1920x1080 pixels com progressive scan.
Você já deve ter ouvido falar do termo Full HD (High Definition). Esta expressão, cuja
interpretação seria algo como "Alta Definição Máxima", indica que a tela trabalha na
resolução máxima, que é de 1080p. Isso significa que o dispositivo será capaz de
executar em qualidade máxima vídeos - provenientes de um disco Blu-ray, por exemplo -
preparados para este nível de resolução.
Versões do HDMI
A tecnologia HDMI passou por várias revisões em suas especificações desde a
disponibilização da primeira versão. A vantagem disso é que cada versão adiciona
melhorias à tecnologia. Por outro lado, isso causa confusão e, em determinadas
situações, pode provocar o impedimento do envio do sinal. Esse problema pode ocorrer,
por exemplo, se o dispositivo receptor trabalhar com uma versão inferior à versão
utilizada pelo dispositivo emissor. Para lidar com essa possibilidade, a indústria
desenvolveu técnicas que garantem a transmissão dos dados. A diferença é que, se a
transmissão requerer algum recurso existente na versão mais recente, o dispositivo com a
versão anterior não poderá utilizá-la.
- HDMI 1.0: lançado oficialmente no final de 2002, a primeira versão do HDMI é
caracterizada por utilizar cabo único para transmissão de vídeo e áudio com uma taxa
de transmissão de dados de 4,95 Gb/s à uma frequência de 165 MHz. É possível ter até 8
canais de áudio;
- HDMI 1.1: semelhante à versão 1.0, porém com a adição de compatibilidade ao
padrão DVD-Áudio. Lançado em maio de 2004;
- HDMI 1.2: adicionado suporte a formatos de áudio do tipo One Bit Áudio, usados, por
exemplo, em SACD (Super Áudio CD). Incluído suporte à utilização do HDMI em PCs e a
novos esquemas de cores. Lançado em agosto de 2005;
- HDMI 1.2a: lançado em dezembro de 2005, esta revisão adotou as
especificações Consumer Electronic Control (CEC) e recursos específicos para controle
remoto;
- HDMI 1.3: nesta versão, o HDMI passou a suportar frequência de até 340 MHz,
permitindo transmissões de até 10,2 Gb/s. Além disso, a versão 1.3 permite a utilização de
uma gama maior de cores e suporte às tecnologias Dolby TrueHD e DTS-HD Master
Áudio. Essa versão também possibilitou o uso de um novo miniconector (HDMI tipo C -
mini), apropriado a câmeras de vídeo portáteis, e elimina um problema de sincronismo
entre o áudio e o vídeo (lip sync). O lançamento do HDMI 1.3 se deu em junho de 2006;
- HDMI 1.3a e 1.3b: lançado em novembro de 2006 e outubro de 2007, respectivamente,
essas revisões contam com leves alterações nas especificações da versão 1.3 e com a
adição de alguns testes, inclusive em relação ao HDCP, abordado adiante.
Pág
ina2
0
- HDMI 1.4
Esta versão foi anunciada em maio de 2009 e oferece tantas novidades que poderia até
ser chamada de 2.0. Eis suas principais características:
- Capacidade de trabalhar com resoluções de até 4096x2160 pixels;
- Compatibilidade com um número maior de cores;
- Suporte a um canal de retorno de áudio (Áudio Return Channel - ARC);
- Possibilidade de transmissão por meio de conexões Ethernet de até 100 Mb/s (HDMI
Ethernet Channel - HEC), permitindo que dispositivos interconectados compartilhem
acesso à internet;
- Melhor suporte para tecnologias de imagens em 3D;
- Padronização para transmissão em veículos (aparelhos de DVD de ônibus, por
exemplo).
E não termina por aí, pois o padrão traz consigo novos tipos de cabo:
- Standard HDMI Cable: cabo padrão que suporta transmissões de 1080i;
- High Speed HDMI Cable: cabo para transmissões de 1080p, incluindo suporte a um
número maior de cores e tecnologias 3D;
- Standard HDMI Cable with Ethernet: cabo padrão com suporte à tecnologia Ethernet;
- High Speed HDMI Cable with Ethernet: cabo para transmissões de alta velocidade com
suporte à tecnologia Ethernet;
- Automotive HDMI Cable: cabo apropriado para transmissões em veículos.
O HDMI 1.4 também introduz um novo tipo de conector (HDMI tipo D - micro) de 19 pinos,
que de tão pequeno pode ser facilmente utilizado em dispositivos portáteis, como
câmeras digitais e smartphones.
Proteção de conteúdo por HDCP
Muita gente "torce o nariz" quando descobre o que o HDCP significa e o que representa
para a tecnologia HDMI. Trata-se de uma sigla para High-Bandwidth Digital Copy
Protection, uma tecnologia desenvolvia pela Digital Content Protection, LLC
(pertencente à Intel) com a finalidade de evitar a distribuição ilegal de conteúdo. Seu
funcionamento se dá, basicamente, da seguinte forma: o source (dispositivo emissor) se
comunica com o sink (dispositivo receptor) por meio de um canal denominado Display
Data Channel (DDC) para conhecer a sua configuração e obter um código de
autenticação.
Esses dados ficam armazenados em um chip denominado Extended Display
Identification Data (EDID). Se os códigos de ambos os aparelhos forem compatíveis, o
source obtém um novo código e o envia ao sink. O envio e o recebido das informações
de um dispositivo para o outro é feito com base nesse código. Esse código é checado
em um determinado intervalo e, se alguma anormalidade for encontrada, a transmissão
é interrompida. Isso pode ocorrer, por exemplo, se um terceiro dispositivo tentar receber
os dados da conexão.
A indústria implementou esse esquema no HDMI para evitar a pirataria, mas para muita
gente essa não é a melhor maneira de lidar com o problema e, assim todas as medidas
de segurança rigorosas, o usuário honesto é que pode ser prejudicado. Se a obtenção
da chave de autenticação falhar por algum motivo, mesmo o usuário não tendo
qualquer responsabilidade sobre isso, ele não conseguirá visualizar o seu vídeo. Em
alguns casos, o usuário descobre que se desconectar e reconectar os aparelhos talvez
tudo funcione, uma prática lamentável para uma tecnologia tão avançada.
Pág
ina2
1
CHIPSET
É um conjunto de chips que controlam o tráfego de dados dos barramentos na placa
mãe. Os dois chips principais são:
Ponte Norte (Northbridge)
Controla o “tráfego nobre” da placa mãe: CPU, memória RAM, placa de vídeo e os
barramentos PCI Express X1 e X16.
Ponte Sul (Southbridge)
Controla os barramentos menos rápidos, tais como: IDE, SATA, PCI, USB, PS/2, Serial,
Paralelo.
Pág
ina2
2
PERIFÉRICOS
Periféricos são os dispositivos conectados ao computador e classificados de acordo com
a transferência de dados que permitem. São eles:
DE ENTRADA
DE SAÍDA
No capítulo das impressoras...destacam-se os tipos:
Pág
ina2
3
1. Impressora de impacto – matricial
Existem dois tipos de impressora matricial, as chamadas
“matriz de pontos” e as “margaridas”. A diferença entre elas
é que a segunda possui um mecanismo de impressão
semelhante ao da máquina de escrever, no qual uma fita é
pressionada no papel a fim de imprimir a letra, daí o nome
“de impacto”, enquanto a primeira utiliza um mecanismo de
agulhas para formar a letra e imprimi-la.
Este tipo de impressora é bastante utilizado para a impressão
de folhas de pagamento, e também por lojas e
transportadoras, para emissão de notas fiscais.
2. Impressora de jato de tinta
Nestes tipos de impressoras, a impressão é feita por meio de centenas de gotas muito
pequenas de tintas, as quais são liberadas a partir de uma minúscula abertura existente
nos cartuchos de tintas. O esquema de cores empregado por estes equipamentos é o
CMYK, sigla que identifica as cores Ciano, Magenta, amarelo (Yellow) e preto (Black).
Estas impressoras são muito comuns em ambientes domésticos e também escritórios,
uma vez que oferecem uma impressão de boa qualidade e também fidelidade às cores,
além de serem mais baratas que as demais. Epson, HP e Lexmark são as principais
marcas quando se fala de impressoras jato de tinta. Atualmente alguns modelos
oferecem um “tanque de tinta” localizado na parte externa da impressora, que pode ser
preenchido facilmente pelo usuário, poupando assim a compra de novos cartuchos!
Eu não uso impressora HP
nem se me derem de graça! Risos...!
3. Impressora a laser
Mais comum em ambientes corporativos, as impressoras a laser oferecem impressões de
excelente qualidade e em velocidade bem superior às “jato de tinta”. Elas utilizam um
toner no lugar do cartucho de tinta, o qual contém um pó extremamente fino que,
quando aquecido, gruda no papel e permite que a imagem, ou texto, seja “fixado” na
folha.
Pág
ina2
4
Existem dois tipos de impressoras a laser, as coloridas e monocromáticas. A primeira
delas, obviamente, permite a impressão de imagens e textos coloridos. Já a versão
monocromática só permite a impressão de imagens e textos na cor preta ou em tons de
cinza, além de ser um pouco mais barata que a colorida. Assim como na "jato de tinta",
a Epson, HP e Lexmark são as principais marcas para impressoras a laser.
4. Impressora térmica
Este tipo de impressora requer um tipo de papel especial,
chamado papel térmico. O seu funcionamento é simples:
quando a cabeça térmica passa sobre o papel, este fica
escuro nas regiões onde é aquecido, produzindo assim a
imagem, ou texto.
Este tipo de impressora caiu em desuso e o fax tradicional,
daqueles que operam com rolo de “papel para fax”, as
impressoras de cupom fiscal de supermercados e as das
cabines de pagamento de pedágio são o que restou de
lembrança das impressoras térmicas.
5. Plotter
Existem dois tipos de plotter, os de
corte e os de impressão. O plotter de
corte apenas recorta os desenhos em
papéis especiais, muito úteis para criar
adesivos. Os plotters de impressão, por
sua vez, trabalham com impressões em
grande escala e alta qualidade. Elas
são as responsáveis pelos banners e
faixas que vemos pela rua.
Obviamente, este tipo de máquina é
destinado a empresas de plotagem.
Os plotters do tipo impressão
normalmente fazem uso da tecnologia
Pág
ina2
5
jato de tinta para a criação dos banners e faixas. Claro que tudo adaptado para a
dimensão da máquina.
6. Impressoras de cera sólida
Este tipo de impressora utiliza cilindros de cera, no esquema de cores CMYK (Ciano,
Magenta, Yellow e Black). Uma cabeça contendo diversos pinos derrete a cera e
também é responsável pela fixação deste material no papel. Apesar de não ser muito
conhecida dos usuários, esta impressora ainda é bastante utilizada, principalmente para
a impressão de transparências e slides profissionais.
7.Impressora de sublimação
Como o próprio nome sugere, esta impressora
trabalha com a sublimação do material que substitui o
cartucho de tinta. Este material é um filme (película)
com as cores CMYK que, quando aquecido, se
transforma em gás e é aderido pelo papel, no qual é
então fixo.
Em geral estas impressoras utilizam papéis especiais,
mas há modelos que trabalham com folhas comuns
também. Obviamente, o papel utilizado influencia
diretamente no resultado da impressão.
Aplicações de artes gráficas em geral fazem uso
deste tipo de impressora, já que além de imprimir no
papel, a tinta em gás também adere em PVC
(crachás), alumínio, aço inox e até tecidos de poliéster. Seu custo, no entanto, é
bastante elevado.
Pág
ina2
6
8.Impressora 3D ou de Prototipagem rápida
São as mais modernas impressoras que antes só estavam disponíveis para as indústrias,
também estão sendo fabricadas para uso doméstico. Trabalha com um polímero que é
derretido e aplicado em várias camadas até compor o objeto em 3D por completo.
Algumas, como esta abaixo, permitem ao usuário imprimir partes para construir uma
outra impressora, deste modo você compra uma, imprime outra e vende!
Assista um vídeo interessante
sobre este tipo de impressora
aqui:
https://vimeo.com/5202148
Pág
ina2
7
DE ENTRADA E SAÍDA
Geralmente os dispositivos de armazenamento (HD, Pendrive, etc.…) e os
dispositivos de comunicação (Modem, placa de rede) são periféricos de
entrada e saída ao mesmo tempo!
Pág
ina2
8
TIPOS DE MEMÓRIAS
MEMÓRIAS PRIMÁRIAS, CENTRAIS OU PRINCIPAIS (Reais)
São as memórias onde nós usuários não armazenamos dados, não gravamos as nossas
informações nelas. São de uso do computador para suas atividades. Nesta categoria
temos as memórias RAM e ROM.
1 - Memória ROM
(Read Only Memory – Memória Somente de Leitura)
Essa memória é um microchip, que vem gravado de
fábrica com alguns programas (firmware) e somente
pode ser usada para leitura dos seus dados. Não é
volátil, ou seja, seu conteúdo não é apagado após a
retirada da fonte de energia que a alimenta.
Sua função é realizar testes e rotinas básicas para o
bom funcionamento do computador, verificando os
itens de hardware antes mesmo que o sistema
operacional esteja carregado.
Algumas das funções e termos associados à ROM:
POST (Power On Self Test) – é um teste feito para verificar o funcionamento e a presença
de memória RAM, identificar a configuração do computador e testar os principais
periféricos de entrada do computador (é o primeiro teste básico). Caso encontre algum
problema em algum componente de hardware, a memória ROM vai emitir bips para
informar aonde é o defeito...por isso sua máquina às vezes fica sem imagem ao ser
ligada e fica apitando...ela na verdade está te dizendo: Socorro...estou com problemas!
Um bom técnico sabe o significado dos bips e já vai direto ao problema. Tipo: 3 bips é
problema na RAM, 8 Bips é problema na placa de vídeo, .... Você não precisa decorar
esses bips...Risos!
BIOS (Basic Input/Output System) – Verifica os barramentos de comunicação e se os
demais componentes do computador estão funcionando perfeitamente.
SETUP – Permite a configuração e os ajustes
de hardware a serem feitos no computador.
Geralmente se entra no setup pressionando
DEL ou F2 ao ligar o micro. O Setup permite
ao usuário fazer modificações dentre as
opções oferecidas, como uma espécie de
“cardápio” e estas opções são mantidas em
um circuito chamado CMOS
(Complementary Metal Oxide
Semiconductor) que é uma “memoriazinha”
feita para guardar as escolhas do usuário
selecionadas no setup. Como você bem sabe
a ROM não grava nada, por isso a importância do CMOS para “anotar os seus pedidos
Pág
ina2
9
feitos no cardápio do setup” e o CMOS é sustentado eletricamente por uma bateria, tipo
bateria de relógio (daquelas fininhas e redondinhas!), que fica na placa mãe! Por isso
que toda vez que você liga o micro ele sabe os seus pedidos no setup, bem como a
data e a hora, a ordem de boot, .... As vezes esta bateria se esgota (em cerca de 3
anos), daí o relógio do micro atrasa, o calendário se perde...é hora de trocá-la e
reconfigurar o setup!
Nos computadores e outros equipamentos atuais há sempre um chip de memória ROM,
pois os dados básicos do funcionamento do equipamento estão descritos na ROM.….
Como é que você acha, por exemplo, que a sua calculadora de bolso sempre sabe que
o sinal de + serve para somar? Está gravado na ROM dela!
TIPOS DE MEMÓRIA ROM
PROM (Progammable Read Only Memory) – É a memória ROM “virgem”, que ainda não
foi gravada. Seu conteúdo é gravado eletricamente e só pode ser gravado uma única
vez.
EPROM (Electrically Programmable Read Only Memory) – É uma espécie de ROM mais
moderna, encontrada em componentes eletrônicos. Pode ser gravada e regravada por
meio de luz ultravioleta, através de um orifício sobre o chip.
EEPROM (Electrically Erasable Programmable Read Only Memory) – É similar a EPROM,
mas pode ser gravada e regravada por pulsos elétricos que disparam cargas em seus
pinos de contato. Existem fabricantes que disponibilizam os programas para atualização
destas memórias, podendo ser feito até em casa (cuidado!), a chamada atualização de
firmware.
FLASH ROM (Flash Read Only Memory) – São baseadas na EEPROM, podendo ser
apagadas e regravadas com mais velocidade e em apenas alguns trechos, sem a
necessidade de apaga-las completamente, como na EEPROM. São do Tipo: Flash NOR
(Usadas em telefones celulares, rápidas e de acesso aleatório) e Flash NAND (Usadas em
gravadores de mp3, câmeras digitais, rápidas e de acesso sequencial)
2 - Memória RAM
(Random Access Memory – Memória de Acesso Aleatório)
Fica encaixada na placa mãe, é vendida em pentes ou
módulos de memória e deve ser comprada em
quantidade correta estabelecida numa relação entre a
capacidade da placa mãe e do processador. Sua função
é armazenar os dados temporariamente para o
processamento e recebe-los depois, daí ser conhecida
como memória de trabalho. A CPU tem o “direito” de
colocar e retirar dados da RAM sem seguir uma ordem,
como num estacionamento público (“guarde onde quiser,
se estiver vago”), daí seu nome (acesso aleatório). Ela é
Pág
ina3
0
volátil (provisória), ou seja, perde seu conteúdo na ausência de energia. A memória RAM
está intimamente ligada a desempenho do computador, quanto mais você tem, melhor
para o processador (mas deve-se respeitar o limite!), pois praticamente todos os
programas (softwares) necessitam dela para trabalharem, tipo: os programas “moram”
no HD mas usam a RAM para rodar! Por isso alguns programas exigem uma quantidade
mínima de RAM para serem instalados. Por exemplo, o Windows 7 exige cerca de 2GB de
memória RAM para funcionar!
Seus principais tipos são:
RAM ESTÁTICA (SRAM): É um tipo de memória RAM que armazena os dados binários
(zeros e uns) em pequenos circuitos chamados FLIP-FLOPS (conjunto complexo de
transistores que realizam operações lógicas). Pelo fato desta memória ser complexa, ela
é usada geralmente para fazer memória cache. É muito rápida e cara.
RAM DINÂMICA (DRAM): É uma memória RAM que armazena seus bits como cargas
elétricas em capacitores (componentes elétricos que funcionam como pequenas
“pilhas”, armazenando carga elétrica). Por ser uma memória mais simples de fabricar do
que uma SRAM, a DRAM é o tipo de memória mais usado em um computador (é a nossa
Memória RAM propriamente dita!). Atualmente estão sendo utilizados, como memória
RAM principal alguns subtipos de DRAM (Ex.: SDRAM, DDR, DDR2, DDR3)
Confira abaixo um pequeno quadro com as diferenças entre os tipos mais usados de
DRAM:
Para a execução de jogos, por exemplo, uma boa quantidade de memória RAM de alta
qualidade é essencial, já que neste tipo de aplicativo, os arquivos são acessados a todo
tempo, para que sejam carregadas texturas, modelos, animações e outros tipos de
dados exibidos a todo instante. Se o processador depender de acesso ao disco rígido ou
a outro tipo de armazenamento, a velocidade e agilidade características de um jogo,
serão comprometidas.
Algumas memórias RAM podem ser classificadas também quanto ao seu encaixe na
placa mãe, Nos micros atuais, as memórias RAM obedecem ao formato DIMM (Dual In-
line Memory Module). Esse formato utiliza o nome DIMM seguido do número de vias
(contatos elétricos) do módulo, Exemplo: SDRAM - DIMM/168, significa que tem 168 pinos
de encaixe.
Outros formatos de módulos de memória são o SIMM (Single In-line Memory) e o RIMM. O
padrão SIMM era utilizado em módulos de memória antigos, até 1998. Essas memórias,
Pág
ina3
1
anteriores às SDRAM, utilizavam as tecnologias FPM (Fast Page Mode) e EDO (Extended
Data Out), hoje completamente ultrapassadas.
3 - Memória Cache
É uma memória que atua como
atalho ou ponte para que o
processamento seja executado
mais rápido. Ela diminui o tempo de
espera que ocorre quando um
processador busca ou acessa
dados na RAM. Trabalha com
altíssima velocidade (lembra? É um
tipo de SRAM). Quando o
processador precisa de um dado
na RAM, o controlador de cache
transfere os dados mais requisitados
ou mais recentes da RAM para a memória cache. No próximo acesso feito pelo
processador ele busca na cache, que por ser mais rápida que a RAM, permite ao
processador ter os dados mais rapidamente lidos. Enquanto o processador está lendo os
dados da cache, o controlador de cache se encarrega de buscar mais dados na RAM
para manter a cache bem suprida! Imagine o processador como um “bebê cheio de
manias” que deve ser sempre atendido em suas necessidades, a cache é a sua “babá”
que fica a disposição para servi-lo rápido, se não o “bebê” reclama!
Quando um dado é encontrado pelo processador na cache, isto é chamado de cache
hit (acertou..achou! Palmas...clap..clap..clap!), quanto mais acertos, melhor é o
desempenho e mais rápido é o processamento.
Quando um dado não é achado na cache, chamamos de cache miss ou faut
(errou...não achou! Úúúúú..vaias!), daí tem que procurar lá na RAM, que é mais
lenta…quanto mais erros, mais lento é o processamento.
Vale lembrar que a memória cache também é volátil e ela pode ser encontrada no
próprio processador ou na placa mãe.
Cache é um termo francês que significa “escondido”, está dividida em quatro grupos ou
níveis: L1 (nível 1) – acessada primeiro, L2 (nível 2), L3 (nível 3) e L4 (nível 4) dois primeiros
tipos dessa memória estão armazenados no próprio processador (L1) e (L2), outros dois
tipos mais recentes encontram-se na placa mãe (L3) e (L4). Os dois últimos tipos, como
estão na placa mãe, não trabalham na mesma frequência do processador. Os novos
processadores da INTEL já estão incorporando o nível 3 (L3) dentro da sua estrutura. O
tamanho médio de memória cache L2 dentro do processador é 1MB.
4 – Registradores
Registradores são pequenos endereços de memórias localizadas dentro do núcleo da
CPU. São as memórias mais rápidas de um computador e sua função é o
armazenamento local e temporário (volátil) dos dados que estão sendo processados.
Pág
ina3
2
Quando a CPU, por exemplo, precisa fazer a soma de dois valores que estão na
memória principal, ela armazena esses valores nos registradores, efetua a soma,
armazena o resultado novamente nos registradores e finalmente o envia de volta à
memória principal.
5 – Memória Virtual
Já reparou que quando ligamos o micro gostamos de fazer tudo ao mesmo tempo,
abrindo vários programas! Imagine que você está trabalhando com o Photoshop, o
CorelDraw e o Power Point abertos. Além disso, abriu um documento do Word, e está
vendo fotos com o visualizador de imagens do Windows. Como se não bastasse, está
também ouvindo músicas em mp3, navegando na internet, imprimindo um texto em PDF
e agora...tchan, tchan, tchan!!! .....Resolveu gravar um DVD com um filme para o fim de
semana! A essa altura do campeonato, é provável que a quantidade de programas e
arquivos abertos tenha ultrapassado a capacidade máxima de armazenamento da
memória principal (RAM). Sua máquina está pedindo socorro!!!
Como bem sabemos, todo programa aberto pelo sistema operacional é carregado na
memória RAM. Da mesma forma, os arquivos nos quais estamos trabalhando ou fazendo
alterações, como planilhas, documentos de texto e edição de imagens, vão sendo
guardados temporariamente nessa memória. Com o exemplo dado no parágrafo acima
é fácil afirmar que a quantidade de memória principal do computador esteja
praticamente esgotada.
Nestes casos o sistema operacional solicita um empréstimo (memória virtual), um espaço
alocado geralmente ao HD, fazendo com que ele funcione como um complemento da
memória RAM...é bem parecido com o “Cheque especial”...tipo: a grana acabou,
então vamos pegar emprestado!
Quando instalamos o sistema operacional no computador, automaticamente ele já
reserva um espaço no disco rígido para o funcionamento da memória virtual. Se for
necessário, os dados que estavam guardados na memória principal serão transferidos
para o disco rígido formando então mais um nível físico de memória a ser consultado
pela CPU. Assim, a CPU procura um dado requerido primeiramente na memória cache.
Não o encontrando, faz a busca na memória RAM e, dependendo das condições de
uso no momento, procede à busca na memória virtual, que fica no disco rígido.
O uso da memória virtual é péssimo para o computador, pois ele fica muito mais lento e
para o HD que é obrigado a trabalhar mais, fingindo que é RAM. A forma mais comum
de uso da memória virtual é a utilização de um arquivo de troca, ou Swap file (também
chamado de arquivo de paginação) no disco rígido.
Pág
ina3
3
MEMÓRIAS SECUNDÁRIAS, AUXILIARES, DE MASSA OU DISPOSITIVOS DE ARMAZENAMENTO
São as memórias aonde nós guardamos nossos dados e arquivos. Não são voláteis, isto é,
não perdem os dados na ausência de energia.
Podemos classificar basicamente as memórias secundárias em três grupos:
1 - Armazenamento Magnético
Hard Disc (HD, HDD ou Winchester)
O disco rígido é uma pilha de pratos de metal
(geralmente alumínio, revestidos de óxido de
ferro), que gira sobre um eixo movido a motor,
podendo chegar a mais de 7200 rotações por
minuto. A leitura ou gravação é feita por um braço
mecânico com diversas cabeças que se movem
simultaneamente, de forma que possam acessar
qualquer parte dos discos. Tudo isso é fechado
dentro de uma câmara de vácuo e selada para
não ficar exposto a partículas em suspensão...leia-
se poeira!
Cada face de um disco de um HD é dividida em
uma série de círculos chamados de trilhas. Trilhas
parecem-se muito com as faixas de um LP
(Lembra? O bolachão de Vinil...!). Discos rígidos
modernos possuem milhares de trilhas em cada
face.
Cada trilha, por sua vez, é dividida em setores.
Pense num disco, já dividido em trilhas, sendo
fatiado como se fatia uma pizza. Cada pedaço
resultante dessa divisão é um setor. Ainda sobre setores, podemos concluir:
• o setor é a menor unidade com a qual o disco trabalha, portanto deve ser gravado ou
lido sempre inteiro. Quer dizer, se for necessário alterar apenas um byte dos 512 bytes de
um setor, todo o setor é regravado.
• cada setor armazena 512 bytes (meio KB).
• discos rígidos antigos possuíam um número de setores igual em todas as trilhas.
• discos modernos possuem mais setores nas trilhas mais externas.
No tocante a capacidade, os HDs de hoje facilmente encontrados nas lojas pelo centro
da cidade, armazenam em média entre 120GB a 4 TB.
Pág
ina3
4
Disquete, Disco Flexível ou Floppy Disc
Um disco flexível de 3 e ½
polegadas armazena até 1,44
MB. Já está ultrapassado, mas
ainda encontramos unidades
de discos flexíveis, o famoso
disquete, em praticamente
qualquer micro no serviço
público...risos! Uma observação: o drive que lê e
grava dados em disquetes muitas vezes aparece
apenas com a sigla FDD, de Floppy Drive Disk.
No passado os discos flexíveis existiram em tamanhos
variados. Atualmente é difícil encontrarmos um disquete que não seja o de 3 e ½". Há
alguns anos, entretanto, era comum termos computadores com duas unidades de
disquete: um de 3 e ½" e outro de 5 e ¼".
A maioria dos leitores/gravadores de disquetes são embutidos no gabinete do
computador. Entretanto, ainda existem unidades externas ligadas pela porta USB,
principalmente para uso com notebooks.
Fitas Magnéticas ou fitas de BackUp
As fitas magnéticas são muito utilizadas até hoje
para backup de dados. Existem vários formatos
desse tipo de mídia. Como são usadas e
voltadas para o mercado corporativo, é
comum que existam vários formatos e
equipamentos de gravação e leitura de fitas.
No entanto, o formato mais popular é o a fita
DAT (Digital Áudio Tape). Inicialmente
projetada para áudio, foi adotada para
armazenamento de dados e pode guardar de
1,3 a 72GB em fitas de 60 a 170 metros,
dependendo do formato em que são gravados
os dados.
Podemos lembrar de outros formatos como o DLT (Digital Linear Tape) e o LTO (Linear
Tape-Open). Este último é um formato aberto em oposição ao caráter proprietário do
primeiro. Uma fita LTO pode armazenar até 800GB.
É importante lembrar que fitas são dispositivos de armazenamento sequencial, isto é,
para ler um dado que está no final da fita, tem-se que passar por toda sua extensão,
obrigatoriamente. Por esse motivo, seu uso é praticamente limitado ao backup.
Pág
ina3
5
2 - Armazenamento Óptico
CD – Compact Disc
Usa uma tecnologia padronizada nos anos 90, que
aplica um laser para a leitura e gravação de dados.
Armazenam quantidades superiores de dados em
comparação com os disquetes e possuem maior
durabilidade, pois não são magnéticos e não
apresentam praticamente nenhum desgaste. O laser
reconhece as diferenças de reflexão da luz quando
toca a superfície do disco no momento da leitura,
essa reflexão é causada pelos minúsculos orifícios
“queimados”, por isso em inglês se diz: “Burn a CD”! O
Laser no momento da gravação faz pequenos furinhos, queimando o plástico.
Em média os CDs armazenam cerca de 700 MB e temos os seguintes tipos:
CD-ROM: (compact disc read only memory) só pode ser lido, pois já vem gravado de
fábrica, como por exemplo os CDs de músicas, programas.
CD-R: Só pode ser gravado (escrita de dados) uma vez se for finalizado, mas lido
inúmeras vezes. Existe um termo em inglês para esse tipo de memória que é “Write Once,
Read Many”. Na verdade, podemos gravar um CD-R várias vezes, mas nunca podemos
sobrescrever ou apagar algum dado previamente gravado. Quando gravamos arquivos
em um CD-R, temos a opção de não o finalizar (gravando-o em multisessão). Optando
por não o finalizar, podemos gravar outros arquivos posteriormente, mas somente na
área que ainda não houve gravação, na área livre. Uma vez gravado um arquivo em
um CD-R, ele não pode mais ser apagado.
CD-RW: Distingue-se do CD-R pela possibilidade de ter o seu conteúdo apagado para
posteriormente receber novos dados. Antes de finalizá-lo, o comportamento é igual ao
de um CD-R, entretanto, podemos apagar todo o seu conteúdo a qualquer momento o
deixando pronto para receber dados novamente.
A velocidade de gravação de um CD é medida em X, onde X é uma constante. 1X
equivale a 150 KB/s, que é o padrão de um CD de áudio.
DVD – Digital Versatile Disc
DVDs possuem dois padrões distintos de gravação que já foram muitos explorados em
prova e fazem parte até hoje das dúvidas dos alunos! O DVD-R e o DVD+R.
Não existe nenhuma diferença significativa entre eles. Um DVD- só pode ser gravado/lido
em uma gravadora/leitora compatível. O mesmo raciocínio é válido para o
DVD+. As gravadoras modernas, bem como os aparelhos domésticos de DVD podem
manipular os dois formatos, tornando essas diferenças imperceptíveis para o usuário.
Existem vários tipos de DVDs, mas no geral sua capacidade é de 4,7GB, comumente
cobrado em prova.
Pág
ina3
6
Os demais tipos de DVDs e capacidades são:
- DVD5: 4,7 GB, 133 minutos de vídeo (uma camada, um lado);
- DVD9: 8,5 GB, 240 minutos de vídeo (duas camadas – dual layer, um lado);
- DVD10: 9,4 GB, 266 minutos de vídeo (uma camada, dois lados).
- DVD18: 17 GB, 480 minutos de vídeo (duas camadas - dual layer, dois lados).
Nos DVDs, temos os mesmos tipos no tocante à gravação, como nos CDs: DVD-ROM,
DVD-R e DVD-RW.
Para ler os dados das camadas, o sistema de leitura do DVD-ROM ou DVD Players,
controlam o feixe do laser com focos e intensidades diferentes. Você já deve ter
observado que durante a exibição de vídeos em DVD, pode haver uma pequena pausa
no momento em que a unidade troca de uma camada para outra.
Por questões de mercado, os DVDs de vídeo lançados em todo o mundo foram
codificados em seis áreas regionais. Assim, um título lançado para uma determinada
área, só pode ser acessado em equipamentos da área correspondente (isto atualmente
pode ser quebrado facilmente...risos... usando um código).
A velocidade padrão, 1x dos drives de DVD é de cerca de 1350 KB/s, equivale a 9X do
CD.
Pág
ina3
7
BLURAY DISC
Muitos se perguntam: “por que esta nova tecnologia se chama
Blu-ray e não Blue-ray, ou Yellow-ray ou qualquer outra cor? ” O
nome Blu-ray se deve pelo fato de que, em primeiro lugar, o
raio utilizado para a gravação dos dados no disco é azul, desta
forma temos um raio azul, ou seja, um blue ray. Contudo, o E da
palavra blue teve de ser retirado porque é uma palavra de uso
contínuo, sendo assim, o blue virou blu, visto que uma palavra
desta categoria não pode ser uma marca comercial.
Um disco Blu-ray comum pode armazenar entre 25 GB ou 50 GB e, em alguns casos, este
valor pode chegar até aos 100 GB. Um disco Blu-ray possui as mesmas dimensões de um
DVD e de um CD, então como ele consegue armazenar muito mais dados que os outros
discos?
A diferença crucial entre mídia versus capacidade é o laser utilizado na gravação de
dados. Um CD usa um feixe de luz vermelha com comprimento de onda de 780
nanômetros, já o DVD, também usa um feixe de luz vermelha, mas de 650 nanômetros,
enquanto o Blu-ray usa um feixe azul de comprimento de onda de 405 nanômetros.
A simples diferença nas cores do laser permite que o feixe seja direcionado com maior
precisão, desta forma um feixe azul que possui menor comprimento de onda, consegue
“riscar” uma parte menor do disco, mas armazenar os mesmos dados.
O comprimento de onda de um feixe de luz pode ser comparado à ponta de uma
caneta, onde um pincel atômico seria um CD, uma caneta esferográfica um DVD e uma
caneta ponta fina um Blu-ray. Como a ponta das três canetas é diferente, se as usarmos
para escrever a mesma palavra, o tamanho ocupado pelas letras irá depender do
tamanho da ponta da caneta.
Pág
ina3
8
Por que armazenar mais dados, o DVD já não era o bastante?
A chegada dos televisores em alta definição exige que os arquivos sejam muito mais
pesados, pois precisam oferecer uma resolução de áudio e vídeo muito maiores. Desta
maneira, armazenar um filme em HD em um disco de DVD faria com que o arquivo
ainda não atingisse uma qualidade de reprodução compatível com as novas
tecnologias dos televisores, tendo em vista que os DVDs são gravados através de
formato de compressão de dados chamado MPEG-2. Este formato baseia-se na perda
de dados em detrimento do espaço, e com isso a qualidade não é a mesma de que se
o vídeo fosse visto de forma não comprimida. Desta maneira, o Blu-ray surgiu para
solucionar o problema de espaço e permitir que a qualidade das imagens e áudio seja
compatível com os novos eletroeletrônicos.
3 - Memórias Flash ou Eletrônicas
As memórias Flash estão desenvolvimento, ficando cada vez mais populares e baratas.
Por isso, sua capacidade de armazenamento tem crescido bastante em um curto
espaço de tempo. Atualmente, essa capacidade pode variar de alguns poucos
megabytes (16, 32, 64) a 4GB ou mesmo 300GB.
Os principais representantes desta categoria são:
Pendrives
USB flash drive ou Memória USB Flash Drive, comumente
conhecido como pen drive, é um disco removível e um
dispositivo de armazenamento constituído por uma
memória flash tendo aparência semelhante à de um
isqueiro ou chaveiro e uma ligação USB tipo A macho,
permitindo a sua conexão a uma porta USB de um
computador ou outro equipamento com uma entrada
USB. As capacidades atuais de armazenamento são
variadas, existindo pen drives com capacidade de até
300GB. A velocidade de transferência de dados pode variar dependendo do tipo de
entrada, sendo a mais comum a USB 2.0 e a mais recente a USB 3.0. Eles oferecem
vantagens potenciais com relação a outros dispositivos: são mais resistentes devido a
ausência de peças móveis, leves e menores. Os drives flash utilizam o padrão USB mass
storage ("armazenamento de massa USB" em português), nativamente compatível com
os principais sistemas operacionais, como o Windows, o Mac OS X, o Linux, entre outros.
Em condições ideais, as memórias flash podem armazenar informação durante dez anos.
Cartões de Memória
Cartão de memória ou cartão de memória flash é um
dispositivo de armazenamento de dados com memória
flash utilizado em videogames, câmeras digitais, telefones
celulares, palms/PDAs, MP3 players, computadores e
outros aparelhos eletrônicos. Podem ser regravadas várias
vezes, não necessitam de eletricidade para manter os
dados armazenados, são portáteis e suportam condições
de uso e armazenamento mais rigorosos que outros
dispositivos baseados em peças móveis. Existem vários
tipos: SD, Mini-SD, Micro-SD, MMC, xD-Picture Card, Memory Stick e capacidades
distintas.
Pág
ina3
9
SSD – Solid State Disc
SSD, sigla do inglês solid-state drive, que significa unidade de
estado sólido, é um tipo de dispositivo sem partes móveis
para armazenamento de dados digitais. Tipicamente, são
construídos em torno de um circuito integrado e há ainda os
que usam memória flash (estilo cartão de memória SD de
câmeras digitais).
O SSD é o futuro substituto do HD, veja por que:
Tempo de acesso reduzido, uma vez que o tempo de acesso
à memória RAM é muito menor do que o tempo de acesso a
meios magnéticos ou ópticos.
Eliminação de partes móveis eletro-mecânicas, o que reduz
vibrações e os torna completamente silenciosos;
Por não possuírem partes móveis, são muito mais resistentes
que os HDs comuns, contra choques e impactos, o que é
extremamente importante quando se fala em computadores
portáteis;
Menor peso em relação aos discos rígidos; Consumo reduzido de energia;
Possibilidade de trabalhar em temperaturas maiores que os HDs comuns - cerca de 70°
C; Taxa de dados superior aos demais dispositivos, com dispositivos apresentando
250MB/s na gravação e até 700MB/s nas operações de leitura.
Saiba mais sobre este assunto assistindo um vídeo:
https://www.youtube.com/playlist?list=PLEyZDtFKZzU42mRSVqSrGRarAOHVFV802
EQUIPAMENTOS DE PROTEÇÃO
Estabilizador
Os estabilizadores de voltagem corrigem a tensão elétrica
para reduzir os chamados “picos de tensão”, provocados por
descargas elétricas em dias de chuva com raios e também
protegendo o computador das influências de outros
equipamentos que geram alteração elétrica (Chuveiros
elétricos, motores de geladeira ou liquidificador, compressores
do ar condicionado), mas de qualquer forma não oferece
nenhuma proteção contra perda de dados por desligamento
acidental ou por falta de energia.
Um estabilizador de boa qualidade, deve oferecer proteção contra raios, mas apenas se
for ligado a um fio terra, caso contrário será inútil. Uma forma de tentar diferenciar os
estabilizadores é pelo peso, os estabilizadores muito leves ou muito baratos quase
sempre são de baixa qualidade, pois são desprovidos de vários componentes essenciais.
Os mais baratos, que costumamos encontrar à venda por 30 ou 40 reais não servem para
absolutamente nada.
Pág
ina4
0
No-breaks
O No-Break, tecnicamente
conhecido por UPS -
Uninterruptable Power Supply e
tem como função principal o
suprimento temporário de
energia ao sistema, fazendo isso
de forma automática em caso
de falha na transmissão elétrica.
São usualmente ligados a
equipamentos de informática
como micros, impressoras,
servidores, mainframes, etc.
Quanto mais crítico for o
abastecimento de energia
elétrica, mais necessário é o No-
Break.
O No-Break além de evitar que os usuários percam seus dados no caso de uma falha de
energia, pois você poderá continuar trabalhando até que as baterias do no-break se
esgotem, com tempo suficiente para salvar seus documentos e desligar tranquilamente
o micro, também protege o equipamento contra descargas estáticas e variações da
rede elétrica, prolongando a vida útil do equipamento nele ligado.
Os No-Breaks estão divididos em três categorias: podem ser do tipo On-Line, Stand- By ou
Line-lnteractive. Assim como qualquer outro equipamento, à medida que se ampliam
seus recursos, o preço também aumenta. Por exemplo, um modelo On-Line de 6 kVA de
potência, pode custar mais de 3.000 dólares. Já um modelo Line-lnterativo pode custar
cerca de 300 dólares. É importante não confundir o No-Break com estabilizador de
voltagem. Enquanto o estabilizador de voltagem corrige a tensão elétrica, o No-Break
produz corrente e também estabiliza e filtra a tensão.
Com respeito às categorias, as diferenças técnicas entre elas são:
On Line: A rede só é alimentada pelas baterias. Os on-line, são melhores, pois neles
a bateria é alimentada continuamente e o computador é alimentado
diretamente pela bateria, tendo um fornecimento de energia 100% estável.
Off Line ou Stand By: Alimentação pela rede elétrica, passando pela bateria em
caso de queda. Os off-line, a energia da toma é enviada diretamente para o
computador, a bateria só é usada quando a energia é cortada, não oferecendo
uma proteção tão estável quanto o modelo on-line.
Pág
ina4
1
Um no-break geralmente vem com duas luzes indicadoras: "rede" ou "bi-pass" e "Battery".
A primeira indica que a energia da tomada está sendo repassada para o computador
(off-line) enquanto a segunda indica que está sendo usada a bateria (on-line). Se a luz
indicadora de rede ficar acesa continuamente, se apagando apenas quando a energia
da tomada for cortada, então você possui um no-break off-line.
Line-lnteractive (Linha Interativa): Trata-se de um meio-termo entre o tipo Off Line e
o On Line. Neste modelo, o inversor (dispositivo que converte a corrente contínua
das baterias em corrente alternada), trabalha em paralelo com a rede,
fornecendo parte da energia necessária. Em caso de falha, este No-Break assume
a carga total da alimentação
Os No-breaks de hoje são inteligentes!
O No-Break inteligente é aquele tipo comandado por Software. Ele envia para a tela do
micro mensagens que alertam o usuário sobre o tempo restante da energia,
possibilitando que o usuário feche os arquivos antes de extinguir por completo a carga
da bateria. De acordo com a sofisticação do Software, o programa pode até emitir
relatório sobre as últimas ocorrências de interrupção da rede elétrica e até mesmo
apresentar um autodiagnostico.
Ufa! Com isso fechamos aqui a nossa aula,
bem como todo o conteúdo de
microinformática (Hardware e componentes)
do nosso edital. Não deixe de resolver as
questões que estão na próxima página! Se
quiser mais questões e dicas, acesse:
www.facebook.com/groups/informaticasemmedo/
Até o nosso próximo encontro!
Pág
ina4
2
Questões para fixação:
Ano: 2015 - Banca: Prefeitura do Rio de Janeiro
1 - A figura abaixo ilustra um pendrive e o conector que esse dispositivo utiliza na
integração dos recursos de um microcomputador.
Uma capacidade de armazenamento bastante comum para os pendrives atuais e a
sigla pelo qual é conhecido o conector indicado acima são, respectivamente:
a) 16 TBytes e HDMI
b) 16 GBytes e USB
c) 8 GBytes e HDMI
d) 8 TBytes e USB
Ano: 2014 - Banca: Prefeitura do Rio de Janeiro
2 - Atualmente existem diversos dispositivos que são integrados à configuração dos
computadores: uns que operam exclusivamente na entrada ou na saída de dados, e
outros que podem atuar tanto na entrada como na saída, dependendo do instante em
que ocorre a transação. Dos dispositivos que operam exclusivamente na entrada e na
saída são exemplos, respectivamente:
a) scanner e pendrive
b) isostick e plotter
c) scanner e plotter
d) isostick e pendrive
Ano: 2014 - Banca: Prefeitura do Rio de Janeiro
3 - Os discos rígidos empregados na configuração de computadores precisam ter uma
capacidade de armazenamento que atenda aos requisitos básicos para um
funcionamento satisfatório dessas máquinas. Atualmente, a capacidade máxima desses
dispositivos é igual ou próxima do seguinte valor:
a) 1 TBytes
b) 500 MBytes
c) 2048 KBytes
d) 64 PBytes
Gabarito: 1 – B, 2 – C, 3 - A
Top Related