Apostila de manutenção de computadores e rede, Notas de estudo de Informática
paulo-henrique-dias-barros-11
paulo-henrique-dias-barros-11

Apostila de manutenção de computadores e rede, Notas de estudo de Informática

80 páginas
50Números de download
1000+Número de visitas
100%de 0 votosNúmero de votos
Descrição
contém o conteúdo do curso completo.
100 pontos
Pontos de download necessários para baixar
este documento
Baixar o documento
Pré-visualização3 páginas / 80
Esta é apenas uma pré-visualização
3 mostrados em 80 páginas
Esta é apenas uma pré-visualização
3 mostrados em 80 páginas
Esta é apenas uma pré-visualização
3 mostrados em 80 páginas
Esta é apenas uma pré-visualização
3 mostrados em 80 páginas

PAGE 41

PAGE 41

UNIDADE CENTRAL DE PROCESSAMENTO

A CPU (Central Processing Unit, ou Unidade Central de

Processamento) é a parte de um computador que interpreta e leva as

instruções contidas no software. Na maioria das CPU's, essa tarefa é dividida

entre uma unidade de controle que dirige o fluxo do programa e uma ou

mais unidades de execução que executam operações em dados.

Quase sempre, uma coleção de registros é incluída para manter os

operadores e intermediar os resultados.

Quando cada parte de uma CPU está fisicamente em um único circuito

integrado ela é chamada de microprocessador. Praticamente todas as CPU's

fabricadas hoje são microprocessadores.

O termo CPU é freqüentemente usado de forma pouco precisa para incluir

outras partes centricamente importantes de um computador, tais como

caches e controladores de entrada/saída, especialmente quando aquelas

funções estão no mesmo chip microprocessador da CPU.

Os fabricantes de computadores de mesa com freqüência equivocadamente

descrevem como CPU o computador pessoal inteiro, chamando-o de a

unidade de sistema ou algumas vezes a caixa branca, incluindo o gabinete

do computador e os componentes sólidos (termo genérico "hardware" em

inglês) que ele contém. Corretamente, a CPU, como unidade funcional, é

aquela parte do computador que realmente executa as instruções (somar,

subtrair, mudar de posição, agarrar, etc.)

Uma família de esquemas (ou desenho interno) de uma CPU é

freqüentemente referida como uma "arquitetura de CPU".

PAGE 41

DISPOSITIVOS DE ENTRADA, SAIDA E ENTRADA/SAIDA

I/O é um sigla para Input/Output, em português "Entrada/Saída". Este termo é utilizado quase que exclusivamente no ramo da computação (ou informática), indicando entrada (inserção) de dados por meio de algum código ou programa, para algum outro programa ou hardware, bem como a sua saída (obtenção de dados) ou retorno de dados, como resultado de alguma operação de algum programa, conseqüentemente resultado de algum input.

Introdução

Consideram-se periféricos todos os dispositivos de um sistema informático que não fazem parte da estrutura interna constituída pelo processador e pela memória interna. Os periféricos são classificados em dispositivos de entrada, de saída, e de entrada/saída.

DISPOSITIVOS DE ENTRADA

Os dispositivos de entrada são dispositivos que canalizam informação do exterior (pessoas, máquinas) para o interior do computador. Estes dispositivos convertem a informação em sequências próprias de bits, capazes de serem interpretadas pelo processador.

Teclado O teclado é o dispositivo de entrada mais cumum, permitindo ao utilizador introduzir informação e comandos no computador.

Mouse O rato é um dispositivo de entrada que permite ao utilizador percorrer e seleccionar itens no ecrã do computador. Este dispositivo envia ao computador as coordenadas do cursor relativas aos movimentos no ecrã e ainda comandos activados pela selecção de itens.

Scanner O scanner é um dispositivo que lê informação impressa em papel (texto e imagens) e a converte num formato digital. Uma vez dentro do computador, essa informação pode ser armazenada, editada ou visualizada num monitor.

PAGE 41

Sensores Os sensores são dispositivos que permitem capturar valores de um dado processo contínuo e convertê-los para o formato digital, de modo a serem processados pelo computador.

Por exemplo, há sensores de temperatura, de velocidade e de luz. Estes dispositivos são utilizados frequentemente em processos de monitorização industrial.

Microfone Um microfone é um dispositivo de entrada que permite introduzir som no computador, para posterior edição e/ou armazenamento. Estes dispositivos encontram-se frequentemente em computadores multimedia.

DISPOSITIVOS DE SAÍDA

Os dispositivos de saída são dispositivos que canalizam a informação do interior do computador para o seu exterior (pessoas, máquinas). A acção destes dispositivos pode envolver a conversão da informação digital, proveniente do computador, para um outro formato.

Monitor O monitor é um dispositivo periférico utilizado para a visualização de informação armazenada num sistema informático.

Data-Show

Os projectores de imagens, ou data-show, são dispositivos que permitem visualizar documentos electrónicos (texto, gráficos, imagens) armazenados num computador.

Estes dispositivos são colocados em cima de um retroprojector, e a sua ligação ao computador faz-se através do conector do monitor.

PAGE 41

Impressoras As impressoras são dispositivos que imprimem no papel documentos electrónicos (texto, gráficos, imagens) gerados ou editados no computador. Há diversos tipos de impressoras, com diferentes funcionamentos, desempenhos e custos.

Audio As colunas de som encontram-se frequentemente em sistemas com funcionalidades multimedia. Estes dispositivos de saída convertem os ficheiros audio, que se encontram na forma electrónica, em sinais de pressão, transmitindo o som resultante.

DISPOSITIVOS DE ENTRADA/SAÍDA Os dispositivos de entrada/saída são dispositivos capazes de canalizar informação do exterior para o interior do computador, assim como do interior para o exterior. A acção destes dispositivos pode envolver a conversão da informação digital, proveniente do computador, para um outro formato, e vice-versa.

Discos Magnéticos

Os discos magnéticos são dispositivos de armazenamento de informação, externos ao conjunto formado pelo processador e pela memória principal. Estes dispositivos são por vezes referidos como memória secundária.

Drives de Discos Magnéticos As drives são dispositivos que leem e escrevem dados nos discos magnéticos, canalizando a informação entre os discos e o processador ou a memória principal. As drives podem ser internas ou externas à unidade de sistema.

Placas de Expansão As placas de expansão são dispositivos que se utilizam para extender as funcionalidades e o desempenho do computador.

Existe uma grande diversidade de placas de expansão, como, por exemplo, placas de rede, de vídeo, de som e de modem.

Modem Um modem é um dispositivo utilizado na ligação de computadores através da rede telefónica pública. O modem converte a informação digital do computador num formato analógico, de modo a poder ser transmitida através das linhas telefónicas, e faz a conversão inversa na recepção de informação da rede.

PAGE 41

PLACA-MÃE

Mainboard, também conhecida por placa-mãe, é considerada o elemento mais importante de um computador, pois tem como função permitir que o processador comunique com todos os periféricos instalados. É na motherboard que encontramos o microprocessador, a memória principal, os circuitos de apoio, a placa controladora, os conectores do barramento e o chipset, que é o pricipal circuito integrado da placa-mãe e é responsável por todas as suas principais características técnicas.

PAGE 41

Tipos de placas-mãe AT Primeiro modelo, criado pela Intel, foi usado pelos fabricantes até meados de 1995/96, sendo substituído pelo formato ATX. O modelo AT tem como principais características para sua fácil identificação. Geralmente só virão os slots ISA, EISA, VESA nos primeiro modelos e, ISA e PCI nos mais novos AT (chamando de baby AT quando a placa-mãe apresenta um tamanho mais reduzido que os dos primeiros modelos AT). Somente um conector "soldado" na própria placa-mãe, que no caso, é o do teclado. Posição dos slots de memória RAM e socket de CPU sempre em uma mesma região na placa- mãe, mesmo quando placas de fabricantes diferentes. Nestas placas dificilmente serão encontrados slots de memória Rambus, DDR ou DDR-II, geralmente somente os slots de memória SIMM ou SDRAM, podendo vir com mais de um dos padrões na mesma placa-mãe. Geralmente nos modelos mais antigos de AT os slots de expansão mais encontrados são os ISA, EISA e VESA, nos modelos mais novos de AT já temos os slots ISA e PCI. Não suporta os processadores mais novos como os AthlonXP, Sempron, AMD64bits, Pentium IV, ou seja, geralmente todos os que trabalhem com FSB(frequência de barramento) maiores que 133MHz. Entrada na própria placa-mãe para padrões de disco rígido IDE somente. Gerenciamento de energia debilitado pois em placas-mãe AT o micro quando desligado, não "desliga sozinho", ou seja, ficará exibida na tela do monitor a mensagem de desligamento padrão do windows até que o micro seja desligado pela chave de desligo encontrada no gabinete.

ATX Modelo criado para suprir os "problemas" do modelo AT, tem como principais características para sua fácil identificação. Praticamente TODOS os conectores estarão soldados na própria placa-mãe. Posição dos slots de memória RAM e socket de CPU variam a posição conforme o fabricante. Nestas placas serão encontrados slots de memória SDRAM, Rambus, DDR ou DDR-II, podendo vir com mais de um dos padrões na mesma placa-mãe. Geralmente os slots de expansão mais encontrados são os PCI, AGP, AMR/ CNR e PCI-Express. Entrada na própria placa-mãe para padrões de disco rígido IDE ou SATA. Gerenciamento de energia quando desligado o micro, suporta o uso do comando "shutdown", que permite o desligamento automático do micro sem o uso da chave de desligamento encontrada no gabinete.Se está placa mãe for alimentada por uma fonte com padrão ATX é possível ligar o computador utilizando um sinal externo como, por exemplo, uma chamada telefônica recebida pelo modem instalado nesta placa. Periféricos • On-board:como o próprio nome diz, o componente on-board vem diretamente conectado aos circuitos da placa mãe, funcionando em sincronia e usando capacidade do processador e memória RAM quando se trata de vídeo, som, modem e rede. Tem como maior objetivo diminuir o preço das placas ou componentes mas, em caso de defeito o dispositivo não será recuperável, no caso de modem AMR, basta trocar a "placa" do modem AMR com defeito por outra funcionando, pois, este é colocado em um slot AMR na placa-mãe. São exemplos de circuitos on-board: vídeo, modem, som e rede.

PAGE 41

• Off-board: são os componentes ou circuitos que funcionam independentemente da placa mãe e por isso, são separados, tendo sua própria forma de trabalhar e não usando o processador, geralmente, quando vídeo, som, modem ou rede, o dipositivo é "ligado" a placa-mãe usando os slots de expansão pra isso, têm um preço mais elevado que os dispositivos onboard, sendo quase que totalmente o contrário em todos os aspectos do tipo on-board, ou seja, praticamente todo o processamento é realizado pelo próprio CHIPSET encontrado na placa do dispositivo.

A placa-mãe pode variar conforme o modelo e fabricante, mas há componentes que se mantêm: • Slots • Conectores • Portas • Bios • Chipset

SLOTS AGP, PCI e ISA A motherboard tem uma imensa variedade de slots e portas para todo tipo de dispositivos . Os slots mais comuns são, o AGP, PCI e ISA (geralmente citados como slots de expansão). Esses slots são usados para permitir upgrade ou adicionar novos hardwares em seu computador. O slot ISA e PCI é na maioria das vezes para som, vídeo (sem uma boa aceleração 3d), rede e etc. já a slot AGP é para uma boa aceleração 3d de vídeo.

AGP ( Accelerated Graphics Port) Slot O slot AGP foi criado para otimizar a performance das placa de video. A entrada AGP só pode ser usada por placas de video de aceleração 3d. Também aceita placas de vídeo

mas nem se comparam a aceleração de uma placa AGP. Existem diferentes velocidade que uma placa AGP pode alcançar, tudo depende qual a velocidade que a entrada AGP tem, existem 3 velocidade, 2X, 4X e 8X. Quando for comprar uma motherboard veja se ela consegue acompanhar a velocidade da placa de vídeo que você tem.

PCI (Peripheral Component Interconnect) Slots

São geralmente para expansão. Esses slots são os mais usados e uma placa mãe sempre tem mais de 5 entradas PCI, algumas placas que são vendidas mais baratas geralmente aquelas combos com processador e motherboard

embutidas tem menos entradas PCI e as vezes nenhuma AGP, então antes de comprar uma boa placa mãe é sempre bom ver esse tipo de informação. ISA (Industry Standard Architecture) Slots Os slots ISA são os que vieram antes dos slots PCI, mesmo assim ainda existem placas mãe que são fabricadas com esses slots. Ela é bem mais lenta que a entrada PCI mas como muita gente ainda tem placas com esse slots ainda fabricam, mas não como antes.

PAGE 41

AMR (Áudio and Modem Riser) e CNR (Communication and Network Riser) Slots Esses são dois tipo de slots de expansão que foram introduzidos a alguns anos. A grande vantagem desses slots, como podemos ver na foto é o seu tamanho, que é muito pequeno se comparado com qualquer tipo de slot.

A performance deles são um pouco insatisfatória e com isso eles não tiveram grande vendagem e nem se tornaram populares. A única vantagem seria o preço que é um pouco abaixo de um modem normal. Hoje em dia é difícil que fabricantes de motherboards façam suas placas com esse tipo de slot.

CONECTORES AT e ATX Introdução Este artigo vista mostrar as características dos gabinetes AT e ATX, de forma que o leitor consiga diferenciar um padrão do outro e identificar suas peculiaridades. Quando citamos "gabinete", nos referimos à caixa que envolve seu computador e protege os componentes internos do equipamento. Além disso, consideraremos a fonte de alimentação do computador, como parte integrante do gabinente, como se ambos fossem uma única peça. As siglas AT e ATX também servem para identificar a placa- mãe quanto ao tipo de gabinete que a mesma foi projetada. Outra informação importante é que os padrões AT e ATX são usados tanto para gabinetes no formato torre, quanto para gabinetes em formato horizontal. AT AT é a sigla para Advanced Tecnology. Trata-se de um tipo de gabinete já antigo, sendo cada vez mais difícil encontrar computadores novos que utilizem esse padrão. Seu uso foi constante de 1983 até 1996. Um dos fatos que contribuiram para que o padrão AT deixasse de ser usado (e o ATX, visto abaixo, fosse criado), é o espaço interno pequeno, que com ajuda dos vários cabos do computador, dificultavam a circulação de ar, levando, em alguns casos, a danos na máquina. Isso exigia grande habilidade do montador para aproveitar o espaço disponível da melhor maneira. Além disso, o conector de alimentação da fonte AT, que deve ser ligada na placa- mãe, é composta por dois plugs (cada um com seis pinos), que devem ser encaixados lado a lado, sendo que os fios de cor preta de cada um devem ficar localizados no meio (ver imagem ao lado). Caso esse cabo seja ligada numa ordem errada, a placa-mãe terá grandes chances de ser queimada. Nas placas-mãe AT, o conector do teclado segue o padrão DIN e o mouse utiliza saída serial. Já os conectores das portas paralela e serial não são encaixados diretamente na placa. Eles ficam disponíveis num adaptador, que é ligado na parte de trás do gabinete e ligados à placa-mãe através de um cabo. No ATX, essas portas, assim como outras, são ligadas diretamente na placa-mãe, sem a necessidade de cabos. Nos computadores atuais, há um recurso muito útil: o de desligamento automático, onde basta você desligar a máquina pelo seu sistema operacional e o equipamento se desligará sozinho. Com o padrão AT, é necessário desligar o computador pelo sistema operacional, aguardar um aviso de que o computador já pode ser desligado e clicar no botão "Power" presente na parte frontal do gabinete. Somente assim o equipamento é desligado. Isso se deve a uma limitação das fontes AT, que não foram projetadas para fazer uuso do recurso de desligamento automático.

PAGE 41

A foto ao lado esquerdo, mostra a parte traseira de um gabinete AT. Repare no orifício do conector do teclado. Se ele fosse visto mais de perto, seu formato seria igual à ilustração à direita.

ATX ATX é a sigla para Advanced Tecnology Extendend. Pelo nome, é possível notar que trata-se do padrão AT melhorado. Um dos principais desenvolvedores do ATX foi a Intel. Como desde o início, o objetivo do ATX foi o de solucionar os problemas do padrão AT (citados anteriormente), o padrão apresenta uma série de melhoras em relação ao anterior, sendo portanto, amplamente usado atualmente. Praticamente todos os computadores novos vem baseado neste padrão. Entre as principais características do ATX, estão o maior espaço interno, proporcionando um ventilação adequada, conectores de teclado e mouse no formato PS/2 (tratam-se de conectores menores e mais fáceis de encaixar), conectores serial e paralelo ligados diretamente na placa-mãe, sem a necessidade de cabos, melhor posicionamento do processador, evitando que o mesmo impeça a instalação de placas de expansão por falta de espaço. Quanto a fonte de alimentação, também houve melhoras significativas. A começar pelo conector de energia ligado à placa-mãe. Ao contrário do padrão AT, nele não é possível encaixar o plug de forma invertida. Cada "furo" do conector possue um formato, que impede o encaixamento errado. A imagem abaixo mostra este plug.

A fonte ATX ainda oferece um recurso muito útil: o de desligamento automático. Assim, basta executar os procedimentos de desligamento no sistema operacional e o computador será inteiramente desligado, sem a necessidade de apertar o botão Power, presente na frente do gabinete. Em outras palavras, é possível desligar o computador por meio de software. A imagem a seguir mostra o encaixe da placa-mãe, onde o conector da fonte ATX deve ser encaixado.

Quanto aos conectores, os fabricantes de placa-mãe adotaram um esquema de cores para cada tipo. Assim, os dispositivos que fazem uso de determinadas portas, possuem seus conectores na mesma cor delas (as primeiras placas-mãe não usavam este esquema). Observe a foto abaixo e veja as cores. Repare também que não há cabos ligando os conectores à placa-mãe. Tais encaixes estão acoplados diretamente na peça.

Fonte de alimentação - AT e ATX Introdução As fontes de alimentação são as responsáveis por distribuir energia elétrica a todos os componentes do computador. Por isso, uma fonte de qualidade é essencial para manter o bom funcionamento do equipamento. No intuito de facilitar a escolha de uma fonte, este artigo apresentará as principais características desse dispositivo, desde o padrão AT até o padrão ATX. As fontes de alimentação Essencialmente, as fontes de alimentação são equipamentos responsáveis por fornecer energia aos dispositivos do computador, convertendo corrente alternada (AC - Alternate Current) - grossamente falando, a energia recebida através de geradores, como uma hidroelétrica) - em corrente contínua (DC -

PAGE 41

Direct Current ou VDC - Voltage Direct Current), uma tensão apropriada para uso em aparelhos eletrônicos. Nos computadores, usa-se um tipo de fonte conhecido como "Fonte Chaveada". Trata-se de um padrão que faz uso de capacitores e indutores no processo de conversão de energia. A vantagem disso é que há menos geração de calor, já que um mecanismo da fonte simplesmente desativa o fluxo de energia ao invés de dissipar um possível excesso. Além disso, há menor consumo, pois a fonte consegue utilizar praticamente toda a energia que "entra" no dispositivo. Por se tratar de um equipamento que gera campo eletromagnético (já que é capaz de trabalhar com freqüências altas), as fontes chaveadas devem ser blindadas para evitar interferência em outros aparelhos e no próprio computador. Tensões fornecidas pelas fontes Os dispositivos que compõem o computador requerem níveis diferentes de tensão para seu funcionamento. Por isso, as fontes de alimentação fornecem, essencialmente, quatro tipos de tensão (em Volts - V): 5 V - utilizada na alimentação de chips, como processadores, chipsets e módulos de memória; - 5 V - aplicada em dispositivos periféricos, como mouse e teclado; 12 V - usada em dispositivos que contenham motores, como HDs (cujo motor é responsável por girar os discos) e drives de CD ou DVD (que possui motores para abrir a gaveta e para girar o disco); - 12 V - utilizada na alimentação de barramentos de comunicação, como o antigo ISA (Industry Standard Architecture). Os valores descritos acima são usados no padrão de fonte conhecido como AT (Advanced Technology). No entanto, o padrão ATX (Advanced Technology Extended), quando lançado, apresentou mais uma tensão: a de 3,3 V, que passou a ser usada por chips (principalmente pelo processador), reduzindo o consumo de energia. As fontes ATX também trouxeram um recurso que permite o desligamento do computador por software. Para isso, as fontes desse tipo contam com um sinal TTL (Transistor-Transistor Logic) chamado Power Supply On (PS_ON). A fonte mantém esse sinal em um nível considerado como "desligado" quando as tensões estão sendo geradas, isto é, quando a placa-mãe está ligada e em uso. Se a placa-mãe estiver desligada, o PS_ON fica em nível alto e as tensões não são fornecidas. Esse sinal pode mudar seu nível quando receber ordens de ativação ou desativação dos seguintes recursos: Soft On/Off - usado para ligar/desligar a fonte por software. É graças a esse recurso que o Windows ou o Linux consegue desligar o computador sem que o usuário tenha que apertar um botão do gabinete; Wake-on-LAN - permite ligar ou desligar a fonte por placa de rede; Wake-on-Modem - possibilitar ligar ou desligar a fonte por modem. O sinal PS_ON depende da existência de outro: o sinal 5VSB ou Standby. Como o nome indica, esse sinal permite que determinados circuitos sejam alimentados quando as tensões em corrente contínua estão suspensas, mantendo ativa apenas a tensão de 5 V. Em outras palavras, esse recurso é o que permite ao computador entrar em modo de descanso. É por isso que a placa de vídeo ou o HD podem ser desativados e o computador permanecer ligado.

O sinal Power Good O sinal Power Good é uma proteção para o computador. Sua função é comunicar à máquina que a fonte está apresentando funcionamento correto. Se o sinal Power Good não existir ou for interrompido, geralmente o

PAGE 41

computador desliga automaticamente. Isso ocorre porque a interrupção do sinal indica que o dispositivo está operando com voltagens alteradas e isso pode danificar permanentemente um componente do computador. O Power Good é capaz de impedir o funcionamento de chips enquanto não houver tensões aceitáveis. O Power Good é um recurso existente já no padrão AT. No caso do padrão ATX, seu sinal recebe o nome de Power Good OK (PWR_OK) e sua existência indica a disponibilização das tensões de 5 V e de 3,3 V. Potência das fontes de alimentação Se um dia você já teve que comprar ou pesquisar o preço de uma fonte de alimentação para seu computador, certamente pode ter ficado em dúvida sobre qual potência escolher. No Brasil, é muito comum encontrar fontes de 300 W (watts), no entanto, dependendo de seu hardware, uma fonte mais potente pode ser necessária. Para saber quando isso é aplicável, deve-se saber quanto consome cada item de seu computador. A tabela abaixo mostra um valor estimado:

PAGE 41

ITEM CONSUMO

Processadores topo de linha (como Pentium 4 HT e Athlon 64)

60 W - 110 W

Processadores econômicos (como Celeron e Duron) 30 W - 80 W Placa-mãe 20 W - 100 W HDs e drives de CD e DVD 25 W - 35 W Placa de vídeo sem instruções em 3D 15 W - 25 W Placa de vídeo com instruções em 3D 35 W - 110 W Módulos de memória 2W - 10 W Placas de expansão (placa de rede, placa de som, etc) 5 W - 10 W Cooler 5 W - 10 W Teclado e mouse 15 W - 25 W Obviamente esses valores podem variar, pois não são precisos. Além disso, o consumo de energia de determinados dispositivos pode depender do modelo e do fabricante. O importante é que você analise a quantidade de itens existentes em seu computador e adquira uma fonte que possa atender a essa configuração de maneira estável. Por exemplo, se você tiver uma máquina com processador Athlon 64 FX, com dois HDs, um drive de CD, um drive de DVD, placa de vídeo 3D, mouse óptico, entre outros, uma fonte de 300 W não é recomendável. Basta somar as taxas de consumo desses itens para notar: Athlon 64 FX 100 W (valor estimado) HD (cada) 25 W + 25 W (valor estimado) Drive de CD 25 W (valor estimado) Drive de DVD 25 W (valor estimado) Placa de vídeo 3D 80 W (valor estimado) Mouse óptico 25 W (valor estimado) Total 305 W ** sem considerar os demais itens (placa-mãe, pentes de memória, etc). É importante considerar ainda que dificilmente uma fonte de alimentação fornece a potência máxima indicada. Por isso, é bom utilizar uma fonte que forneça certa "folga" nesse aspecto. Para a configuração citada acima, por exemplo, uma fonte de 500 W seria adequada. Conectores AT e ATX Os conectores das fontes AT e ATX são mostrados a seguir. Repare que o único que muda entre um padrão e outro é o conector que alimenta a placa- mãe. No caso do padrão AT, esse conector possui 12 fios. No padrão ATX, esse conector possui 20 vias (ver foto abaixo). Além disso, o encaixe do conector ATX é diferente, pois seus orifícios possuem formatos distintos para impedir sua conexão de forma invertida. No padrão AT, é comum haver erros, pois o conector é dividido em duas partes e pode-se colocá-los em ordem errada. A seqüência correta é encaixar os conectores deixando os fios pretos voltados ao centro.

Abaixo segue uma ilustração que mostra os sinais e tensões de cada pino dos conectores para placas-mãe de fontes AT e ATX:

Existe ainda o conector que alimenta drives de CD/DVD, HDs e alguns modelos de coolers:

PAGE 41

Há também o conector que alimenta o drive de disquete:

Por fim, em alguns modelos (projetados principalmente para o processador Pentium 4) existe ainda um conector auxiliar de 6 pinos (com três vias em 0 V, duas em 3,3 V e uma em 5 V) e outro com 4 pinos denominado "conector 12V" (dois em 12 V e dois em 0 V), cujo local de encaixe é visto a seguir:

Esse esquema com 3 conectores para a placa mãe é denominado ATX12V. Finalizando Na hora de montar seu computador, é importante dar especial atenção não só ao processador, à placa-mãe e outros itens, mas também à fonte de alimentação. Uma fonte de qualidade tem menor risco de apresentar mal- funcionamento, consegue proteger a máquina em oscilações da rede elétrica e tem um eficiente sistema de dissipação de calor, seja através de cooler maiores ou melhor projetados, seja através da presença de mais de um desse item.

ACPI Advanced Configuration & Power Interface - Interface de Energia e Configuração Avançada Sendo evolução do APM, o ACPI é uma tecnologia que permite ao sistema operacional desligar automaticamente periféricos para economizar energia. Foi desenvolvido pelas empresas Hewlett-Packard, Intel, Microsoft, Phoenix e Toshiba em conjunto, inicialmente para ser utilizado em notebooks com o fim de prolongar o tempo que o notebook permaneceria ligado utilizando a bateria como fonte de energia. Porém foi tão bem sucedido que acabou tornando-se um padrão também para os computadores desktop. A partir do Windows 98 o controle ACPI já pode ser utilizado. O ACPI, juntamente com as fontes ATX, permite ao PC ligar ou desligar através de eventos no computador (pelo teclado ou até mesmo pela rede) sem a necessidade de pressionarmos botões que cortam o fornecimento de energia aos componentes do computador. É o ACPI que interage quando mandamos desligar o computador e não precisamos pressionar o botão no gabinete pois o computador desliga "sozinho".

APM Advanced Power Management - Gerenciamento Avançado de Energia Este é um antigo padrão de gerenciamento de energia criado pela Intel que conseguia desligar alguns dispositivos caso ficassem um certo tempo ociosos. Assim como o ACPI, o APM é uma interface entre o sistema operacional e o software que permite controlar configurações de energia para um consumo menor. Todavia o APM é muito menos eficiente que o ACPI.

Para usá-lo é necessário possuir uma BIOS compatível que irá ativar um driver de controle que faz a interface entre o sistema operacional e o hardware.

BIOS

PAGE 41

O BIOS (sigla de Basic Input/Output System) é um programa armazenado na memória só de leitura (Read Only Memory, ou ROM) que serve basicamente para informar ao processador como trabalhar com os periféricos mais básicos do sistema, como, por exemplo, o drive de disquete. Um computador pode ser definido como um dispositivo que apenas executa instruções. Ele não sabe da existência de dispositivos tais como discos, teclado, monitores, placas de vídeo. É aqui que entra o BIOS do IBM-PC e compatíveis. Na ausência de alguns periféricos básicos, como o teclado, por exemplo, ele emite uma mensagem de erro. Se tudo correu bem na fase de detecção, ele passa para a próxima fase, ou seja, ele verifica se no drive de disquete está um disco flexível e, se estiver, tenta ler o primeiro setor do disco. Este setor de disco contém uma instrução de salto (JMP) para o endereço onde se encontra o código que carrega o sistema operacional, chamado de bootstrap, ou programa de boot. O setor de disco (que não deve exceder 512 bytes) deve terminar com um número mágico, que faz com que o BIOS o identifique como sendo um setor de boot propriamente dito. Na ausência desse número mágico, o BIOS pede que você insira um outro disco.

Adicionalmente, o BIOS oferece um conjunto de serviços para ler setores de disco, exibir caracteres na tela, ler o teclado, e assim por diante, o que permite a programas como o MS-DOS (e o próprio programa de boot já mencionado) usar esses serviços sem ter que saber exatamente como funciona cada dispositivo (ou seja, o BIOS é uma primeira camada de abstração entre os aplicativos ou DOS e o hardware). Os serviços do BIOS estão disponíveis através de chamadas a interrupções, que devem ser feitas apenas no chamado modo real de um computador tipo PC. Sistemas operacionais em modo protegido não usam, normalmente, os serviços do BIOS, e devido a isso devem implementar as suas próprias rotinas de acesso direto ao hardware.

PAGE 41

Boot Em computação, boot é o termo em inglês para o processo de iniciação do computador que carrega o sistema operacional quando ligamos o mesmo. Muitos computadores podem executar apenas códigos existentes na memória de trabalho (ROM ou RAM); os sistemas operacionais modernos são normalmente armazenados em disco rígido, CD-ROM ou outros dispositivos de armazenamento. Logo que o computador é ligado, ele não tem um sistema operacional na memória. O computador hardware não pode fazer as ações do sistema operacional, como carregar um programa do disco; assim um aparente insolúvel paradoxo é criado: para carregar o sistema operacional na memória, precisamos de um sistema operacional já carregado. Sistema de iniciação ou Boot loader A solução para o paradoxo está na utilização de um pequeno e especial programa, chamado sistema de iniciação ou boot loader. Este programa não tem a completa funcionalidade de um sistema operacional, mas é especialmente construído para que seja capaz de carregar um outro programa para permitir a iniciação do sistema operacional. freqüentemente, boot loaders de múltiplos estágios são usados, neste caso vários pequenos programas se complementam em seqüência, até que o último deles carrega o sistema operacional. Os primeiros computadores programáveis tinham chaves no painel frontal para permitir ao operador colocar o sistema de iniciação na memória antes de iniciar a CPU. Este poderia então ler o sistema operacional de um meio de armazenamento externo como uma fita de papel. Nos computadores modernos o processo de iniciação começa com a execução pela CPU de um programa contido na memória ROM (A BIOS do IBM PC) em um endereço predefinido (A CPU é programada para executar este programa depois de um reset automaticamente). Este programa contém funcionalidades rudimentares para procurar por dispositivos que podem conter um sistema operacional e que são, portanto, passíveis de participar de um boot. Definido o dispositivo é carregado um pequeno programa de uma seção especial deste.

Segundo estágio do sistema de iniciação O pequeno programa normalmente não é o sistema operacional, mas apenas um segundo estágio do sistema de iniciação, assim como o Lilo ou o Grub. Ele será então capaz de carregar o sistema operacional apropriado, e finalmente transferir a execução para ele. O sistema irá inicializar, e deve carregar device drivers e outros programas que são necessários para a operação normal de um sistema operacional. O processo de iniciação é considerado completo quando o computador está pronto para ser operado pelo usuário. Computadores pessoais modernos tipicamente levam cerca de um minuto para executar o processo de iniciação (deste tempo cerca de 15 segundos são devidos a cada chamada do processo de iniciação, e o resto para a carga do sistema operacional), no entanto, sistemas mais complexos como servidores podem levar vários minutos para terminar o processo de iniciação e iniciar todos os serviços; para garantir maior disponibilidade, estes iniciam alguns serviços antes dos outros.

PAGE 41

Muitos sistemas embutidos, ou embedded systems, podem iniciar instantaneamente - por exemplo, esperar um minuto para uma televisão ligar é inaceitável. Assim, estes sistemas tem seu sistema operacional inteiro na ROM ou na memória flash, e podem tê-los executados diretamente. Em computação, uma seqüência de iniciação são as operações que um computador faz quando ele é ligado, que carregam um sistema operacional.

Dispositivos de iniciação da BIOS Um dispositivo de iniciação é qualquer dispositivo que deve ser iniciado antes da carga do sistema operacional. Isto inclui os dispositivos de entrada como o (teclado dispositivos de saída como o Monitor), e os dispositivos de armazenamento como (drive de disquete, disco rígido, CD-ROM, etc.). Um caso especial de dispositivo de iniciação são os que podem carregar o sistema operacional (Em antigas máquinas PC, o drive de disquete e o disco rígido). Em uma BIOS moderna, o usuário pode selecionar vários dispositivos para fazer a iniciação, por exemplo disquete, Superdisk, Disco Rígido, SCSI, CDROM, Zip drive, ou USB (USB-FDD, USB-ZIP, USB-CDROM, USB-HDD). Por exemplo, podemos instalar o Microsoft Windows no primeiro disco rígido e o Linux no segundo. Alterando os parâmetros da BIOS, podemos modificar qual sistema operacional a carregar. Seqüência de iniciação no PC (IBM-PC compatível)

Ao iniciar o processo de iniciação, a CPU do Computador Pessoal executa a instrução localizada no registrador de memória FFFF0h da BIOS. Este registrador de memória corresponde a última posição de memória da BIOS. Ele contém uma instrução que faz com que a execução seja desviada para o local na BIOS onde começa o programa inicial. Este programa executa um auto-teste (POST), que é um teste para verificar o funcionamento de diversos dispositivos no computador e iniciar dispositivos. Então, a BIOS busca em uma lista de dispositivos pré-configurados até encontrar um que pode ser o dispositivo de iniciação. Se não encontra este dispositivo, um erro é apresentado e o processo de iniciação termina. Se o dispositivo de iniciação é encontrado, a BIOS carrega e executa o MBR (Registro mestre de iniciação). Em muitos casos, o MBR verifica a tabela de partições em busca de uma partição ativa. Se uma partição ativa é encontrada, o MBR carrega e executa o setor de iniciação da partição. O setor de iniciação é específico do sistema operacional, entretanto em muitos sistemas sua principal função é carregar e executar o kernel.

PAGE 41

SETUP O setup é um programa de configuração que todo micro tem e que está gravado dentro da memória ROM do micro (que, por sua vez, está localizada na placa-mãe). Normalmente para chamarmos esse programa pressionamos a tecla Del durante a contagem de memória. A configuração do micro é armazenada dentro de uma memória especial, chamada memória de configuração. Como essa memória é construída com a tecnologia CMOS, muitas pessoas chamam a memória de configuração de memória CMOS. Como esta memória é do tipo RAM, seus dados são apagados quando o micro é desligado. Para que isso não aconteça, há uma bateria que fica alimentando essa memória, para que os dados nela armazenados não sejam perdidos quando o micro é desligado. Essa bateria também é responsável por alimentar o circuito de relógio de tempo real do micro (RTC, Real Time Clock), pelo mesmo motivo. Todo micro tem esse relógio e ele é o responsável por manter a data e a hora atualizadas. No setup nós alteramos parâmetros que são armazenados na memória de configuração, como mostra a figura. Há uma confusão generalizada a respeito do funcionamento do setup. Como ele é gravado dentro da memória ROM do micro, muita gente pensa que setup e BIOS são sinônimos, o que não é verdade. Dentro da memória ROM do micro há três programas distintos armazenados: BIOS (Basic Input Output System, Sistema Básico de Entrada e Saída), que é responsável por "ensinar" ao processador da máquina a operar com dispositivos básicos, como a unidade de disquete, o disco rígido e o vídeo em modo texto; POST (Power On Self Test, Autoteste), que é o programa responsável pelo autoteste que é executado toda a vez em que ligamos o micro (contagem de memória, por exemplo); e setup (configuração), que é o programa responsável por alterar os parâmetros armazenados na memória de configuração (CMOS). Outra confusão comum é achar que as configuração alteradas no setup são armazenadas no BIOS. Como o BIOS é uma memória do tipo ROM, ela não permite que seus dados sejam alterados. Todas as informações manipuladas e alteradas no setup são armazenadas única e exclusivamente na memória de configuração (CMOS) do micro. Dessa forma, quando chamamos o setup não "entramos" no BIOS nem muito menos alteramos os valores do BIOS, como muitas pessoas dizem erroneamente. Na verdade entramos no setup e alteramos os valores da memória de configuração.

Figura 1: Chip de memória ROM da placa-mãe. Os programas BIOS, POST e Setup estão gravados dentro deste chip.

Figura 2: Exemplo de um chip ponte sul. A memória CMOS e o relógio de tempo real (RTC) estão atualmente embutidos neste chip.

Figura 3: Esta bateria é conectada ao chip ponte sul, para alimentar tanto a memória CMOS quanto o relógio de tempo real.

PAGE 41

CHIPSETS

Depois do processador principal, o componente mais “inteligente” do micro, que executa o maior número de funções é o chipset. Ele comanda toda a comunicação entre o processador e os demais componentes, assim como entre os próprios componentes, como a placa de vídeo e o HD, através dos canais de DMA por exemplo. O chipset é o principal componente da placa mãe, e como prometido, vamos estudar agora sobre os diferentes chipsets, tanto os que já são história, quanto os que estão em uso atualmente. Nos primeiros PCs, os circuitos controladores da placa mãe, ficavam espalhados em diversos pontos da placa. Alguém teve então idéia de juntar todos estes circuitos em alguns poucos chips. Isto traz diversas vantagens. A primeira, é logicamente o preço, pois ao produzir uma quantidade menor de componentes, os custos caem bastante. Mas, a principal vantagem, é que como os componentes estão próximos, é possível que a placa mãe suporte trabalhar a frequências mais altas, pois o sinal elétrico demorará muito menos tempo para ir de um componente ao outro. Distâncias menores também ajudam a atenuar outros problemas, como interferências e facilitar o trabalho dos projetistas. A maioria dos chipsets são compostos de dois chips, alguns porém são compostos de apenas 1 ou mesmo 3 ou 4 chips. Depois do processador, os maiores chips que você vai encontrar na placa mãe são justamente o chipset Os recursos que serão suportados pelo PC, assim como a compatibilidade ou não com novas tecnologias, são determinados pelo chipset. Você deve lembrar que a partir do 386, todos os processadores suportam o uso de até 4 Gigabytes de memória. O problema é que, a grande maioria dos chipsets em uso, suportam quantidades bem menores: 2 GB, 1 GB ou mesmo 512 MB. Isso sem falar de chipsets antigos, que suportam apenas 128 MB. Assim, apesar de termos um processador que suporta o uso de até 4 Gigabytes de memória, ficamos limitados à quantidade suportada pelo chipset. Na verdade, praticamente todos os recursos suportados pelo micro, incluindo o suporte a recursos como o USB, AGP, UDMA 66, processadores e tipos de memória RAM que poderão ser utilizados, compatibilidade com periféricos, etc. são determinados pelo chipset. Devido a isto, muitos especialistas declaram que o chipset é o componente mais importante do micro, mais importante inclusive que o próprio processador. Os principais componentes dos chipsets atuais são: Controlador de memória: Determina a quantidade máxima de memória RAM suportada, tipos de memória suportados e a velocidade do acesso. Interfaces IDE: Todos os chipsets atuais trazem duas interfaces IDE embutidas, mas a velocidades das portas (UDMA 33 ou UDMA 100 por exemplo) variam de acordo com o chipset usado. PCI Bridge: Este é o circuito que controla o barramento PCI e determina a quantidade máxima de slots PCI que poderão ser usados. Alguns chipsets suportam apenas 3 ou 4 slots, enquanto outros suportam até 7 slots. Existem também pequenas variações de desempenho dos periféricos PCI de acordo com o chipset. Real-time Clock: Este é o relógio que mantém a data e hora mesmo quando o micro está desligado. É alimentado pela bateria da placa mãe e, em alguns casos, é formado por um chip separado. Controlador de DMA: Permite que os periféricos possam comunicar-se entre sí sem ocupar o processador. É ele que permite que a placa de som

PAGE 41

possa ler dados gravados na memória, sem ter que passar pelo processador, por exemplo. Controlador do Teclado: Controla a comunicação com o teclado. Este é mais um dos componentes que antigamente formavam chips separados, mas que atualmente são embutidos no chipset. Controlador PS/2: Controla a porta PS/2, que pode ser utilizada por um mouse. Controlador de cache L2: Em placas mãe soquete 7, que ainda utilizam cache externo, é este circuito que faz o acesso ao cache da placa mãe. Nos processadores atuais, onde o L2 é integrado, este circuito faz parte do processador. Controlador Super I/O: Controla as portas seriais, paralelas, infravermelhas e controladora de drives de disquetes. Mesmo atualmente nem todos os chipsets incluem este componente, o que obriga os fabricantes de placas mãe a incluí-lo na forma de uma chip separado, aumentando os custos de produção. CMOS: Atualmente, o CMOS, a pequena parcela de memória volátil que armazena as configurações do Setup também faz parte do chipset, sendo em geral composta por apenas 64 bytes de memória. AGP: O suporte a AGP é um dos principais diferenciais entre os chipsets atuais. Dependendo do modelo, podemos ter suporte a AGP 2x ou 4x, ou mesmo não ter suporte a um slot AGP, como no caso das placas baseadas no chipset i810, onde o barramento AGP é ocupado pelo vídeo onboard. USB: Praticamente todos os chipsets atuais trazem embutido um controlador USB, suportando o uso de 2 ou mesmo 4 portas USB. Pontes Norte e Ponte Sul (Northbridge e Southbridge): Você ouvirá estes termos com bastante frequência. O design de chipsets mais comum é a divisão dos componentes em dois chips. Nesse caso, o chip principal, que armazena os circuitos controladores de memória, cache e do barramento PCI é chamado de ponte norte, e o chip menor, que armazena os componentes menos essenciais, como interfaces IDE, portas seriais, etc. é chamado de ponte sul. Claro que esta não é uma regra, existem muitos projetos de chipsets com apenas 1 chip, ou mesmo com 3 ou 4 chips (respectivamente como o i810 e o i440FX), onde esta designação não é aplicada. Suporte por parte do BIOS: O BIOS não faz necessariamente parte do chipset, mas é um componente diretamente relacionado com ele. A maioria dos recursos e opções permitidas pelo chipset podem ser configurados através do Setup, mas para isso é preciso que o BIOS ofereça estas opções de configuração através de Setup, caso contrário nada feito. A variedade de opções permitidas pelo Setup é outro diferencial entre placas mãe baseadas no mesmo chipset. Apenas baseado no chipset utilizado, podemos ter uma boa idéia dos recursos suportados por uma determinada placa mãe e seu nível de atualização e compatibilidade. Vale lembrar que o fabricante da placa mãe tem liberdade para utilizar ou não todos os recursos do chipset. Pode por exemplo incluir uma placa de vídeo onboard e eliminar o slot AGP.

De uma forma geral, um chipset (anglicismo que significa grupo de chips) é o cérebro de uma placa de circuitos. Na informática, é o cérebro da placa mãe, faz a comunicação do processador com as memórias, portas (USB, paralela, PS2, serial, etc) com o Sistema operacional. Esta é a "ponte norte" (chispet central).

PAGE 41

BARRAMENTO

Em ciência da computação barramento é um conjunto de linhas de comunicação que permitem a interligação entre dispositivos, como o CPU, a memória e outros periféricos. O desempenho do barramento é medido pela sua largura de banda (quantidade de bits que podem ser transmitidos ao mesmo tempo), geralmente potências de 2: • 8 bits, 16 bits, 32 bits, 64 bits, etc. Também pela velocidade da transmissão medida em bps (Bits por segundo) por exemplo: • 10 bps, 160 Kbps, 100 Mbps, 1 Gbps etc. Tipos Barramento do Processador Barramento do Processador: utilizado pelo HD internamente. Barramento de Cache Barramento de Cache em organizações de computadores mais recentes, é um barramento dedicado para acesso à memória cache. Barramento de Memória Barramento de Memória: responsável pela conexão da memória principal ao processador. Barramento de Entrada e Saída Barramento de Entrada e Saída (ou E/S) é um conjunto de circuitos e linhas de comunicação que se ligam ao resto do PC com a finalidade de possibilitar a expansão de periféricos e a instalação de novas placas no PC. Permitem a conexão de dispositivos como: • Placa gráfica • Rede • Placa de Som • Mouse • Teclado • Modem • etc São exemplos de Barramentos de Entrada e Saída: • ISA • MCA • EISA • VLB • PCI • AGP AGP Accelerated Graphics Port - Porta Gráfica Acelerada Tipo de slot criado pela Intel exclusivamente para a instalação de placas de vídeo ao micro.

PAGE 41

O barramento AGP trabalha a 66 MHz transferindo 32 bits por vez. Com isso, sua taxa de transferência é de 264 MB/s (66 MHz x 32 bits / 8). Este barramento pode operar em modos chamados x2, x4 e x8 que transferem 2, 4 ou 8 dados por pulso de clock, aumentando a taxa de transferência para 528 MB/s, 1 GB/s e 2 GB/s, respectivamente. Infelizmente não é possível diferenciar visualmente se um slot AGP é 1x, 2x, 4x ou 8x. Para saber qual é a taxa máxima que o slot AGP suporta, você precisará saber qual é o chipset da placa-mãe e observar, nas especificações do chipset, quais são os modos AGP por ele suportados. Uma maneira fácil de se fazer isto é olhar no manual da placa-mãe ou no site do fabricante da sua placa-mãe. Placas de vídeo AGP podem usar a memória RAM do sistema para armazenarem elementos de textura e z-buffering. A idéia era fazer com que, ao usar a RAM do sistema, a placa de vídeo tivesse menos memória de vídeo e, com isto, fosse mais barata. Este recurso é chamado DIME (Dynamic Memory Execution) ou AGP Texturing. Apesar de as placas de vídeo AGP terem esta capacidade, nem todas usam este recurso. Existe um tipo de slot AGP maior, chamado AGP Pro, que tem mais linhas de alimentação, para a instalação de placas de vídeo de alto consumo.

Figura 1: Slot AGP.

PAGE 41

Figura 2: Slot AGP Pro.

AMR Audio Modem Riser - Levantador de Áudio e Modem Tipo de slot criado pela Intel para a instalação de placas periféricas usando tecnologia HSP (Host Signal Processing), tais como placas de som e modem. A tecnologia HSP caracteriza-se por transferir o controle do periférico para o processador da máquina, em vez de ter controle próprio. Como vantagem, está o preço, já que a eletrônica envolvida é mais simples, visto que o periférico não precisa ter circuito de controle próprio. Como desvantagem, está o uso do processador da máquina, fazendo com que haja menos recursos disponíveis para outras tarefas, diminuindo o desempenho da máquina. Esta queda de desempenho pode ou não ser perceptível, dependendo da configuração da máquina.

O slot AMR é praticamente idêntico ao CNR. Visualmente a diferença entre os dois está em sua localização na placa-mãe. Enquanto o slot AMR encontra-se no meio da placa-mãe, encontramos o slot CNR na borda da placa-mãe.

Figura 1: Slot AMR.

Figura 2: Modem AMR. Bus Barramento Caminho de comunicação entre dois ou mais dispositivos eletrônicos.

CNR Communications and Network Riser - Levantador de Comunicações e Rede Tipo de slot criado pela Intel para a instalação de placas periféricas usando tecnologia HSP (Host Signal Processing), tais como placas de som, modem e placas de rede. A tecnologia HSP caracteriza-se por transferir o controle do periférico para o processador da máquina, em vez de ter controle próprio. Como vantagem, está o preço, já que a eletrônica envolvida é mais simples, visto que o periférico não precisa ter circuito de controle próprio. Como desvantagem, está o uso do processador da máquina, fazendo com que haja menos recursos disponíveis para outras tarefas, diminuindo o desempenho da máquina. Esta queda de desempenho pode ou não ser perceptível, dependendo da configuração da máquina. O slot CNR é praticamente idêntico ao AMR. Visualmente a diferença entre os dois está em sua localização na placa-mãe. Enquanto o slot AMR encontra-se no meio da placa-mãe, encontramos o slot CNR na borda da placa-mãe.

Detalhe do slot CNR em uma placa-mãe.

PAGE 41

Modem CNR.

CSN Card Select Number - Número de Seleção da Placa Número que identifica uma placa periférica, no barramento ISA plug and play.

EDR Enhanced Data Rate - Taxa de Transferência Avançada Modo de transferência da tecnologia sem fio Bluetooth transferindo dados a 3 Mbps, taxa três vezes maior que a taxa padrão desta tecnologia.

PAGE 41

EISA Extended Industry Standard Architecture - Arquitetura Padrão da Indústria - Estendida Tipo de slot criado pela Compaq na época do 386, de forma a aumentar o desempenho no acesso a periféricos.

Na época, o tipo de slot mais usado era o ISA, que tinha uma taxa de transferência máxima de 8 MB/s, o que é muito pouco, mesmo para um 386 (o barramento externo de um 386DX-33, por exemplo, tem uma taxa de transferência máxima teórica de 132 MB/s).

O EISA era um slot de 32 bits mas, para manter compatibilidade com o ISA (slots EISA permitem que placas ISA sejam instaladas), mantinha o clock em 8 MHz. Com isto, a sua taxa de transferência máxima teórica era de 16 MB/ s. Ou seja, melhorava um pouco o desempenho, porém não resolvia o problema. O EISA foi um slot com baixa aceitação no mercado e acabou praticamente restrito a placas-mãe para servidores de rede.

Visualmente falando, os slots EISA são mais altos que os slots ISA, além de normalmente serem marrons, enquanto que os slots ISA são normalmente

pretos.

Figura 1: Placa-mãe com slots ISA e EISA.

IrDA Infrared Developers Association - Associação de Desenvolvedores de Infravermelho Barramento infravermelho, permitindo a conexão de dispositivos sem fio ao micro, tais como impressoras, telefones celulares, notebooks e PDAs.

Existem dois padrões: 1.0, com taxas de transmissão de até 115.200 bps e 1.1, com taxas de transmissão de até 4.194.304 bps (4 Mbps).

As transmissões podem ser full-duplex (os dois dispositivos podem transmitir e receber dados ao mesmo tempo) ou half-duplex (somente um dispositivo pode transmitir dados por vez).

PAGE 41

ISA Industry Standard Architecture - Arquitetura Padrão da Indústria Primeiro tipo de slot usado nos computadores do tipo PC, criado em 1981 pela IBM para o lançamento de seu primeiro PC, e depois atualizado em 1984, com o lançamento do PC AT, onde o slot foi aumentado para 16 bits (antes era 8 bits).

Placas periféricas de oito bits podem ser instaladas em slots ISA de 16 bits sem problemas. Algumas placas-mãe (como a da Figura 1) possuem tanto slots ISA de 16 bits quanto slots ISA de 8 bits. Os slots ISA de 8 bits nestas placas-mãe eram para serem usados por antigas (e gigantescas) placas ISA de 8 bits que, por causa do seu desenho, não encaixavam nos slots ISA de 16 bits.

Normalmente quando nos referimos ao slot ISA, estamos falando do modelo de 16 bits. Este modelo operava a 8 MHz e tinha uma taxa de transferência máxima de 8 MB/s, o que é muito pouco para aplicações que dependem de desempenho, como vídeo, disco e rede.

Os slots ISA foram usados durante muitos anos, especialmente porque vários periféricos como placas de som, impressoras e scanners são lentos, e não necessitavam de um barramento mais rápido do que o ISA. Aplicações como vídeo, disco e rede foram migrados para outros slots mais rápidos, como o PCI e o AGP (passando pelo EISA e pelo VLB), até o desaparecimento total do ISA.

Figura 1: Slots ISA.

MCA Micro Channel Architecture - Arquitetura Micro Canal Slot criado pela IBM em 1987, lançado em seus computadores PS/2. Foi a tentativa da IBM de acabar com o slot ISA. Como era uma arquitetura proprietária, somente os computadores da IBM usavam este tipo de slot e, daí, a idéia de substituir um slot que todos os PCs estavam usando por um que era proprietário simplesmente não deu certo. Outro problema é que o MCA era incompatível com o ISA, isto é, placas periféricas ISA não podiam ser instaladas em slots MCA.

O MCA estava disponível em duas versões: 16 bits e 32 bits.

Figura 1: Placa-mãe com slots MCA.

PCI

PAGE 41

(1) Peripheral Component Interconnect - Interconexão de Componentes Periféricos

Tipo de slot criado pela Intel para a instalação de periféricos no PC. Atualmente é o tipo de slot mais popular.

O slot PCI padrão trabalha a 33 MHz transferindo dados a 32 bits por vez, obtendo uma taxa de transferência de 132 MB/s (33 MHz x 32 bits / 8).

Outros padrões de slot PCI com desempenho maior foram criados, entretanto sem aceitação no mercado: 33 MHz x 64 bits (264 MB/s), 66 MHz x 32 bits (264 MB/s) e 66 MHz x 64 bits (528 MB/s).

Servidores de rede normalmente usam, além dos slots PCI, slots PCI-X, que são slots PCI de alto desempenho, usando conectores maiores.

Recentemente foi lançado um novo tipo de slot PCI chamado PCI Express. O PCI Express trabalha com comunicação em série (os slots PCI tradicionais operam com comunicação paralela) e sua taxa de transferência básica é de 250 MB/s para slots "1x". Slots "4x" operam a 2.000 MB/s e slots "16x" operam a 4.000 MB/s. Para cada velocidade (1x, 4x, 16x) o conector usado é diferente, ver Figura 1. Os slots PCI Express mais comuns são o 16x, para placas de vídeo, e 1x, para demais placas periféricas.

PAGE 41

Figura 1: Slots PCI mais comuns. (2) Abreviatura de "Placa de Circuito Impresso".

PCI-X

Peripheral Component Interconnect - Extended - Interconexão de Componentes Periféricos - Estendida

Padrão de slots de alto desempenho baseado no PCI criado pela HP, IBM e Compaq para uso em servidores de rede.

Existem duas versões do barramento PCI-X: PCI-X 1.0, com duas versões de velocidade, PCI-X 66 (532 MB/s) e PCI-X 133 (1 GB/s), e o novo padrão PCI-X 2.0, com quatro versões de velocidade, PCI-X 66, PCI-X 133, PCI-X 266 (2 GB/s) e PCI-X 533 (4 GB/s). Estas duas novas velocidades são baseadas no PCI-X 133 transferindo dois dados por pulso de clock e quatro dados por pulso de clock, respectivamente.

Slots PCI-X de 100 MHz (800 MB/s) também são encontrados, apesar de não serem padronizados pela PCI-SIG (consórcio que padroniza os slots PCI).

Figura 1: Placa-mãe para servidor com slots PCI-X. USB Universal Serial Bus - Barramento Serial Universal

Barramento externo ao PC que serve para a conexão de periféricos externos, tais como mouses, teclados, câmeras digitais, discos rígidos externos, gravadores de CD externos, impressoras, scanners, etc. Existem duas versões: 1.1 e 2.0. A versão 1.1 tem uma taxa de transferência máxima de 12 Mbps (aproximadamente 1,5 MB/s), enquanto que a versão 2.0 tem uma taxa de transferência máxima de 480 Mbps (aproximadamente 60 MB/s). Desde 1998 (aproximadamente) os PCs já vêm com portas USB na própria placa-mãe. Em cada porta do PC é possível a conexão de até 127 periféricos.

Os plugues USB mais comuns são o "Tipo A", usado na porta USB do computador, e o "Tipo B", usado nos periféricos tais como impressoras e scanners. Periféricos menores, tais como câmeras digitais, usam plugues

PAGE 41

menores, em geral proprietários (isto é, sem padronização e que depende da marca e modelo do periférico).

Figura 1: Portas USB em uma placa-mãe.

Figura 2: Plugues USB padrão.

VLB VESA Local Bus - Barramento Local VESA Tipo de slot de alto desempenho criado pela VESA (Video Electronics Standards Association), antes dos slots PCI terem sido criados.

Na época, o tipo de slot mais usado no PC era o ISA, que tinha uma taxa máxima de transferência de apenas 8 MB/s. A VESA queria que os PCs tivessem uma conexão com a placa de vídeo mais rápida. O slot VLB era uma extensão de alta velocidade do barramento ISA.

O slot VLB é conectado diretamente ao barramento externo do processador. Com isto, seu desempenho é o mesmo do barramento local do processador. Por exemplo, em um 486DX-33, 486DX2-66 ou 486DX4-100, onde o barramento local roda a 33 MHz x 32 bits (132 MB/s), o slot VLB terá estas mesmas características. Já em um 486DX-25, 486DX2-50 ou 486DX4-75, o barramento local rodará a 25 MHz x 32 bits (100 MB/s), já que estas são as características do barramento externo destes processadores.

O slot VLB teve vida curta justamente por ser conectado diretamente ao barramento externo do processador: caso um novo padrão de barramento fosse lançado, o VLB teria de ser redesenhado. Foi o que ocorreu quando o processador Pentium foi lançado, pois este processador ter um barramento externo de 64 bits e não mais 32 bits como ocorria com o 386 e com o 486.

Foram lançados basicamente três tipos de placas periféricas VLB: placas de vídeo, placas de rede e placas para conexão de discos rígidos (IDE e SCSI).

Este barramento acabou sendo substituído pelo PCI, quando este foi lançado.

Figura 1: Placa-mãe com slot VLB.

PAGE 41

MEMÓRIA RAM Diferentes tipos de RAM. A partir do alto: DIP, SIPP, SIMM 30 pin, SIMM 72 pin, DIMM, RIMM 'Memória RAM(Random Access Memory) é um tipo de memória de computador. É a memória de trabalho, na qual são carregados todos os programas e dados usados pelo utilizador. Esta é uma memória volátil, i.e. será perdido o seu conteúdo uma vez que o computador seja desligado. Pode ser SIMM, DIMM, DDR etc. É medida em bytes, kilobytes (1 KB = 1024 ou 210 bytes), megabytes (1 MB = 1024 KB ou 220 bytes) etc. Memória de leitura e escrita seus dados são perdidos quando o computador é desligado por isso devem ser salvos em mídia. Esta memória apenas serve para guardar os dados mais requisitados pelo processador, visto que a cache apresenta pouca capacidade para este tipo de operações. A RAM tem várias velocidades de funcionamento, esta é medida em MHz, para saber a que velocidade funciona a sua consulte o manual da sua motherboard.

SIMM SIMM (single inline memory module) Os primeiros módulos SIMM forneciam 8 bits simultâneos e precisavam ser usados em grupos para formar o número total de bits exigidos pelo processador. Processadores 386 e 486 utilizam memórias de 32 bits, portanto os módulos SIMM eram usados em grupos de 4. Os módulos SIMM usados até então tinham 30 contatos, portanto eram chamados de SIMM/30, ou módulos SIMM de 30 vias (ou 30 pinos). SIMM de 72 vias forneciam 32 bits simultâneos. Em placas de CPU 486, um único módulo SIMM/72 formava um banco de memória com 32 bits. Os módulos SIMM/72, apesar de serem mais práticos que os SIMM/30, eram pouco utilizados, até o lançamento do processador Pentium. O Pentium trabalha com memórias de 64 bits, portanto dois módulos SIMM/72 iguais formam um banco de 64 bits.

DIMM Os módulos DIMM são módulos de memória de computadores com 168 pinos. Ao contrário das memórias SIMM, estes módulos possuem contatos em ambos os lados do pente, e daí lhes vem o nome (DIMM é a sigla de Double Inline Memory Module). São módulos de 64 bits, sendo usados em processadores intel Pentium e posteriores. São comuns módulos de 64 MB, 128 MB, 256 MB, 512 MB e 1 GB.

DDR DDR SDRAM ou double-data-rate synchronous dynamic random access memory (memória de acesso aleatório dinâmica de taxa de transferência dobrada) é um tipo de circuito integrado de memória utilizado em computadores. Ela alcança uma largura de banda maior que a da SDRAM comum por transferir dados tanto na subida quanto na descida do sinal de clock (dupla transferência). Isto efetivamente quase dobra a taxa de transferência sem aumentar a freqüência do barramento externo. Desta maneira, um sistema com SDRAM tipo DDR a 100 MHz tem uma taxa de

PAGE 41

clock efetiva de 200 MHz quando comparado a um com SDRAM tipo SDR (termo criado posteriormente para fazer a diferença entre as duas, significando SDR "single-data-rate" ou taxa de transferência simples). Com os dados sendo transferidos 8 bytes por vez, a DDR SDRAM fornece uma taxa de transferência de: (freqüência do barramento da memória] × 2 (pois é uma taxa dupla) × (número de bytes transferidos). Assim, com uma freqüência de barramento de 100 MHz, a DDR SDRAM fornece uma taxa de transferência máxima de 1600 MB/s. DDR SDRAM DIMMs tem 184 pinos (ao contrário dos 168 pinos da SDRAM). As frequencias de clock das memorias DDR são padronizadas pelo JEDEC. Os padrões de velocidades aprovados pela JEDEC são: • PC1600 ou DDR200 - 200 MHz clock anunciado, 100 MHz clock real, 1,6 GB/s de largura de banda por canal. • PC2100 ou DDR266 - 266 MHz clock anunciado, 133 MHz clock real, 2,1 GB/s de largura de banda por canal. • PC2700 ou DDR333 - 333 MHz clock anunciado, 166 MHz clock real, 2,7 GB/s de largura de banda por canal. • PC3200 ou DDR400 - 400 MHz clock anunciado, 200 MHz clock real, 3,2 GB/s de largura de banda por canal. • PC3700 ou DDR466 - 466 MHz clock anunciado, 233 MHz clock real, 3,7 GB/s de largura de banda por canal. (parcialmente aprovada pela JEDEC) • PC4200 ou DDR533 - 533 MHz clock anunciado, 266 MHz clock real, 4,2 GB/s de largura de banda por canal. (Não provável ser aprovada pela JEDEC por ser conflitante com a idéia do lançamento da DDR-II) • PC4800 ou DDR600 - 600 MHz clock anunciado, 300 MHz clock real, 4,8 GB/s de largura de banda por canal. Alguns chipsets novos usam essas memórias em configurações de canal duplo (e em alguns casos raros, quádruplo), duplicando ou quadruplicando a largura de banda efetiva. É esperado que nos próximos anos a memória DDR seja substituída pela DDR-II, que apresenta clocks de freqüências mais altas porém utilizando a mesma tecnologia empregada na atual DDR. Competindo com a DDR-II teremos a Rambus XDR, Quad Data Rate (QDR) e Quad Band Memory (QBM) SDRAM. É esperado que a DDR-II se torne padrão entre as memórias RAM dos computadores num futuro próximo, levando em conta que as QDR apresentam circuitos complexos demais para terem um preço acessível, enquanto as QBM e XDR não são muito avançadas. RDRAM é uma alternativa à DDR SDRAM, porém a maioria dos fabricantes de chipset já não dão suporte a elas.

MEMÓRIA ROM A memória ROM é a memória só de leitura de um computador. ROM é a sigla de Read-Only Memory ROM é a sigla para Read Only Memory (memória somente de leitura). Já pelo nome, é possível perceber que esse tipo de memória só permite leitura, ou seja, suas informações são gravadas pelo fabricante uma única vez e após isso não podem ser alteradas ou apagadas, somente acessadas. Em outras palavras, são memórias cujo conteúdo é gravado permanentemente. Existem três tipos básicos de memória ROM: PROM, EPROM e EAROM:

PAGE 41

Tipos de ROM 1. PROMs (Programmable Read-Only Memory) podem ser escritas com dispositivos especiais mas não podem mais ser apagadas 2. DVD-ROM são discos ópticos, tal como os CD-ROM, mas de alta densidade. 3. EPROMs (Erasable Programmable Read-Only Memory) podem ser apagadas pelo uso de radiação ultravioleta permitindo sua reutilização 1. EEPROMs (Electrically Erasable Programmable Read-Only Memory) podem ter seu conteúdo modificado eletricamente, mesmo quando já estiver funcionando num circuito eletrônico 2. Memória flash semelhantes às EEPROMs são mais rápidas e de menor custo 3. CD-ROM são discos ópticos que retêm os dados não permitindo sua alteração

EPROM Algumas EPROMS. A pequena janela admite luz ultra-violeta durante o apagamento. Uma EPROM, ou erasable programmable read-only memory, é um tipo de chip de memória de computador que mantém seus dados quando a energia é desligada. Em outras palavras, é não-volátil. Uma EPROM é programada por um dispositivo eletrônico que dá voltagens maiores do que os usados normalmente em circuitos elétricos. Uma vez programado, uma EPROM pode ser apagada apenas por exposição a uma forte luz ultravioleta. EPROMs são facilmente reconhecíveis pela janela transparente no topo do pacote, pela qual o chip de silício pode ser visto, e que admite luz ultravioleta durante o apagamento. Este microcontrolador 8749 armazena seu programa em uma EPROM. Uma EPROM programada mantém seus dados por aproximadamente dez a vinte anos e pode ser lida ilimitadas vezes. A janela de apagamento tem que ser mantida coberta para evitar apagamento acidental pela luz do Sol. Antigos chips de BIOS de PC eram freqüentemente EPROMs, e a janela de apagamento era frequentemente coberta com um adesivo contendo o nome do produtor da BIOS, a revisão da BIOS, e um aviso de copyright. Alguns microcontroladores, frequentemente aqueles de antes da era da memória flash, usam EPROM para armazenar seus programas. Isto é útil para desenvolvimentos, pois usar dispositivos programáveis apenas uma vez seria terrivelmente difícil para depurar. A EPROM foi inventada pelo engenheiro Dov Frohman. Para se programar uma EPROM, é necessário utilizar um equipamento conhecido como Programador. O Supergravador é um exemplo desse tipo de equipamento.

PAGE 41

PROCESSADOR O processador é a parte mais fundamental para o funcionamento de um computador. Processadores são circuitos digitais que realizam operações como: cópia de dados, acesso a memórias e operações lógicas e matemáticas. Os processadores comuns trabalham apenas com lógica digital binária. Existem processadores simples, que realizam um número pequeno de tarefas, que podem ser utilizados em aplicações mais específicas, e também existem processadores mais sofisticados, que podem ser utilizados para os mais diferentes objetivos, desde que programados apropriadamente. Processadores geralmente possuem uma pequena memória interna, portas de entrada e de saída, e são geralmente ligados a outros circuitos digitais como memórias, multiplexadores e circuitos lógicos. Muitas vezes também um processador possui uma porta de entrada de instruções, que determinam a tarefa a ser realizada por ele. Estas seqüências de instruções geralmente estão armazenadas em memórias, e formam o programa a ser executado pelo processador. Em geral, fala-se que um processador é melhor do que outro na medida em que ele pode realizar uma mesma tarefa em menos tempo, ou com mais eficiência. Processadores podem ser projetados para tarefas extremamente específicas, realizando-as com eficiência insuperável. Este é o caso nos processadores que controlam eletrodomésticos e dispositivos simples como portões eletrônicos e algumas partes de automóveis. Outros visam uma maior genericidade, como nos processadores em computadores pessoais. Os processadores formam a classe mais elevada de circuitos digitais, precedidos pelas máquinas de estado e unidades de lógica e aritmética. Clock Afinal, o que vem a ser clock? Clock é um sinal usado para sincronizar coisas dentro do computador. Dê uma olhada na Figura 2, onde mostramos um típico sinal de clock: é uma onda quadrada passando de “0” a “1” a uma taxa fixa. Nessa figura você pode ver três ciclos de clock (“pulsos”) completos. O início de cada ciclo é quando o sinal de clock passa de “0” a “1”; nós marcamos isso com uma seta. O sinal de clock é medido em uma unidade chamada Hertz (Hz), que é o número de ciclos de clock por segundo. Um clock de 100 MHz significa que em um segundo existem 100 milhões de ciclos de clock.

Figura 2: Sinal de clock. No computador, todas as medidas de tempo são feitas em termos de ciclos de clock. Por exemplo, uma memória RAM com latência “5” significa que vai levar cinco ciclos de clock completos para começar a transferência de dados. Dentro da CPU, todas as instruções precisam de um certo número de ciclos de clock para serem executadas. Por exemplo, uma determinada instrução pode levar sete ciclos de clock para ser completamente executada. No que diz respeito ao processador, o interessante é que ele sabe quantos ciclos de clock cada instrução vai demorar, porque ele tem uma tabela que lista essas informações. Então se há duas instruções para serem executadas

PAGE 41

e ele sabe que a primeira vai levar sete ciclos de clock para ser executada, ele vai automaticamente começar a execução da próxima instrução no 8o pulso de clock. É claro que esta é uma explicação genérica para um processador com apenas uma unidade de execução – processadores modernos possuem várias unidades de execução trabalhando em paralelo e podem executar a segunda instrução ao mesmo tempo em que a primeira, em paralelo. A isso chamamos arquitetura superescalar e falaremos mais a esse respeito mais tarde. Então o que o clock tem a ver com desempenho? Pensar que clock e desempenho são a mesma coisa é o erro mais comum acerca de processadores. Se você comparar dois processadores completamente idênticos, o que estiver rodando a uma taxa de clock mais alta será o mais rápido. Neste caso, com uma taxa de clock mais alta, o tempo entre cada ciclo de clock será menor, então as tarefas serão desempenhadas em menos tempo e o desempenho será mais alto. Mas quando você compara dois processadores diferentes, isso não é necessariamente verdadeiro. Se você pegar dois processadores com diferentes arquiteturas – por exemplo, de dois fabricantes diferentes, como Intel e AMD – o interior deles será completamente diferente. Como dissemos, cada instrução demora um certo número de ciclos de clock para ser executada. Digamos que o processador “A” demore sete ciclos de clock para executar uma determinada instrução, e que o processador “B” leve cinco ciclos de clock para executar essa mesma instrução. Se eles estiverem rodando com a mesma taxa de clock, o processador “B” será mais rápido, porque pode processar essa instrução em menos tempo. E há ainda muito mais no jogo do desempenho em processadores modernos, pois processadores têm quantidades diferentes de unidades de execução, tamanhos de cache diferentes, formas diferentes de transferência de dados dentro do processador, formas diferentes de processar instruções dentro das unidades de execução, diferentes taxas de clock com o mundo exterior, etc. Não se preocupe, pois nós falaremos sobre tudo isso neste tutorial. Como o sinal de clock do processador ficou muito alto, surgiu um problema. A placa-mãe onde o processador é instalado não podia funcionar usando o mesmo sinal de clock.Se você olhar para uma placa-mãe, verá várias trilhas ou caminhos. Essas trilhas são fios que conectam vários circuitos do computador. O problema é que, com taxas de clock mais altas, esses fios começaram a funcionar como antenas, por isso o sinal, em vez de chegar à outra extremidade do fio, simplesmente desaparecia, sendo transmitido como onda de rádio.

Figura 3: Os fios na placa-mãe podem funcionar como antenas.

Clock Externo Os fabricantes de processadores começaram a usar, então, um novo conceito, chamado multiplicação de clock, que começou com o processador 486DX2. Com esse esquema, que é usado em todos os processadores atualmente, o processador tem um clock externo, que é usado quando dados são transferidos de e para a memória RAM (usando o chip da ponte norte), e um clock interno mais alto.

PAGE 41

Para darmos um exemplo real, em um Pentium 4 de 3,4 GHz, estes “3,4 GHz” referem-se ao clock interno do processador, que é obtido quando multiplicamos por 17 seu clock externo de 200 MHz. Nós ilustramos esse exemplo na Figura 4.

Figura 4: Clocks interno e externo em um Pentium 4 de 3,4 GHz. A grande diferença entre o clock interno e o clock externo em processadores modernos é uma grande barreira a ser transposta visando aumentar o desempenho do computador. Continuando com o exemplo do Pentium 4 de 3,4 GHz, ele tem que reduzir sua velocidade em 17x quando tem que ler dados da memória RAM! Durante esse processo, ele funciona como se fosse um processador de 200 MHz! Diversas técnicas são usadas para minimizar o impacto dessa diferença de clock. Um deles é o uso de memória cache dentro do processador. Outra é transferir mais de um dado por pulso de clock. Processadores tanto da AMD como da Intel usam esse recurso, mas enquanto os processadores da AMD transferem dois dados por ciclo de clock, os da Intel transferem quatro dados por ciclo de clock. Por causa disso, os processadores da AMD são listados como se tivessem o dobro de seus verdadeiros clocks externos. Por exemplo, um processador da AMD com clock externo de 200 MHz é listado como tendo 400 MHz. O mesmo acontece com processadores da Intel com clock externo de 200 MHz, que são listados como se tivessem clock externo de 800 MHz. A técnica de transferir dois dados por ciclo de clock é chamada DDR (Dual Data Rate), enquanto que a técnica de transferir quatro dados por ciclo de clock é chamada QDR (Quad Data Rate).

PAGE 41

PAGE 41

PAGE 41

ANATOMIA DE UM DISCO RÍGIDO Introdução Desmontamos um disco rígido para mostrar a você os principais componentes que você encontrará em um disco rígido. Os discos rígidos possuem dois tipos de componentes: internos e externos. Os componentes externos estão localizados na placa de circuito impresso chamada placa lógica, enquanto que os componentes internos estão localizados em um compartimento selado chamado HDA ou Hard Drive Assembly.

Figura 1: Um disco rígido. Você não pode abrir um disco rígido ou poderá correr o risco de inutilizá-lo. Os discos rígidos são montados em salas limpas (mais limpas do que centros cirúrgicos) e então são selados. Qualquer partícula de poeira dentro do HDA pode destruir a superfície do disco, já que os discos giram em alta velocidade (pelo menos 5.400 rpm nos dias de hoje). Isso não fará apenas com que haja perda de dados, mas também a destruição física da superfície do disco. Por isso, não há muito que fazer dentro do HDA – pelo menos pelo técnico comum. Apenas empresas de recuperação de dados equipadas com salas limpas podem abrir e substituir componentes dentro do HDA. Por outro lado, a placa lógica pode ser substituída por qualquer técnico e este é um procedimento muito importante para recuperação de dados em discos rígidos considerados “mortos”. Brevemente postaremos um tutorial explicando como isso é feito. Antes de explorarmos os componentes localizados tanto na placa lógica quanto dentro do HDA, daremos uma olhada nos conectores encontrados em um disco rígido.

PAGE 41

Conectores Os discos rígidos possuem basicamente dois conectores, um de alimentação e outro para troca de dados com o computador. Este segundo conector é mais conhecido como “interface”. A interface mais comum para usuários finais é chamada de ATA (Advanced Technology Attachment), enquanto que a interface SATA (Serial ATA) foi criada para substituir a ATA e começa a se tornar popular no mercado. Após o lançamento do SATA, a interface ATA passou a ser chamada de PATA (Parallel ATA). Uma outra interface famosa é a SCSI (Small Computer Systems Interface), mas ela é voltada para o mercado de servidores de rede e raramente utilizada em computadores para usuários finais.

Figura 2: Conectores em um disco rígido com interface ATA.

O jumper mestre/escravo (master/slave) em discos rígidos ATA pode ser configurado de três maneiras:

• Mestre: Significa que este é o único disco rígido que estará ligado ao cabo ou será o primeiro disco rígido quando dois discos forem ligados ao cabo.

• Escravo: Significa que este é o segundo disco rígido que estará ligado ao cabo.

• CS (Cable Select): Significa que, com a utilização de um cabo “especial”, chamado CS, a configuração de quem será o mestre e o escravo será determinada pela posição do disco rígido no cabo e não pela configuração do jumper.

Figura 3: Conectores em um disco rígido com interface SATA.

O padrão Serial ATA introduziu um novo conector de alimentação, que é muito diferente do conector padrão utilizado por discos rígidos. Como o padrão Serial ATA está começando a aparecer no mercado, você encontrará discos rígidos Serial ATA com ambos os conectores de alimentação, como mostramos na Figura 3. Você precisa usar apenas um deles, não os dois ao mesmo tempo.

Placa Lógica

Na placa lógica você encontrará todos os circuitos responsáveis por controlar o disco rígido. Atualmente, com o alto grau de integração existente, você encontrará apenas três ou quatro circuitos integrado grandes na placa lógica, como você pode ver nas Figuras 4 e 5. Dê uma

PAGE 41

olhada nas figuras, logo abaixo explicaremos mais sobre os circuitos mostrados abaixo.

Figura 4: Placa lógica de um disco rígido ATA.

Figura 5: Placa lógica de um disco rígido SATA. O circuito maior é o controlador do disco rígido. Ele é responsável por controlar tudo: as trocas de dados entre o disco e o computador, o controle dos motores do disco rígido, o controle das cabeças para leitura e escrita dos dados, etc. Opcionalmente, pode haver um circuito Flash-ROM onde o firmware do disco rígido fica armazenado. Firmware é o nome dado para todos os programas armazenados em memória ROM (Read Only Memory). O firmware do disco rígido é o programa que o seu controlador executa. Algumas vezes, esse circuito está embutido no controlador, como é o caso do disco rígido da Figura 5. O controlador não consegue suprir corrente suficiente para ligar ou mover os motores do disco rígido. Por isso, todos os discos rígidos usam um chip chamado “driver dos motores”. Este chip é um amplificador de corrente. Ele recebe os comandos enviados pelo controlador para os motores e então repassa tais comandos para os motores, mas com uma corrente maior. Ou seja, este chip é localizado entre o controlador do disco rígido e os motores. O quarto chip principal que você pode encontrar na placa lógica é o chip de memória RAM (Random Access Memory), também conhecido como buffer. Este chip tem uma importância crucial no desempenho do disco. Quando maior for a sua capacidade, maior será a taxa de transferência entre o disco e o computador. Você pode descobrir a capacidade do buffer do seu disco rígido indo no site do fabricante do chip na Internet. A capacidade dos chips de memória é dada em Megabits, enquanto que o uso de Megabyte refere-se a capacidade de armazenamento da memória. Por isso precisamos dividir o valor dado em Megabit por oito para obter o resultado em Megabytes. Portanto, a capacidade deste chip é de 2 MB (Megabytes) e dizemos que o disco rígido possui um buffer de 2 MB. Na Figura 5 você pode ver um outro chip, que é o chip conversor SATA/ATA. Muitos fabricantes, em vez de desenvolverem um chip controlador Serial ATA, simplesmente pegam os seus chips controladores ATA e adicionam um chip conversor para converter discos rígidos Serial ATA em interface ATA. Este é o caso do disco rígido da Figura 5, que utiliza o chip conversor Marvell 88i8030. Portanto, apesar desse disco rígido ter interface Serial ATA, ele não é “verdadeiramente” Serial ATA (não é um disco rígido Serial ATA “nativo”), já que o seu controlador ainda é um chip ATA. Você pode estar se perguntando como nós sabemos a funcionalidade de cada chip na placa lógica. Na verdade, é muito simples e você pode aprender essa dica com a gente. Simplesmente digite os números localizados na primeira linha do encapsulamento do chip no Google e ele retornará com várias informações a respeito do chip! Por exemplo, para obter informações sobre o chip Flash-ROM usado no disco rígido da Figura 4, digite M29F102BB e o primeiro item retornado pelo Google será a página da ST Microelectronics com todos os detalhes técnicos deste chip.

PAGE 41

Motor dos Pratos Na Figura 6 mostramos o HDA após a remoção da placa lógica. Lá você pode ver claramente o motor dos pratos e seus contatos – que conecta este motor na placa lógica -, e também os contatos dos dispositivos dentro do HDA, como o atuador voice coil e as cabeças.

Figura 6: HDA sem a placa lógica. Em discos rígidos voltados para o mercado de desktops, o motor dos pratos

gira a 5.400 rpm, 7.200 rpm ou até mesmo 10.000 rpm, dependendo do

modelo do disco rígido. Quanto maior for a velocidade de rotação do motor,

maior será a velocidade com que os dados podem ser lidos dos pratos.

Discos rígidos voltados para o mercado de notebooks geralmente possuem

velocidade de rotação de 4.200 rpm.

Por dentro do HDA

Nós removemos a cobertura do disco rígido para mostrar a vocês como é

um disco rígido por dentro. Não faça isso com o seu disco rígido ou você irá

danificá-lo. Se você é curioso, abra apenas discos rígidos que já estejam

danificados (nosso disco rígido estava com defeito).

Figura 7: Partes internas principais de um disco rígido. O conector que você ver na Figura 7 está situado no lado oposto do conector da Figura 6. O disco rígido pode ter vários discos. O disco rígido mostrado em nossa figura tinha três discos. Existe uma cabeça de leitura/gravação para cada lado do disco – que também é chamado de prato. As cabeças ficam montadas em um braço. Por isso, todas as cabeças movimentam-se juntas.

Figura 8: Vários discos dentro do disco rígido. Um motor (na verdade o termo correto é “atuador”) chamado voice coil move o braço. Ele é chamado “voice coil” porque ele utiliza a mesma idéia por trás dos alto-falantes: uma bobina dentro de um campo magnético gerado por um ímã. Dependendo da direção da corrente na bobina o braço move-se para um lado ou para o outro, e dependendo da intensidade da corrente, o atuador moverá mais ou menos. Removemos a “tampa” superior (na verdade o ímã superior) do voice coil para você dar uma olhada, veja na Figura 9.

PAGE 41

Figura 9: Atuador Voice coil. Removemos o braço do disco rígido, como você pode ver na Figura 10. Enquanto estávamos removendo o braço do disco, nós quebramos uma das cabeças (ops!). Por isso, o que deveria ter seis cabeças, agora, graças aos nossos cuidados, tem apenas cinco. Foi mal!

Figura 10: Cabeças do disco rígido. ANATOMIA DE UMA UNIDADE ÓPTICA

Introdução Desmontamos um gravador de DVD para mostrar a você os componentes principais que podem ser encontrados em uma unidade óptica, tais como leitores e gravadores de CD e DVD. Neste tutorial mostraremos não apenas todos os principais componentes de uma unidade óptica, mas também ensinaremos como desmontar uma. Ao contrário do que acontece com os discos rígidos, você pode abrir unidades ópticas sem problemas, mas você não pode ligá-las enquanto estiverem abertas. O raio laser gerado pela unidade óptica é invisível e pode deixá-lo cego caso você olhe diretamente para ele. Antes de abrirmos nosso gravador de DVD, vamos primeiro dar uma olhada em seus conectores (ver Figura 1).

Figura 1: Conectores encontrados em uma unidade óptica típica. As unidades ópticas possuem basicamente três conectores: um para a alimentação, outro para a comunicação com o computador, e um terceiro que é a saída de áudio (também chamada “saída analógica de áudio”), que deve ser conectada em sua placa de som (ou em sua placa-mãe, caso ela possua som on-board). As unidades ópticas também podem ter saída de áudio digital, também conhecida como SPDIF (Sony/Philips Digital Interface Format). Se a sua unidade óptica possui este conector, você deve preferencialmente este conector em vez de usar a saída analógica de áudio. Como o conector SPDIF transmite áudio digital em vez de analógico, você obterá melhor qualidade de áudio dos seus CDs e DVDs se usar este tipo conexão em vez da conexão analógica. Leia nosso tutorial Conexão SPDIF para mais informações sobre o assunto. O conector usado para troca de dados entre a unidade óptica e o computador é conhecido como “interface”. A interface mais comum usada por computadores voltados para usuários finais é chamada ATA (Advanced Technology Attachment). Existem outras interfaces, mas elas são raras hoje em dia: SATA (Serial ATA), que foi criada para substituir a ATA e está começado a chegar no mercado agora; SCSI (Small Computer Systems Interface), que é voltada para o mercado de servidores e é raramente utilizada em computadores para usuários finais; e interface proprietária, que

PAGE 41

era utilizada pelas primeiras unidades ópticas (unidades de CD-ROM “1x” e “2x”) antes de o padrão ATA ser compatível com unidades ópticas.

O jumper mestre/escravo (master/slave) encontrado em unidades ópticas ATA pode ser configurado de três maneiras:

• Mestre: Significa que este é o único dispositivo IDE que estará ligado ao cabo ou será o primeiro dispositivo quando dois dispositivos forem ligados ao cabo.

• Escravo: Significa que este é o segundo dispositivo IDE que estará ligado ao cabo.

• CS (Cable Select): Significa que, com a utilização de um cabo “especial”, chamado CS, a configuração de qual dispositivo será o mestre e o escravo será determinada pela posição do dispositivo e não pela configuração do jumper.

Obs: Neste contexto “IDE” e “ATA” são sinônimos.

Você pode instalar discos rígidos e unidades ópticas no mesmo cabo. Porém, isto não é recomendado devido a questões de desempenho. A melhor maneira de conectar uma unidade óptica no micro é como “mestre” na porta ATA secundária da placa-mãe, enquanto que o disco rígido deve ser instalado como “mestre” sozinho na porta ATA primária.

Antes de abrirmos a unidade e mostrarmos suas partes internas, vamos falar sobre um macete antigo que será necessário para abrirmos a unidade: a ejeção manual.

Mecanismo de Ejeção Manual Todas unidades ópticas possuem um mecanismo de ejeção manual, onde você pode abrir a bandeja da unidade mesmo com o computador desligado ou com a unidade fora do micro. Este é um macete antigo, mas será necessário usá-lo para abrirmos nossa unidade óptica. Primeiro localize o buraco de ejeção manual na parte frontal da unidade.

Figura 2: Buraco para ejeção manual. Em seguida, peque um clip de papel, abra-o e insira-o no furo, como mostramos na Figura 3.

Figura 3: Inserindo o clip de papel no buraco de ejeção manual. Você perceberá certa resistência. Empurre o clip de papel até que a bandeja saia um pouco, como mostramos na Figura 4.

PAGE 41

Figura 4: Graças ao nosso macete conseguimos abrir a bandeja. Agora puxe a bandeja com a mão para que ela possa ser completamente aberta.

Figura 5: Bandeja completamente aberta.

Abrindo a Unidade Óptica

Para abrir uma unidade óptica você precisará primeiro remover a porta da bandeja, onde fica normalmente a logomarca do fabricante e outras informações impressas. Siga os passos mostrados na Figura 6.

Figura 6: Como remover a porta da bandeja.

Figura 7: Porta da bandeja removida. Agora, desaparafuse a parte de baixo da unidade. Isto é muito simples: na maioria das vezes você terá que localizar e desarafusar apenas quatro parafusos usando uma chave Philips.

Figura 8: Localizando os parafusos. Ao remover a tampa metálica inferior da unidade óptica a primeira coisa que você verá será a sua placa lógica. Você precisará remover também a cobertura metálica superior. Para isso, você deverá remover primeiro o painel frontal da unidade. Este painel possui duas travas, uma em cada lado da unidade. Empurre cada uma destas travas usando uma chave de fenda pequena, como mostramos na Figura 9.

Figura 9: Removendo o painel frontal. Após remover o painel, você será capaz de remover a tampa metálica superior da unidade. Ao fazer isso, você verá as partes mecânicas da unidade e a unidade óptica.

Como Remover a Placa Lógica A remoção da placa lógica não é tão simples como parece. Ela possui vários flat-cables e fios. Por isso, a primeira coisa que você deve fazer é desconectar estes cabos. O principal flat-cable vem da unidade óptica (laser). Para removê-lo, você deve primeiro estudar o mecanismo usado para conectá-lo. Em nossa unidade este flat-cable era desconectado usando uma pequena chave de fendas, como mostramos nas figuras abaixo. Preste atenção porque em algumas unidades esse flat-cable é desconectado movendo a trava plástica para frente e não para cima como em nossa unidade.

PAGE 41

Figura 10: Desconectando o flat-cable da unidade óptica (laser).

PAGE 41

Figura 11: Desconectando o flat-cable da unidade óptica (laser).

Figura 12: Desconectando o flat-cable da unidade óptica (laser).

Figura 13: Flat-cable desconectado. Observe agora as travas plásticas que são usadas para segurar a placa lógica (ver Figura 14). Para remover a placa lógica pressione-as com uma chave de fendas pequena. Tenha cuidado ao remover a placa lógica. Existem alguns flat-cables e fios na parte de baixo da placa que deverão ser desconectados primeiro (ver Figura 16).

Figura 14: Travas plásticas usadas para segurar a placa lógica.

Figura 15: Removendo a placa lógica.

Figura 16: Existem ainda alguns flat-cables e fios conectados à placa lógica.

Cuidadosamente, puxe os cabos usando seus dedos para remover a placa lógica da unidade.

Figura 17: Desconectando os cabos.

Após remover os cabos a placa lógica estará solta. Vamos dar uma olhada nos componentes mecânicos da unidade.

Componentes Mecânicos Falaremos agora sobre os principais componentes mecânicos de uma unidade óptica. Você encontrará três motores: o motor que movimenta a unidade óptica laser, chamado sled; o motor do disco, responsável por fazer o disco girar; e o motor da bandeja, responsável por comandar a abertura e fechamento da bandeja. Na Figura 18 a bandeja cobre o motor do disco. Note que esta figura e a Figura 19 foram tiradas antes de removermos a placa lógica.

Figura 18: Principais componentes mecânicos.

Figura 19: Principais componentes mecânicos.

PAGE 41

O motor da bandeja pode ser conectado a ela através de uma polia ou pode ser conectado diretamente a ela, em geral usando uma engrenagem, dependendo do modelo da unidade óptica. A nossa unidade usava uma polia, como você pode ver na Figura 20. Se a bandeja da sua unidade não estiver abrindo, a primeira coisa que você deve verificar é se a polia da bandeja está ou não partida.

Figura 20: Motor da bandeja. A seta vermelha indica a polia. Figura 21: Motor da bandeja, visto por trás.

Unidade Óptica Laser (Pickup) A unidade óptica laser, também chamada pickup, possui vários componentes. Primeiro, vamos dar uma olhada geral nesta unidade.

Figura 22: Unidade óptica laser.

Figura 23: Unidade óptica laser vista por trás. As setas indicam o ajuste dos trimpots.

A unidade óptica pode ser ajustada através de trimpots (potenciômetros em miniatura) localizados em sua parte inferior. Estes trimpots servem para regular a potência do laser. Na maioria das vezes você pode resolver problemas em uma unidade óptica que não lê discos ou apresenta vários erros de leitura simplesmente ajustando esses trimpots. Em breve escreveremos um tutorial explicando como ajustar o laser da unidade óptica. Daremos agora uma olhada na lente principal. Esta lente é também chamada lente objetiva e possui duas bobinas. Tanto a lente quanto as bobinas estão localizadas entre dois ímãs. Dependendo da direção da corrente aplicada nas bobinas a lente pode mover-se para cima ou para baixo, e a intensidade da corrente determinará o quanto ela irá se mover. Essas bobinas controlam o foco da lente. Existem duas outras bobinas chamadas bobinas de movimento (tracking) que controlam o movimento lateral da lente. Através dessas bobinas o sistema pode posicionar a lente no local correto.

Figura 24: Lente principal. Nas Figuras 25 e 26 você pode ver o interior de uma unidade óptica laser.

Figura 25: Por dentro de uma unidade óptica laser.

Figura 26: Principais componentes elétricos.

Placa Lógica Na placa lógica você encontrará todos os circuitos responsáveis por controlar a unidade óptica. Você encontrará componentes em ambos os

PAGE 41

lados da placa lógica. Na Figura 23 mostramos o lado da placa lógica que você verá assim que abrir a unidade, que é o lado da solda.

Figura 27: Principais componentes da placa lógica (lado da solda). Na Figura 28 você ver o lado dos componentes da placa lógica.

Figura 28: Principais componentes da placa lógica (lado dos componentes). O controlador não consegue suprir corrente suficiente para ligar ou mover

os motores da unidade óptica. Por isso, todos as unidades ópticas usam um

chip chamado “driver dos motores”. Este chip é um amplificador de

corrente. Ele recebe os comandos enviados pelo controlador para os

motores e então repassa tais comandos para os motores, mas com uma

corrente maior. Ou seja, este chip é localizado entre o controlador e os

motores.

O circuito Flash-ROM é onde o firmware da unidade óptica fica armazenado.

Firmware é o nome dado para todos os programas armazenados em

memória ROM (Read Only Memory). O firmware da unidade óptica é o

programa que o seu chip controlador executa.

Existem dois chips de memória RAM nesta unidade: um com uma

capacidade muito pequena (128 KB), usado pelo chip controlador e

identificado na Figura 28 como “RAM”; e um outro chip usado para

armazenar temporariamente os dados transferidos para o computador,

também conhecido como buffer. Quanto maior for a capacidade do buffer,

menor será a probabilidade de ocorrer erros de “buffer underrun” durante a

gravação de CDs e DVDs. Na verdade, este erro nada mais é do que o

esvaziamento do buffer durante o processo de gravação o que compromete

o fluxo de dados contínuo para a mídia de CD ou DVD.

ANATOMIA DE UMA UNIDADE DE DISQUETE

PAGE 41

Introdução Todos nós sabemos que as unidades de disquetes estão sendo substituídas

por memórias USB e cartões de memória. Mas, após desmontar um disco

rígido e uma unidade óptica, não poderíamos deixar de publicar um tutorial

mostrando como é uma unidade de disquete por dentro.

Figura 1: Unidade de disquete de 1,44 MB. As unidades de disquetes usada em computadores possuem cinco gerações: 360 KB (5 ¼”), 1,2 MB (5 ¼”), 720 KB (3 ½”), 1,44 MB (3 ½”) e 2,88 MB (3 ½”). Neste tutorial desmontaremos o modelo mais usado, que ainda está disponível nos dias de hoje: o modelo de 1.44 MB 3 ½”. As unidades de disquete se tornaram tão baratas que hoje em dia não faz sentido consertá-las caso apresentem problemas. Sai mais barato jogar ela fora e comprar uma nova. Na Figura 2 você pode ver a parte traseira de uma unidade de disquete: ela possui apenas dois conectores, sendo que um é o de alimentação e o outro é para a comunicação com o micro. Essa comunicação é feita através de um flat-cable de 34 vias.

Figura 2: Vista traseira de uma unidade de disquete de 1,44 MB.

Por Dentro de uma Unidade de Disquete Na Figura 3 você pode ver os principais componentes de uma unidade de disquete.

Figura 3: Principais componentes de uma unidade de disquete. A unidade de disquete possui quatro sensores: • Tipo do disco: Disquetes de 1,44 MB possuem um furo extra em relação aos disquetes de 720 KB de modo que a unidade de disquete possa saber que tipo de disquete está na unidade. • Presença do Disco: Este sensor é usado para que a unidade saiba se existe ou não um disquete dentro dela. • Proteção contra gravação: Para habilitar ou desabilitar a escrita dos dados no disco, dependendo de como você definiu a chave de proteção contra gravação no disquete. • Trilha zero: Quando o conjunto das cabeças ativa este sensor significa que a trilha zero foi alcançada, que é a primeira trilha do disco. É interessante notar que o motor que move as cabeças é um sistema de laço aberto – ao contrário do que ocorre nos discos rígido, que utilizam um sistema de laço fechado. Por causa disso, o motor que movimenta o conjunto das cabeças não tem como saber se as cabeças foram posicionadas corretamente. Quando uma unidade de disquete é acessada pela primeira vez, as cabeças são movidas para a trilha zero, fazendo com que o controlador (localizado na placa-mãe, não dentro da unidade) saiba

PAGE 41

que as cabeças estão no lugar certo. Quando o controlador quer mover as cabeças para a trilha 40, por exemplo, ele envia 40 comandos do tipo “avance uma trilha” para a unidade e mantém um registro da localização das cabeças em seus registradores internos. Por isso, quem sabe onde as cabeças estão posicionadas é o controlador na placa-mãe, não a unidade de disquete. O motor usado para mover as cabeças é de passo. Um motor de passo é motor que gira em um ângulo fixo. Quando ligado, ele move um pouco. No caso das unidades de disquetes, este ângulo fixo corresponde à distância entre cada trilha no disquete. Por isso, quando esse motor é acionado ele move-se uma trilha para frente ou para trás.

As unidades de disquetes possuem dois motores, um para mover as cabeças (motor de passo) e um outro para girar o disco em uma velocidade fixa (motor do disco, que é um servo motor). Nas unidades de disquete o motor do disco (spindle) gira a 360 rpm, velocidade muito inferior a usada nos discos rígidos. É por este motivo que as unidades de disquete são muito mais lentas do que os discos rígidos. Outro detalhe é que as unidades de disquetes não precisam ser seladas como os discos rígidos: uma partícula de poeira não comprometerá a superfície magnética do disquete, já que a unidade opera em baixa rotação.

Na Figura 4 você pode ver uma unidade de disquete por dentro.

Figura 4: Vista traseira do interior de uma unidade de disquete.

Placas Lógicas Na Figura 5 você pode ver as duas placas de circuito impresso que existem

dentro da unidade de disquete. Uma é a placa lógica que contém o

controlador da unidade. A outra é a placa do motor do disco (spindle), que

contém o motor do disco e seus servo-controladores.

Figura 5: Placas lógicas. O motor do disco usa um sensor para verificar se o motor está girando e qual é a sua velocidade de rotação atual. O servo-controlador manterá o motor girando em sua velocidade correta graças a este sensor. Ou seja, este é um sistema de laço fechado: ele possui um sensor para comandar o controlador de modo que este possa fazer qualquer ajuste de velocidade que for necessário para mantê-lo girando na velocidade correta.

PAGE 41

Figura 6: Sensor de velocidade do motor do disco. Cabeças Vamos dar uma olhada agora nas cabeças da unidade. A unidade de disquete possui duas cabeças, uma para cada lado do disquete. Elas estão presas em um conjunto e por isso movem-se juntas.

Figura 7: Conjunto das cabeças.

Figura 8: Detalhe das cabeças.

Removemos uma das cabeças, como você pode ver na Figura 9.

Figura 9: Cabeça de uma unidade de disquete.

Por Dentro da Cabeça Nós desmontamos uma das cabeças da unidade. Como você pode ver nas Figuras 10 e 11, ela possui duas bobinas. Estas bobinas geram o campo eletromagnético necessário para apagar ou gravar dados no disquete e também servem para capturar o campo magnético gerado pela unidade de disquete e transformá-los em corrente elétrica quando os dados são lidos do disquete.

Figura 10: Cabeça da unidade de disquete desmontada.

Figura 11: Cabeça da unidade de disquete desmontada vista de um outro ângulo.

BIT Bit (simplificação para dígito binário, “BInary digiT” em inglês) é a menor unidade de informação usada na Computação e na Teoria da Informação, embora muitas pesquisas estejam sendo feitas em computação quântica com qubits. Um bit tem um único valor, 0 ou 1, ou verdadeiro ou falso, ou neste contexto quaisquer dois valores mutuamente exclusivos. Embora os computadores tenham instruções (ou comandos) que possam testar e manipular bits, geralmente são idealizados para armazenar instruções em múltiplos de bits, chamados bytes. No princípio, byte tinha tamanho variável mas atualmente tem oito bits. Bytes de oito bits também são chamados de octetos. Existem também termos para referir-se a múltiplos de bits usando padrões prefixados, como kilobit (kb), megabit (Mb) e gigabit (Gb). Fisicamente, o valor de um bit é, de uma maneira geral, armazenado como uma carga elétrica acima ou abaixo de um nível padrão em um único capacitor dentro de um dispositivo de memória.

PAGE 41

Telecomunicações ou volume de tráfego em redes de computadores são geralmente descritos em termos de bits por segundo. Por exemplo, “um modem de 56 kpbs é capaz de transferir dados a 56 kilobits em um único segundo” (o que equivale a 7 kilobytes, 7 kB, com B maiúsculo para mostrar que estamos nos referindo a bytes e não a bits, em caso de dúvida, b tem o significado de bit). Ethernet transfere dados a velocidades que variam de 10 megabits por segundo a 1000 megabits por segundo (de 1,25 a 125 megabytes por segundo). No Sistema Internacional (SI), os prefixos kilo-, mega-, etc às vezes têm o significado modificado quando aplicados a bits e bytes: para explicação. Byte Um byte é um dos tipos de dados integrais em computação. É usado com frequência para especificar o tamanho ou quantidade da memória ou da capacidade de armazenamento de um computador, independentemente do tipo de dados lá armazenados. Significados A palavra byte tem vários significados, todos com relações próximas com os demais: 1. Uma sequência contígua de um número fixo de bits. Nos computadores modernos, um byte de oito bits, ou octeto, é de longe o mais comum. Alguns modelos mais antigos usaram bytes de seis, sete ou nove bits — ex: na arquitectura de 36 bits do PDP-10. Outro exemplo de uma sequência que não é de oito bits é o slab de 12 bits de um NCR-315. Um byte é sempre atómico no sistema, o que significa que é a mais pequena unidade endereçável. Um byte de 8 bits pode conter 256 valores possíveis (28 = 256) — o suficiente para armazenar um inteiro sem sinal entre 0 e 255, um inteiro com sinal entre -128 e 127 ou um caracter de uma codificação de caracteres de sete bits (tal como a ASCII) ou oito bits. 2. Uma sequência contígua de bits que constitui um sub-campo de uma sequência mais longa chamada word. Em alguns computadores é possível endereçar bytes de comprimento arbitrário. Este tipo de uso está reflectido, por exemplo, nas instruções assembly LDB e DPB para extracção de campos num PDP-10, que sobrevivem como operações de bytes em Lisp comum, e nos bytes de seis bits do IBM 1401. 3. Um tipo de dados em certas linguagens de programação. O C, por exemplo, define o byte como sinónimo de unsigned char — um tipo de dados inteiro capaz de armazenar pelo menos 256 valores diferentes. Outras designações O byte de 8 bits é, por vezes, também chamado de octeto, nomeadamente no contexto de redes de computadores e telecomunicações. A uma metade um byte, dá-se o nome de nibble ou semioctecto. Quantidades Neste artigo exprimem-se as quantidades em prefixo binário (e não no Sistema Internacional de Unidades), que é uma forma de quantificação utilizada em Informática onde se torna mais útil utilizar potências de dois do que potências de dez. Têm o mesmo nome das unidades do SI, embora sejam múltiplos de 1024 (210) no lugar de 1000 (103). Saber quando utilizar cada uma das notações depende do contexto de utilização. Isto pode causar alguma confusão.

PAGE 41

Byte (B) 1 Byte = 8 bits (23) Quilobyte (KB) • 1 024 Bytes (210) Megabyte (MB) • 1 024 KB • 1 048 576 Bytes (220) Gigabyte (GB) • 1 024 MB • 1 048 576 KB • 1 073 741 824 Bytes (230) Terabyte (TB) • 1 024 GB • 1 048 576 MB • 1 073 741 824 KB • 1 099 511 627 776 (240) BytesPetabyte (PB) • 1 024 TB • 1 048 576 GB • 1 073 741 824 MB • 1 099 511 627 776 KB • 1 125 899 906 842 624 (250) BytesExabyte (EB) • 1 024 PB • 1 048 576 TB • 1 073 741 824 GB • 1 099 511 627 776 MB • 1 125 899 906 842 624 KB • 1 152 921 504 606 846 976 (260) BytesZettabyte (ZB) • 1 024 EB • 1 048 576 PB • 1 073 741 824 TB • 1 099 511 627 776 GB • 1 125 899 906 842 624 MB • 1 152 921 504 606 846 976 KB • 1 180 591 620 717 411 303 424 (270) BytesYottabyte (YB) • 1 024 ZB • 1 048 576 EB • 1 073 741 824 PB • 1 099 511 627 776 TB • 1 125 899 906 842 624 GB • 1 152 921 504 606 846 976 MB

PAGE 41

• 1 180 591 620 717 411 303 424 KB • 1 208 925 819 614 629 174 706 176 (280) BytesXentabyte (XB) • 1 024 YB • 1 048 576 ZB • 1 073 741 824 EB • 1 099 511 627 776 PB • 1 125 899 906 842 624 TB • 1 152 921 504 606 846 976 GB • 1 180 591 620 717 411 303 424 MB • 1 208 925 819 614 629 174 706 176 KB • 1 237 940 039 285 380 274 899 124 224 (290) BytesWektabyte (WB) • 1 024 XB • 1 048 576 YB • 1 073 741 824 ZB • 1 099 511 627 776 EB • 1 125 899 906 842 624 PB • 1 152 921 504 606 846 976 TB • 1 180 591 620 717 411 303 424 GB • 1 208 925 819 614 629 174 706 176 MB • 1 237 940 039 285 380 274 899 124 224 KB • 1 267 650 600 228 229 401 496 703 205 376 (2100) Bytes

PAGE 41

PAGE 41

REDES LOCAIS: PLACAS E CABOS

Placas de redes Existem basicamente dois tipos de placas de rede: ISA e PCI. A diferença fica por conta da taxa de transferência máxima que pode ser obtida. A comunicação em placas de rede ISA chega a somente 10 Mbps, enquanto em placas de rede PCI a comunicação pode atingir até 100 Mbps. No caso de você optar por utilizar placas PCI, tome cuidado com o tipo de cabo e outros periféricos que serão utilizados (como hubs), já que nem todos trabalham com taxas acima de 10 Mbps. Por exemplo, há hubs que trabalham somente a 10 Mbps. Mesmo que sua rede seja composta somente por micros com placas de rede PCI, a taxa ficará limitada pela taxa do hub de 10 Mbps. Da mesma forma, há cabos do tipo para trançado (por exemplo, categoria 3 ou categoria 4) que não são indicados a trabalhar a 100 Mbps. Além disso, devemos adquirir placas de rede de acordo com o tipo de cabo a ser utilizado. Na Figura 1 você observa uma placa de rede ISA contendo 3 conectores. Nem todas as placas possuem todos esses conectores. Você pode encontrar em placas de rede basicamente três tipos de conectores: • Conector RJ-45: Para a conexão de cabos do tipo par trançado. • Conector AUI: Permite a conexão de transceptores (transceivers), para a utilização de cabo coaxial do tipo grosso (10Base5) ou outras mídias. • Conector BNC: Para a conexão de cabos do tipo coaxial.

Figura 1: Placa de rede ISA contendo todos os conectores. Quando você for comprar uma placa de rede, ela deverá vir obrigatoriamente com manual e um disquete contendo seus drivers. No caso de placas de rede com conector BNC, elas vêm também com um conector BNC do tipo "T". Cabos É claro que você deverá utilizar alguma mídia para conectar os micros de sua rede. A mídia mais utilizada é o cabo. Existem diversos tipos de cabos e estaremos discutindo os tipos mais utilizados, suas vantgens e suas desvantagens, bem como veremos como deve ser preparado o cabo para uso. Cabo Coaxial No passado esse era o tipo de cabo mais utilizado. Atualmente, por causa de suas desvantagens, está cada vez mais caindo em desuso, sendo, portanto, só recomendado para redes pequenas. Entre essas desvantagens está o problema de mau contato nos conectores utilizados, a difícil manipulação do cabo (como ele é rígido, dificulta a instalação em ambientes comerciais, por exemplo, passá-lo através de conduítes) e o problema da topologia. A topologia mais utilizada com esse cabo é a topologia linear (também chamada topologia em barramento) que, como veremos em outra aula, faz com que a rede inteira saia do ar caso haja o rompimento ou mau contato de algum trecho do cabeamento da rede. Como a rede inteira cai, fica difícil

PAGE 41

determinar o ponto exato onde está o problema, muito embora existam no mercado instrumentos digitais próprios para a detecção desse tipo de problema.

Vantagens: F 0 B 7 Fácil instalação F 0 B 7 Barato< TD>

Desvantagens: F 0 B 7 Mau contato F 0 B 7 Difícil manipulação F 0 B 7 Lento para muitos micros F 0 B 7 Em geral utilizado em topologia linear

Existem dois tipos básicos de cabo coaxial: fino e grosso. Na hora de comprar cabo coaxial, você deverá observar a sua impedância. Por exemplo, o cabo coaxial utilizado em sistemas de antena de TV possui impedância de 75 ohms. O cabo coaxial utilizado em redes possui impedância de 50 ohms. Nota: Estamos nos referindo ao padrão de redes Ethernet, o mais utilizado. Existem outros padrão esdrúxulos (e pouco usados) que utilizam cabos com outras impedâncias. Como exemplo, o padrão Arcnet, onde o cabo deve ter impedância de 93 ohms. Cabo Coaxial Fino (10Base2) Esse é o tipo de cabo coaxial mais utilizado. É chamado "fino" porque sua bitola é menor que o cabo coaxial grosso, que veremos a seguir. É também chamado "Thin Ethernet" ou 10Base2. Nesta nomenclatura, "10" significa taxa de transferência de 10 Mbps e "2" a extensão máxima de cada segmento da rede, neste caso 200 m (na verdade o tamanho real é menor).

Figura 2: Cabo coaxial fino. Características do cabo coaxial fino:

F 0 B 7 Utiliza a especificação RG-58 A/U F 0 B 7 Cada segmento da rede pode ter, no máximo, 185 metros F 0 B 7 Cada segmento pode ter, no máximo, 30 nós F 0 B 7 Distância mínima de 0,5 m entre cada nó da rede F 0 B 7 Utilizado com conector BNC Nota: "Nó" (do inglês "Node") significa "ponto da rede". Em geral é uma placa de rede (um micro), mas existem periféricos que também contam como um ponto da rede. No caso do cabo coaxial, podemos citar repetidores e impressoras de rede (existem impressoras que tem um conector BNC para serem ligadas diretamente ao cabo coaxial da rede).

Cabo Coaxial Grosso (10Base5) Esse tipo de cabo coaxial é pouco utilizado. É também chamado "Thick Ethernet" ou 10Base5. Analogamente ao 10Base2, 10Base5 significa 10 Mbps de taxa de transferência e que cada segmento da rede pode ter até 500 metros de comprimento. É conectado à placa de rede através de um transceiver.

Figura 3: Cabo coaxial grosso. Características do cabo coaxial grosso:

PAGE 41

F 0 B 7 Especificaçao RG-213 A/U F 0 B 7 Cada segmento de rede pode ter, no máximo, 500 metros F 0 B 7 Cada segmento de rede pode ter, no máximo, 100 nós F 0 B 7 Distância mínima de 2,5 m entre cada nós da rede F 0 B 7 Utilizado com transceiver

Preparação do cabo coaxial Embora o cabo coaxial possa ser soldado ao seu respectivo conector BNC, esse método não é o mais apropriado. Os conectores BNC a serem utilizados com o cabo coaxial funcionam na base da pressão ("crimp"), economizando um tempo enorme na confecção de cada cabo. Para preparar um cabo coaxial, você necessitará de duas ferramentas:

F 0 B 7 Descascador de cabo coaxial F 0 B 7 Alicate para crimp

Figura 4: Descascador de cabo coaxial

Figura 5: Alicate para crimp

Cabo Par Trançado Esse é o tipo de cabo mais utilizado atualmente. Existem basicamente dois tipos de cabo par trançado: sem blindagem (UTP, Unshielded Twisted Pair) e com blindagem (STP, Shielded Twisted Pair). A diferença óbvia é a existência de uma malha (blindagem) no cabo com blindagem, que ajuda a diminuir a interferência eletromagnética e, com isso, aumentar a taxa de transferência obtida na prática.

Figura 6: Par Trançado sem Blindagem (UTP).

Figura 7: Par Trançado com Blindagem (STP). O par trançado, ao contrário do cabo coaxial, só permite a conexão de 2 pontos da rede. Por este motivo é obrigatório a utilização de um dispositivo concentrador (hub ou switch), o que dá uma maior flexibilidade e segurança à rede. A única exceção é na conexão direta de dois micros usando uma configuração chamada cross-over, utilizada para montar uma rede com apenas esses dois micros. O par trançado é também chamado 10BaseT ou 100BaseT, dependendo da taxa de transferência da rede, se é de 10 Mbps ou 100 Mbps. Vantagens:

F 0 B 7 Fácil instalação F 0 B 7 Barato F 0 B 7 Instalação flexível

Desvantagens: F 0 B 7 Cabo curto (máximo de 90 metros) F 0 B 7 Interferência eletromagnética

Interferência eletromagnética

PAGE 41

Você deve ter sempre em mente a existência da interferência eletromagnética em cabos UTP, principalmente se o cabo tiver de passar por fortes campos eletromagnéticos, especialmente motores e quadros de luz. É muito problemático passar cabos UTP muito próximos a geladeiras, condicionadores de ar e quadros de luz. O campo eletromagnético impedirá um correto funcionamento daquele trecho da rede. Se a rede for ser instalada em um parque industrial - onde a interferência é inevitável - outro tipo de cabo deve ser escolhido para a instalação da rede, como o próprio cabo coaxial ou a fibra ótica.

Categorias Ao comprar um cabo par trançado, é importantíssimo notar qual a sua categoria. Embora as categorias 3 e 4 trabalhem bem para redes de 10 Mbps, o ideal é trabalharmos somente com cabos de categoria 5, que conseguem atingir até 100 Mbps. Com isso já estaremos preparando o cabeamento para comportar uma rede de 100 Mbps: mesmo que atualmente a rede trabalhe a apenas 10 Mbps, ela já estará preparada para um futuro aumento da taxa de transferência.

F 0 B 7 Categoria 3: até 10 Mbps F 0 B 7 Categoria 4: até 16 Mbps F 0 B 7 Categoria 5: até 100 Mbps Pinagem Ao contrário do cabo coaxial que possui somente dois fios - um interno e uma malha metálica ao redor, que elimina a interferência eletromagnética -, o par trançado é composto de oito fios (4 pares), cada um com uma cor diferente. Cada trecho de cabo par trançado utiliza em suas pontas um conector do tipo RJ-45, que justamente possui 8 pinos, um para cada fio do cabo.

Figura 8: Conector RJ-45 Teoricamente os cabos podem ser feitos de qualquer maneira, desde que o pino 1 de uma extremidade seja conectado ao pino 1 da outra extremidade e assim sucessivamente para todos os 8 pinos dos conectores, ou seja, se você conectar o fio marrom ao pino 1 de uma extremidade, deverá conectar o pino 1 ao fio marrom da outra extremidade do cabo.

O problema desse procedimento é que você criará um padrão de cabos só seu e que só funcionará naquela determinada rede. No futuro, se um técnico precisar fazer a manutenção em um cabo, ele ficará simplesmente perdido.

Nota: A modificação aleatória do ordem dos fios pode causar a "Paradiafonia", que é o vazamento de energia elétrica entre pares de fios do mesmo cabo, podendo causar problemas na rede. Nós observamos que, como o própio nome diz ao cabo, os fios formam pares trançados onde estas

PAGE 41

tranças protegem os sinais da interferência externa. Esta proteção só existe quando estes pares fazem parte do mesmo circuito.

Para evitar esses tipos de problemas, existem dois padrão internacionais amplamente utilizados: T568A e T568B.

Desta forma, basta optar por um dos dois padrões e fazer os cabos de acordo com a ordem dos fios impostas por eles. Assim não haverá dúvidas na hora de montar os cabos e na sua manutenção. Nas figuras 9 e 10 você observa a ordem dos fios desses dois padrões.

Figura 9: Padrão T568A.

Figura 10: Padrão T568B. Nota: os pares são formados por um fio que é azul, laranja, verde ou marrom, e um segundo fio que é branco. Em alguns cabos, como nas figuras acima, os fios de cor branca possuem listras finas de acordo com a cor do par que pertencem (azul, laranja, verde ou marrom). Na maioria das vezes, no entanto, o fio será totalmente branco. Para saber a qual par pertecem, basta ver com que fio colorido o fio branco está "enroscado". Por exemplo, o fio branco do par marrom estará trançado com o fio marrom e assim por diante. Assim, nas figuras acima as listras coloridas que colocamos nos fios brancos servem para você saber de qual par é o fio branco que estamos nos referindo, embora na prática os fios brancos não tenham tais listras.

Preparação do cabo Para preparar o cabo em si você precisará, além de conectores RJ-45, um alicate para "crimp". Da mesma forma que os conectores BNC usados no cabo coaxial, os fios do cabo par trançado são presos ao conector RJ-45 por pressão. Basta alinhar os fios do pino 1 ao pino 8 do conector de acordo com o padrão a ser utilizado (T568A ou T568B) e pressionar o conector com o alicate. Não é necessário descascar os fios, pois o próprio conector RJ-45 possui seus pinos em forma de lâmina, descascando automaticamente os fios durante a montagem do cabo.

Figura 11: Alicate para "crimp" de conectores RJ-45.

Instalação do cabo O projeto de como e por onde os cabos irão ser fisicamente instalados no ambiente onde a rede está sendo implementada é muito importante. A melhor maneira de se instalar cabos é criando pontos de rede fixos, através de caixas conectoras. Os micros serão conectados a essas caixas através de um cabo de menor comprimento, enquanto as caixas são ligadas a outras caixas conectoras perto do concentrador (hub ou switch). Este procedimento além de facilitar a instalação das estações da rede, facilita a manutenção. Como na maioria das vezes problemas de cabo partido ocorrem na porção perto da estação de trabalho, bastará substituir apenas um pequeno trecho do cabo. Na figura você observa vários modelos de caixas conectoras.

PAGE 41

Existem tanto caixas internas a serem instaladas embutidas na parede quanto modelo externos. Lembre-se de comprar caixas aprovadas para trabalhar com categoria 5. Figura 12: Caixas conectores para cabo de par trançado Para fixar os fios na caixa conectora, você precisará de uma ferramenta de inserção.

Figura 13: Ferramenta de inserção.

Patch Panel Em redes de grande porte, os cabos UTP/STP provenientes dos diversos pontos de rede (caixas conectoras junto aos micros) são conectados a blocos de distribuição fixos em estruturas metálicas. Este conjunto é denominado Patch Panel. A ligação dos blocos de distribuição citados aos hubs e/ou switches se dá através de patch cords. A utilização de Patch Panels confere melhor organização, maior flexibilidade e consequentemente, facilita a manutenção.

Fibra ótica A grande vantagem da fibra ótica não é nem o fato de ser uma mídia rápida, mas sim o fato de ela ser totalmente imune a interferências eletromagnéticas. Na instalação de redes em ambientes com muita interferência (como em uma indústria, por exemplo), a melhor solução é a utilização da fibra ótica. A fibra ótica, sob o aspecto construtivo, é similar ao cabo coaxial sendo que o núcleo e a casca são feitos de sílica dopada (uma espécie de vidro) ou até mesmo plástico, da espessura de um fio de cabelo. No núcleo é injetado um sinal de luz proveniente de um LED ou laser, modulado pelo sinal transmitido, que percorre a fibra se refletindo na casca. As fibras podem ser multimodo ou monomodo. Em linhas gerais, sem a utilização de amplificadores, a primeira tem capacidade de transmissão da ordem de 100 Mbps a até cerca de 10 km (mais empregadas em redes locais), enquanto que a segunda alcança algo em torno de 1 Gbps a uma distância de por volta de 100 km (empregadas em redes de longa distância). Além das características de transmissão superiores aos cabos metálicos, a fibra, por utilizar luz, tem imunidade eletromagnética. Em contrapartida, seu custo é superior, é mais frágil requerendo que seja encapsulada em materiais que lhe confiram uma boa proteção mecânica e necessita de equipamentos microscopicamente precisos para sua conectorização, instalação e manutenção. Em redes locais de grande porte, normalmente se emprega a fibra ótica interligando os hubs, colapsados em switches e/ou roteadores que isolam os diversos segmentos, formando assim o backbone (espinha dorsal) da rede.

PAGE 41

Figura 14: Fibra ótica. Vantagens:

F 0 B 7 Velocidade F 0 B 7 Isolamento elétrico F 0 B 7 O cabo pode ser longo F 0 B 7 Alta taxa de transferência

Desvantagens: F 0 B 7 Muito caro F 0 B 7 Difícil de instalar F 0 B 7 Quebra com facilidade F 0 B 7 Difícil de ser remendado

REDES LOCAIS: TOPOLOGIAS E PERIFÉRICOS

Introdução No tutorial sobre placas e cabos você conheceu os principais tipos de cabos existentes. Neste tutorial você aprenderá como os cabos podem ser conectados para formar uma rede local. Como diversos periféricos são utilizados nessa conexão - como hubs e switches -, também iremos apropriadamente abordá-los neste tutorial. No tutorial sobre cabos, aprendemos somente sobre os tipos de cabos existentes sem nos preocuparmos muito como eles seriam utilizados para conectar diversos micros e periféricos. A forma com que os cabos são conectados - a que genericamente chamamos topologia da rede - influenciará em diversos pontos considerados críticos, como flexibilidade, velocidade e segurança. Da mesma forma que não existe "o melhor" computador, não existe "a melhor" topologia. Tudo depende da necessidade e aplicação. Por exemplo, a topologia em estrela pode ser a melhor na maioria das vezes, porém talvez não seja a mais recomendada quando tivermos uma pequena rede de apenas 3 micros.

Topologia Linear Na topologia linear (também chamada topologia em barramento), todas as estações compartilham um mesmo cabo. Essa topologia utiliza cabo coaxial, que deverá possuir um terminador resistivo de 50 ohms em cada ponta, conforme ilustra a Figura 1. O tamanho máximo do trecho da rede está limitado ao limite do cabo, 185 metros no caso do cabo coaxial fino, conforme vimos na aula sobre cabos. Este limite, entretanto, pode ser aumentado através de um periférico chamado repetidor, que na verdade é um amplificador de sinais.

Figura 1: Topologia Linear

Nota: a Figura 1 foi propositalmente exagerada em relação aos conectores "T". Eles são ligados diretamente à placa de rede, não existindo o pequeno cabo presente na figura. Como todas as estações compartilham um mesmo cabo, somente uma transação pode ser efetuada por vez, isto é, não há como mais de um micro transmitir dados por vez. Quando mais de uma estação tenta utilizar o cabo, há uma colisão de dados. Quando isto ocorre, a placa de rede espera um período aleatório de tempo até tentar transmitir o dado novamente. Caso ocorra uma nova colisão a placa de rede espera mais um pouco, até

PAGE 41

conseguir um espaço de tempo para conseguir transmitir o seu pacote de dados para a estação receptora. A conseqüência direta desse problema é a velocidade de transmissão. Quanto mais estações forem conectadas ao cabo, mais lenta será a rede, já que haverá um maior número de colisões (lembre-se que sempre em que há uma colisão o micro tem de esperar até conseguir que o cabo esteja livre para uso). Outro grande problema na utilização da topologia linear é a instabilidade. Como você pode observar na Figura 1, os terminadores resistivos são conectados às extremidades do cabo e são indispensáveis. Caso o cabo se desconecte em algum ponto (qualquer que seja ele), a rede "sai do ar", pois o cabo perderá a sua correta impedância (não haverá mais contato com o terminador resistivo), impedindo que comunicações sejam efetuadas - em outras palavras, a rede pára de funcionar. Como o cabo coaxial é vítima de problemas constantes de mau-contato, esse é um prato cheio para a rede deixar de funcionar sem mais nem menos, principalmente em ambientes de trabalho tumultuados. Voltamos a enfatizar: basta que um dos conectores do cabo se solte para que todos os micros deixem de se comunicar com a rede. E, por fim, outro sério problema em relação a esse tipo de rede é a segurança. Na transmissão de um pacote de dados - por exemplo, um pacote de dados do servidor de arquivos para uma determinada estação de trabalho -, todas as estações recebem esse pacote. No pacote, além dos dados, há um campo de identificação de endereço, contendo o número de nó de destino. Desta forma, somente a placa de rede da estação de destino captura o pacote de dados do cabo, pois está a ela endereçada. Nota: Número de nó (node number) é um valor gravado na placa de rede de fábrica (é o número de série da placa). Teoricamente não existe no mundo duas placas de rede com o mesmo número de nó. Se na rede você tiver duas placas com o mesmo número de nó, as duas captarão os pacotes destinados àquele número de nó. É impossível você em uma rede ter mais de uma placa com o mesmo número de nó, a não se que uma placa tenha esse número alterado propositalmente por algum hacker com a intenção de ler pacotes de dados alheios. Apesar desse tipo de "pirataria" ser rara, já que demanda de um extremo conhecimento técnico, não é impossível de acontecer. Portanto, em redes onde segurança seja uma meta importante, a topologia linear não deve ser utilizada. Para pequenas redes em escritórios ou mesmo em casa, a topologia linear usando cabo coaxial está de bom tamanho.

Topologia em Anel Na topologia em anel, as estações de trabalho formam um laço fechado, conforme ilustra a Figura 2. O padrão mais conhecido de topologia em anel é o Token Ring (IEEE 802.5) da IBM.

Figura 2: Topologia em Anel.

PAGE 41

No caso do Token Ring, um pacote (token) fica circulando no anel, pegando dados das máquinas e distribuindo para o destino. Somente um dado pode ser transmitido por vez neste pacote.

Topologia em Estrela Esta é a topologia mais recomendada atualmente. Nela, todas as estações são conectadas a um periférico concentrador (hub ou switch), como ilustra a Figura 3.

Figura 3: Topologia em Estrela. Ao contrário da topologia linear onde a rede inteira parava quando um trecho do cabo se rompia, na topologia em estrela apenas a estação conectada pelo cabo pára. Além disso temos a grande vantagem de podermos aumentar o tamanho da rede sem a necessidade de pará-la. Na topologia linear, quando queremos aumentar o tamanho do cabo necessariamente devemos parar a rede, já que este procedimento envolve a remoção do terminador resistivo. Importante notar que o funcionamento da topologia em estrela depende do periférico concentrador utilizado, se for um hub ou um switch. No caso da utilização de um hub, a topologia fisicamente será em estrela (como na Figura 3), porém logicamente ela continua sendo uma rede de topologia linear. O hub é um periférico que repete para todas as suas portas os pacotes que chegam, assim como ocorre na topologia linear. Em outras palavras, se a estação 1 enviar um pacote de dados para a estação 2, todas as demais estações recebem esse mesmo pacote. Portanto, continua havendo problemas de colisão e disputa para ver qual estação utilizará o meio físico. Já no caso da utilização de um switch, a rede será tanto fisicamente quanto logicamente em estrela. Este periférico tem a capacidade de analisar o cabeçalho de endereçamento dos pacotes de dados, enviando os dados diretamente ao destino, sem replicá-lo desnecessariamente para todas as suas portas. Desta forma, se a estação 1 enviar um pacote de dados para a estação 2, somente esta recebe o pacote de dados. Isso faz com que a rede torne-se mais segura e muito mais rápida, pois praticamente elimina problemas de colisão. Além disso, duas ou mais transmissões podem ser efetuadas simultaneamente, desde que tenham origem e destinos diferentes, o que não é possível quando utilizamos topologia linear ou topologia em estrela com hub. Repetidor Usado basicamente em redes de topologia linear, o repetidor permite que a extensão do cabo seja aumentada, criando um novo segmento de rede (vide Figura 4).

Figura 4: Uso de um repetidor para aumentar a extensão da rede.

O repetidor é apenas uma extensão (um amplificador de sinais) e não desempenha qualquer função no controle do fluxo de dados. Todos os pacotes presentes no primeiro segmento serão compulsoriamente

PAGE 41

replicados para os demais segmentos. Por exemplo, se a estação 1 enviar um pacote de dados para a estação 2, esse pacote será replicado para todas as máquinas de todos os segmentos da rede. Em outras palavras, apesar de aumentar a extensão da rede, aumenta também o problema de colisão de dados.

Ponte (Bridge) A ponte é um repetidor inteligente, pois faz controle de fluxo de dados. Ela analisa os pacotes recebidos e verifica qual o destino. Se o destino for o trecho atual da rede, ela não replica o pacote nos demais trechos, diminuindo a colisão e aumentando a segurança. Por analisar o pacote de dados, a ponte não consegue interligar segmentos de redes que estejam utilizando protocolos diferentes. Há duas configurações que podem ser utilizadas com a ponte: a configuração em cascata (Figura 5) e a configuração central (Figura 6). No caso da configuração em cascata, as pontes são ligadas como se fossem meros repetidores. A desvantagem dessa configuração é que, se uma estação do primeiro segmento quiser enviar um dado para uma estação do último segmento, esse dado obrigatoriamente terá de passar pelos segmentos intermediários, ocupando o cabo, aumentando a colisão e diminuindo o desempenho da rede.

Figura 5: Configuração em cascata. Já na configuração central, as pontes são ligadas entre si. Com isso, os dados são enviados diretamente para o trecho de destino. Usando o mesmo exemplo, o dado partiria da estação do primeiro segmento e iria diretamente para a estação do último segmento, sem ter de passar pelos segmentos intermediários.

Figura 6: Configuração central.

Hub (Concentrador) Apesar da rede estar fisicamente conectada como estrela, caso o hub seja utilizado ela é considerada logicamente uma rede de topologia linear, pois todos os dados são enviados para todas as portas do hub simultaneamente, fazendo com que ocorra colisões. Somente uma transmissão pode ser efetuada por vez. Em compensação, o hub apresenta diversas vantagens sobre a topologia linear tradicional. Entre elas, o hub permite a remoção e inserção de novas estações com a rede ligada e, quando há problemas com algum cabo, somente a estação correspondente deixa de funcionar. Quando um hub é adquirido, devemos optar pelo seu número de portas, como 8, 16, 24 ou 32 portas. A maioria dos hubs vendidos no mercado é do tipo "stackable", que permite a conexão de novos hubs diretamente (em geral é necessário o pressionamento de uma chave no hub e a conexão do novo hub é feito em um conector chamado "uplink"). Portanto, você pode ir aumentando a quantidade de hubs de sua rede à medida em que novas máquinas forem sendo adicionadas.

PAGE 41

Switch (Chaveador) Podemos considerar o switch um "hub inteligente". Fisicamente ele é bem parecido com o hub, porém logicamente ele realmente opera a rede em forma de estrela. Os pacotes de dados são enviados diretamente para o destino, sem serem replicados para todas as máquinas. Além de aumentar o desempenho da rede, isso gera uma segurança maior. Várias transmissões podem ser efetuadas por vez, desde que tenham origem e destino diferentes. O Switch possui as demais características e vantagens do hub.

Roteador (Router) Roteador (Router) O roteador é um periférico utilizado em redes maiores. Ele decide qual rota um pacote de dados deve tomar para chegar a seu destino. Basta imaginar que em uma rede grande existem diversos trechos. Um pacote de dados não pode simplesmente ser replicado em todos os trechos até achar o seu destino, como na topologia linear, senão a rede simplesmente não funcionará por excesso de colisões, além de tornar a rede insegura (imagine um pacote de dados destinado a um setor circulando em um setor completamente diferente). Existem basicamente dois tipos de roteadores: os estáticos e os dinâmicos. Os roteadores estáticos são mais baratos e escolhem o menor caminho para o pacote de dados. Acontece que esses roteadores não levam em consideração o congestionamento da rede, onde o menor caminho pode estar sendo super utilizado enquanto há caminhos alternativos que podem estar com um fluxo de dados menor. Portanto, o menor caminho não necessariamente é o melhor caminho. No caso dos roteadores dinâmicos, eles escolhem o melhor caminho para os dados, já que levam em conta o congestionamento da rede. Talvez o pacote de dados siga por um caminho até mais longo, porém menos congestionado que, no final das contas, acaba sendo mais rápido. Alguns roteadores possuem compressão de dados, que fazem aumentar a taxa de transferência.

ARQUITETURA DE REDES TCP/IP Introdução No mundo de hoje, não se pode falar de redes sem falar do TCP/IP. O conjunto de protocolos originalmente desenvolvido pela Universidade da Califórnia em Berkeley, sob contrato para o Departamento de Defesa dos EUA, se tornou o conjunto de protocolos padrão das redes locais e remotas, suplantando conjuntos de protocolos bancados por pesos pesados da indústria, como a IBM (SNA), Microsoft (NetBIOS/NetBEUI) e Novell (IPX/SPX). O grande motivo de todo este sucesso foi justamente o fato do TCP/IP não ter nenhuma grande empresa associada ao seu desenvolvimento. Isto possibilitou a sua implementação e utilização por diversas aplicações em praticamente todos os tipos de hardware e sistemas operacionais existentes.

PAGE 41

Mesmo antes do boom da Internet o TCP/IP já era o protocolo obrigatório para grandes redes, formadas por produtos de muitos fornecedores diferentes, e havia sido escolhido pela Microsoft como o protocolo preferencial para o Windows NT, devido às limitações técnicas do seu próprio conjunto de protocolos, o NetBEUI. Entretanto, ao contrário dos procolos proprietários para redes locais da Microsoft e da Novell, que foram desenhados para serem praticamente "plug and play", as necessidades que orientaram o desenvolvimento do TCP/IP obrigaram ao estabelecimento de uma série de parametrizações e configurações que devem ser conhecidas pelo profissional envolvido com instalação, administração e suporte de redes. Esta primeira aula tem por objetivo passar os conhecimentos teóricos necessários para tornar os alunos aptos a seguirem as aulas seguintes, que explicarão como implementar redes TCP/IP no Windows 95, Windows NT, Netware e outros sistemas populares no mercado. Ao contrário da maioria dos livros "introdutórios" sobre TCP/IP que vemos nas livrarias e universidades, não vamos nos preocupar com os detalhes sobre formatos de pacotes e algoritmos empregados na implementação do protocolo. Vamos nos preocupar sim com os conhecimentos realmente necessários para se trabalhar corretamente com os vários produtos existentes no mercado.

As Pilhas de Protocolos Quem já estudou mais a fundo a documentação de produtos de redes ou participou de cursos mais específicos certamente se deparou com o "Modelo OSI de 7 Camadas". Todos os softwares de redes são baseados em alguma arquitetura de camadas, e normalmente nos referimos a um grupo de protocolos criado para funcionar em conjunto como uma pilha de protocolos (em inglês, protocol stack, por exemplo the TCP/IP stack). O termo "pilha" é utilizado porque os protocolos de uma dada camada normalmente interagem somente com os protocolos das camadas imediatamente superior e inferior. O modelo de pilha traz a vantagem de modularizar naturalmente o software de redes, permitindo a sua expansão com novos recursos, novas tecnologias ou aperfeiçoamentos sobre a estrutura existente, de forma gradual. Entretanto, o Modelo OSI é uma modelo conceitual, e não a arquitetura de uma implementação real de protocolos de rede. Mesmo os protocolos definidos como padrão oficial pelo ISO - International Standards Organization - a entidade criadora do modelo OSI, não foram projetados e construídos segundo este modelo. Por isso, vamos utilizar nesta aula uma simplificação do modelo OSI. O importante é entender o conceito de pilhas de protocolos, pelo qual cada camada realiza uma das funções necessárias para a comunicação em rede, tornando possível a comunicação em redes de computadores utilizando várias tecnologias diferentes.

O Modelo de Pilha de 4 camadas do TCP/IP O TCP/IP foi desenhado segundo uma arquitetura de pilha, onde diversas camadas de software interagem somente com as camadas acima e abaixo. Há diversas semelhanças com o modelo conceitual OSI da ISO, mas o TCP/IP

PAGE 41

é anterior à formalização deste modelo e portanto possui algumas diferenças. O nome TCP/IP vem dos nomes dos protocolos mais utilizados desta pilha, o IP (Internet Protocol) e o TCP (Transmission Control Protocol). Mas a pilha TCP/IP possui ainda muitos outros protocolos, dos quais veremos apenas os mais importantes, vários deles necessários para que o TCP e o IP desempenhem corretamente as suas funções. Visto superficialmente, o TCP/IP possui 4 camadas, desde as aplicações de rede até o meio físico que carrega os sinais elétricos até o seu destino: 4. Aplicação (Serviço) FTP, TELNET, LPD, HTTP, SMTP/POP3, NFS, etc. 3. Transporte TCP, UDP 2. Rede IP 1. Enlace Ethernet, PPP, SLIP Além das camadas propriamente ditas, temos uma série de componentes, que realizam a interface entre as camadas: Aplicação / Transporte DNS, Sockets Rede / Enlace ARP, DHCP

Vamos apresentar agora uma descrição da função de cada camada do TCP/ IP: 1. Os protocolos de enlace tem a função de fazer com que informações sejam transmitidas de um computador para outro em uma mesma mídia de acesso compartilhado (também chamada de rede local) ou em uma ligação ponto-a-ponto (ex: modem). Nada mais do que isso. A preocupação destes protocolos é permitir o uso do meio físico que conecta os computadores na rede e fazer com que os bytes enviados por um computador cheguem a um outro computador diretamente desde que haja uma conexão direta entre eles. 2. Já o protocolo de rede, o Internet Protocol (IP), é responsável por fazer com que as informações enviadas por um computador cheguem a outros computadores mesmo que eles estejam em redes fisicamente distintas, ou seja, não existe conexão direta entre eles. Como o próprio nome (Inter-net) diz, o IP realiza a conexão entre redes. E é ele quem traz a capacidade da rede TCP/IP se "reconfigurar" quando uma parte da rede está fora do ar, procurando um caminho (rota) alternativo para a comunicação. 3. Os protocolos de transporte mudam o objetivo, que era conectar dois equipamentos, para' conectar dois programas. Você pode ter em um mesmo computador vários programas trabalhando com a rede simultaneamente, por exemplo um browser Web e um leitor de e-mail. Da mesma forma, um mesmo computador pode estar rodando ao mesmo tempo um servidor Web e um servidor POP3. Os protocolos de transporte (UDP e TCP) atribuem a cada programa um número de porta, que é anexado a cada pacote de modo que o TCP/IP saiba para qual programa entregar cada mensagem recebida pela rede.

PAGE 41

4. Finalmente os protocolos de aplicação são específicos para cada programa que faz uso da rede. Desta forma existe um protocolo para a conversação entre um servidor web e um browser web (HTTP), um protocolo para a conversação entre um cliente Telnet e um servidor (daemon) Telnet, e assim em diante. Cada aplicação de rede tem o seu próprio protocolo de comunicação, que utiliza os protocolos das camadas mais baixas para poder atingir o seu destino. Pela figura acima vemos que existem dois protocolos de transporte no TCP/ IP. O primeiro é o UDP, um protocolo que trabalha com datagramas, que são mensagens com um comprimento máximo pré-fixado e cuja entrega não é garantida. Caso a rede esteja congestionada, um datagrama pode ser perdido e o UDP não informa as aplicações desta ocorrência. Outra possibilidade é que o congestionamento em uma rota da rede possa fazer com que os pacotes cheguem ao seu destino em uma ordem diferente daquela em que foram enviados. O UDP é um protocolo que trabalha sem estabelecer conexões entre os softwares que estão se comunicando. Já o TCP é um protocolo orientado a conexão. Ele permite que sejam enviadas mensagens de qualquer tamanho e cuida de quebrar as mensagens em pacotes que possam ser enviados pela rede. Ele também cuida de rearrumar os pacotes no destino e de retransmitir qualquer pacote que seja perdido pela rede, de modo que o destino receba a mensagem original, da maneira como foi enviada. Agora, vamos aos componentes que ficam na interface entre os níveis 3 e 4 e entre os níveis 1 e 2. O Sockets é uma API para a escrita de programas que trocam mensagens utilizando o TCP/IP. Ele fornece funções para testar um endereço de rede, abrir uma conexão TCP, enviar datagramas UDP e esperar por mensagens da rede. O Winsockets, utilizado para aplicações Internet em Windows é nada mais do que uma pequena variação desta API para acomodar limitações do Windows 3.1. No Windows NT e Win95 pode ser usada a API original sem problemas. O Domain Name Service (DNS), que será visto com maiores detalhes mais adiante, fornece os nomes lógicos da Internet como um todo ou de qualquer rede TCP/IP isolada. Temos ainda o ARP realiza o mapeamento entre os endereços TCP/IP e os endereços Ethernet, de modo que os pacotes possam atingir o seu destino em uma rede local (lembrem-se, no final das contas quem entrega o pacote na rede local é o Ethernet, não o TCP ou o IP). Por fim, o DHCP permite a configuração automática de um computador ou outro dispositivo conectado a uma rede TCP/IP, em vez de configurarmos cada computador manualmente. Mas, para entender o porque da necessidade do DHCP, temos que entender um pouco mais do funcionamento e da configuração de uma rede TCP/IP.

Endereçamento e Roteamento Em uma rede TCP/IP, cada computador (ou melhor, cada placa de rede, caso o computador possua mais do que uma) possui um endereço numérico formado por 4 octetos (4 bytes), geralmente escritos na forma w.x.y.z. Além deste Endereço IP, cada computador possui uma máscara de rede (network mask ou subnet mask), que é um número do mesmo tipo mas com a

PAGE 41

restrição de que ele deve começar por uma seqüência contínua de bits em 1, seguida por uma seqüência contínua de bits em zero. Ou seja, a máscara de rede pode ser um número como 11111111.11111111.00000000.00000000 (255.255.0.0), mas nunca um número como 11111111.11111111.00000111.00000000 (255.255.7.0). A máscara de rede serve para quebrar um endereço IP em um endereço de rede e um endereço de host. Todos os computadores em uma mesma rede local (fisicamente falando, por exemplo, um mesmo barramento Ethernet) devem ter o mesmo endereço de rede, e cada um deve ter um endereço de host diferente. Tomando-se o endereço IP como um todo, cada computador em uma rede TCP/IP (inclusive em toda a Internet) possui um endereço IP único e exclusivo. O InterNIC controla todos os endereços IP em uso ou livres na Internet, para evitar duplicações, e reserva certas faixas de endereços chamadas de endereços privativos para serem usados em redes que não irão se conectar diretamente na Internet. Quando o IP recebe um pacote para ser enviado pela rede, ele quebra o endereço destino utilizado a máscara de rede do computador e compara o endereço de rede do destino com o endereço de rede dele mesmo. Se os endereços de rede forem iguais, isto significa que a mensagem será enviada para um outro computador na mesma rede local, então o pacote é repassado para o protocolo de enlace apropriado (em geral o Ethernet). Se os endereços forem diferentes, o IP envia o pacote para o default gateway, que é nada mais do que o equipamento que fornece a conexão da rede local com outras redes. Este equipamento pode ser um roteador dedicado ou pode ser um servidor com múltiplas placas de rede, e se encarrega de encaminhar o pacote para a rede local onde está o endereço IP do destino. É importante que o endereço IP do default gateway esteja na mesma subnet que o a máquina sendo configurada, caso contrário ela não terá como enviar pacotes para o default gateway e assim só poderá se comunicar com outros hosts na mesma subnet. Resumindo um computador qualquer em uma rede TCP/IP deve ser configurado com pelo menos estes três parâmetros: o seu endereço IP exclusivo, a sua máscara de rede (que deve ser a mesma utilizada pelos demais computadores na mesma LAN) e o endereço IP do default gateway.

Como se Processa a Comunicação em uma Rede Digamos que o host com o endereço IP é 172.16.1.101 deseje enviar um pacote para o endereço 172.16.2.102. Caso a máscara de rede seja 255.255.0.0, o AND binário do enredeço fonte será 172.16.0.0, e o AND do endereço destino será 172.16.0.0, indicando que ambos possuem o mesmo endereço de rede e portanto estão diretamente conectados no nível de enlace. Neste caso, o nível IP envia um pacote ARP pela rede Ethernet para identificar qual o endereço Ethernet do host cujo IP é 172.16.2.2. Este pacote é enviado como um broadcast, de modo que todos os hosts conectados no mesmo segmento Ethernet receberão o pacote, e o host configurado para o endereço desejado irá responder ao pacote ARP indicando qual o seu endereço Ethernet. Assim o IP pode montar o pacote Ethernet corretamente endereçado e enviar o pacote para o seu destino.

PAGE 41

Agora digamos que a máscara de rede não fosse 255.255.0.0, mas sim 255.255.255.0. Neste caso, os endereços de rede da origem e destino seriam respectivamente 172.16.1.0 e 172.16.2.0. Como os endereços de rede são diferentes, isto significa que não temos conectividade direta (no nível de enlace) entre os dois hosts, portanto o pacote deverá ser entregue por intermédio de um roteador, que é o default gateway. Digamos que o default gateway seja 172.16.1.1 (observe que o endereço de rede do default gateway é 172.16.1.0, o mesmo do nosso host de origem). Então o host irá enviar um pacote ARP pela rede para descobrir o endereço Ethernet do default gateway, e enviará o pacote para este. Ao receber o pacote, o default gateway irá verificar que o endereço IP de destino é o IP de outro host que não ele, e irá verificar qual o endereço de rede do destino. Pode ser que o pacote esteja endereçado para uma rede local na qual o default gateway tenha uma conexão direta, ou pode ser que o default gateway tenha que direcionar o pacote para um outro roteador mais próximo do destino final. De qualquer forma, o default gateway segue o mesmo processo de gerar o endereço de rede utilizando a netmask, e em seguida enviar um pacote ARP pedindo o endereço Ethernet do próximo host a receber o pacote. A diferença é que um roteador não tem um default gateway, mas sim uma tabela de roteamento, que diz quais endereços de rede podem ser alcançados por quais roteadores. Notem que este exemplo considerou apenas a comunicação entre dois equipamentos, não entre dois programas. O nosso exemplo ficou apenas no nível de rede da pilha TCP/IP, mas acima dela o processo é simples: o IP verifica que tipo de pacote foi recebido (TCP, UDP ou outro) e repassa o pacote para o protocolo apropriado. O protocolo de transporte irá então verificar o número de porta contido no pacote e qual programa está associado aquela porta. Este programa será notificado da chegada de um pacote, e será responsabilidade dele decodificar e utilizar de alguma forma as informações contidas no pacote.

Como Testar uma Rede TCP/IP Caso você venha a ter problemas de comunicação, todas as pilhas TCP/IP, independente de qual sistema operacional, trazem o utilitário ping para testar a conectividade entre dois hosts TCP/IP. Siga o seguinte procedimento: 1. ping 127.0.0.1. Este endereço IP é um loopback, ou seja, não vai para a rede, fica no computador que originou a mensagem. Se o ping acusar o recebimento da resposta, significa que a pilha TCP/IP está instalada e ativa no computador onde foi realizado o teste. (Somente a título de curiosidade, você pode usar o loopback do TCP/IP para desenvolver aplicações de rede em uma máquina stand-alone, sem nenhum tipo de conexão de rede disponível.) 2. ping meu_ip. Tendo comprovado que o TCP/IP está ativo na máquina origem, vamos enviar uma mensagem para ela mesmo, para verificar se a placa de rede (ou modem) estão ativos no que diz respeito ao TCP/IP. Aqui você testa apenas o driver da sua placa de rede, não a placa em si nem os cabos da rede. 3. ping ip_na_minha_rede. Agora vamos testar a comunicação dentro da rede local onde o computador de origem está localizado. Garanta que o

PAGE 41

computador dono do ip_na_minha_rede está com o TCP/IP e a sua placa de rede ativos, segundo os dois testes acima. Se não funcionar, você tem um problema de cabos ou em uma placa de rede, ou simplesmente as suas máscaras de rede e endereços IP estão incorretos. 4. ping ip_do_default_gateway. Se a comunicação dentro da minha rede local está OK, temos que verificar se o default gateway da minha rede está no ar, pois todos os pacotes que saem da minha rede local passam por ele. 5. ping ip_do_outro_lado. Digamos que o meu default gateway esteja diretamente conectado na rede destino. Eu tenho que testar se a interface de rede que liga o default gateway a esta rede está no ar. Então eu dou um ping no endereço IP desta placa. Se o default gateway não estiver diretamente conectado na rede destino, eu repito os passos (4) e (5) para cada equipamento que esteja no caminho entre origem e destino. 6. ping ip_do_destino. Sabendo que a outra rede pode ser alcançada via TCP/IP, resta saber se eu consigo me comunicar com o computador desejado.

ARQUITETURA DE REDES TCP/IP Serviços de Nomeação Até agora nós estamos vendo a comunicação em rede utilizando apenas os endereços IP. Imagine o seu cartão de visitas, indicando a sua home-page como: "164.85.31.230". Imagine-se ainda com uma lista contendo dezenas de números como esse pendurada na parede junto ao seu computador, para quando você precisar se conectar a um dos servidores da sua empresa. No início do desenvolvimento do TCP/IP, cada computador tinha um arquivo de hosts que listava os nomes dos computadores e os endereços IP correspondentes. Na Internet, certamente seria inviável manter estes arquivos, não só pelo tamanho que eles teriam mas também pela dificuldade em se manter milhões de cópias atualizadas. Logo foi desenvolvido o DNS, pelo qual diversos servidores mantém um banco de dados distribuído com este mapeamento de nomes lógicos para endereços IP. O DNS funciona de forma hierárquica. Vejam um endereço Internet típico, como www.petrobras.com.br. Inicialmente, separamos o primeiro nome (até o primeiro ponto), "www", que é o nome de um computador ou host, e o restante do endereço, "petrobras.com.br", que é o nome da organização, ou o nome do domínio. Por favor, não confundam o conceito de domínios em endereços Internet com o conceito de domínios em uma Rede Microsoft. Não existe nenhuma relação entre eles. O domínio petrobras.com.br possui o seu servidor DNS, que contém os nomes dos computadores (e endereços IP correspondentes) sob a sua autoridade. E ele sabe o endereço IP do servidor DNS do domínio que está acima dele, .com.br. Os computadores na Petrobras fazem todas as consultas por endereços IP ao servidor do seu domínio, e ele repassa as consultas a outros servidores DNS quando necessário. Os clientes necessitam saber apenas sobre o servidor do seu domínio, e mais nada. Já o servidor DNS do domínio .com.br sabe os endereços IP de todos os servidores dos domínios a ele subordinados (por exemplo, texaco.com.br, mantel.com.br, etc) e o endereço IP do servidor acima dele (domínio .br, o domínio que engloba todo o Brasil). Por fim, o servidor DNS do domínio br

PAGE 41

sabe os endereços de todos os servidores dos domínios a ele subordinados (.com.br, .gov.br, etc) e o endereço do servidor DNS do InterNIC, que é o servidor DNS raiz de toda a Internet. Uma consulta de uma aplicação por um endereço IP sobe por toda a hierarquia de servidores DNS, até o domínio comum de nível mais baixo que seja comum a origem e destino, ou até chegar ao servidor do InterNIC, e depois desce na hierarquia até o domínio onde está o computador destino. A resposta volta pelo caminho inverso, porém cada servidor DNS mantém um cache das respostas recebidas, de modo que uma nova requisição pelo mesmo nome não necessitará percorrer novamente todos os servidores DNS. Pode parecer que é realizado um trabalho muito grande somente para obter um endereço IP, mas o processo como um todo é rápido (quem navega na Web sabe bem disso), e ele possibilita que milhares de organizações integrem suas redes a um custo aceitável e com grande autonomia. Quando você acrescenta uma máquina no seu domínio, você não precisa comunicar ao InterNIC e às redes vizinhas, basta registrar o novo computador no seu servidor DNS.

O protocolo DHCP Recapitulando, cada estação ou servidor em uma rede TCP/IP típica deverá ser configurada com os seguintes parâmetros:

F 0 B 7 Endereço IP F 0 B 7 Máscara de Rede F 0 B 7 Default Gateway Além disso, caso a sua rede utilize um servidor DNS o seu endereço IP também deve ser configurado em cada host. Em uma rede com dezenas ou mesmo centenas de computadores, manter o controle dos endereços IP já utilizados pelas máquinas pode ser um pesadelo. É muito fácil errar o endereço IP de uma máquina, ou errar a máscara de rede ou endereço do default gateway, e geralmente é muito difícil identificar qual a máquina onde existe um erro de configuração do TCP/IP. Para resolver esses problemas você poderá instalar um servidor DHCP na sua rede local (ou melhor, um servidor DHCP para cada subnet, logo veremos porque) e deixar que ele forneça estes parâmetros para as estações da rede. Se você tem uma pilha TCP/IP instalada que suporta o protocolo DHCP, você pode configurar cada estação para usar o DHCP e ignorar todos esses parâmetros. Na inicialização da pilha TCP/IP, a estação irá enviar um pacote de broadcast para a rede (um broadcast é um pacote que é recebido por toda a rede) e o servidor DHCP, ao receber este pacote, enviará os parâmetros de configuração para a estação. Aqui temos comunicação apenas no nível de enlace (pois o TCP/IP ainda não foi completamente inicializado), e portanto não temos a função de roteamento habilitada. Por isso o servidor DHCP deve estar na mesma LAN física onde está a estação que será inicializada. Normalmente os servidores tem sua configuração realizada manualmente, pois o endereço IP deve concordar com o endereço IP cadastrado no servidor DNS.

PAGE 41

O servidor DHCP é configurado com uma faixa de endereços IP que ele pode fornecer aos clientes. Inicialmente, todos os endereços estão disponíveis. Quando uma estação é inicializada, ela envia o broadcast pedindo pela sua configuração, e o servidor DHCP reserva um endereço para ela (que deixa de estar disponível) e registra o endereço Ethernet para o qual o endereço foi reservado. Então ele envia uma resposta contendo este endereço e os demais parâmetros listados acima. O endereço é apenas "emprestado" pelo servidor DHCP, que registra também o momento do empréstimo e a validade deste empréstimo. No próximo boot, a estação verifica se o empréstimo ainda é válido e se não pede um novo endereço (que pode até ser o mesmo, por coincidência). Se o empréstimo estiver em metade da sua validade, o cliente pede uma renovação do empréstimo, o que aumenta a sua validade. E a cada inicialização, o cliente verifica se o endereço emprestado ainda é dela, pois ela pode ter sido deslocada para uma outra LAN, onde a configuração do TCP/IP é diferente, ou por qualquer motivo o Administrador da Rede pode ter forçado a liberação do endereço que havia sido emprestado. O servidor verifica periodicamente se o empréstimo não expirou, e caso afirmativo coloca o endereço novamente em disponibilidade. Desta forma, a não ser que você tenha um número de estações muito próximo ao número de endereços IP reservados para o servidor DHCP, você pode acrescentar, retirar ou mover estações pela sua rede sem se preocupar em configurar manualmente as pilhas TCP/IP a cada mudança. Geralmente o DHCP é utilizado somente para configurar estações cliente da rede, enquanto que os servidores são configurados manualmente. Isso porque o endereço IP do servidor deve ser conhecido previamente (para configuração do default gateway, para configuração do arquivo de hosts, para configuração de DNS, configuração de firewall, etc). Se fosse utilizado o DHCP, o endereço do servidor poderia ser diferente em cada boot, obrigando a uma série de mudanças de configuração em diversos nós da rede.

COMO COMPARTILHAR PASTAS E IMPRESSORAS NA SUA REDE Introdução Após você ter montado sua própria rede, você pode querer compartilhar arquivos e impressoras entre seus computadores. Neste tutorial mostraremos a você como isto é feito. Estamos assumindo que você já montou sua rede. Se este não for o seu caso, leia nosso tutorial Como Montar Pequenas Redes usando um Roteador Banda Larga, onde também explicamos como compartilhar sua conexão com a Internet. Antes de continuar, você deve prestar atenção em como sua rede está montada. Usando um roteador é nossa forma preferida, já que este dispositivo funciona como um firewall baseado em hardware e evitará que pessoas acessem seus arquivos a partir da Internet. Se este é o seu caso, vá em frente e compartilhe suas pastas e impressoras como descrevemos neste tutorial. No entanto, se você não está usando um roteador, você deve ser muito cuidadoso ao compartilhar pastas. Dependendo de como sua rede está configurada, pessoas de fora da sua rede podem ter acesso aos seus arquivos. Já explicamos sobre isto em nosso tutorial Protegendo o Seu Micro Contra Invasões. Se você não está usando um roteador você tem que ler

PAGE 41

este tutorial para aprender como evitar que pessoas de fora tenham acesso aos seus arquivos. O que é o compartilhamento? Compartilhamento é a capacidade de pessoas de outros computadores acessarem recursos localizados em seu computador, como arquivos e impressoras. Este nosso tutorial é baseado no Windows XP. O modo como o compartilhamento de arquivos e impressoras funciona nas versões anteriores do Windows é exatamente o mesmo, apesar do nome exato das opções serem diferentes.

Habilitando o Compartilhamento

A primeira coisa que você precisa fazer no micro que deseja habilitar o

compartilhamento de arquivos e/ou impressoras é verificar se o serviço de

compartilhamento já está instalado. Para isso, clique no menu Iniciar,

Configurações, Conexões de rede e dê um duplo clique na placa de rede

instalada em seu computador.

Figura 1: Dê um duplo clique na placa de rede instalada em seu micro.

Na janela que será mostrada, clique no botão Propriedades.

Figura 2: Clique no botão Propriedades. Na próxima tela você deve verificar se o “Compartilhamento de arquivos e impressoras para redes Microsoft” está habilitado, veja na Figura 3.

Figura 3: Verificando se o compartilhamento de arquivos e impressora está instalado.

Caso não esteja, você precisará instalar este serviço, clicando em Instalar, Serviço, Adicionar. Selecione Compartilhamento de Arquivos e Impressoras para Redes Microsoft e clique em OK. Com este serviço instalado você será capaz de compartilhar pastas e impressoras. Observe que este serviço não é requerido nos computadores clientes, ou seja, computadores que irão acessar arquivos ou impressoras localizados em outros computadores.

Compartilhando Pastas Você pode compartilhar qualquer pasta em seu computador fazendo com que as pessoas possam acessar todos os arquivos contidos nela a partir de outros computadores. Isto inclui uma pasta do seu disco rígido, uma partição, um CD-ROM, um DVD-ROM, uma memória flash USB e até mesmo unidades de disquete. Qualquer dispositivo que é reconhecido como um disco pelo sistema operacional pode ser compartilhado.

PAGE 41

Para compartilhar uma pasta ou disco clique sobre ele com o botão direito do mouse e selecione a opção Compartilhamento e Segurança do menu que aparecerá. Em nosso exemplo iremos compartilhar a partição D: inteira. Como mencionamos, você poderia compartilhar apenas uma pasta do seu disco rígido.

Figura 4: Selecione Compartilhamento e Segurança na pasta que deseja compartilhar.

No menu que aparecerá, clique em “Se você sabe que há risco, mas deseja compartilhar a raiz da unidade mesmo assim, clique aqui”.

Figura 5: Sim, é exatamente isto que nós queremos. Na próxima janela, marque a opção “Compartilhar esta pasta na rede” e dê um nome para o compartilhamento em “Compartilhamento” (usamos “Dados”). Isto é como sua pasta compartilhada será conhecida na sua rede. Se você quiser permitir que pessoas gravem novos arquivos em sua pasta compartilhada ou altere arquivos já existentes, você deve marcar a opção “Permitir que usuários da rede alterem meus arquivos”.

Figura 6: Habilitando o compartilhamento da pasta. Clique em Ok e sua pasta estará acessível por todos os computadores da sua rede (este procedimento pode demorar um pouco). Agora que você compartilhou sua pasta, mostraremos a você como acessá- la a partir de outros computadores.

Acessando Pastas Compartilhadas Para acessar pastas compartilhadas disponíveis em sua rede, clique em Meus locais de rede, ícone que está localizado na Área de Trabalho do Windows. Dê um duplo clique na pasta compartilhada que deseja acessar e isto é tudo o que você precisa fazer para acessar uma pasta compartilhada.

Figura 7: Listando pastas compartilhadas disponíveis na sua rede. Se uma pasta que você sabe que está compartilhada não estiver sendo mostrada em Meus Locais de Rede – um problema muito comum -, pressione a tecla F5. Isto é um atalho para a função “Atualizar”. Se a pasta compartilhada que você quer acessar ainda não está sendo mostrada, clique em “Adicionar um local de rede” (primeira opção na coluna da esquerda), e, na tela que aparecerá, clique no botão Avançar, Escolher outro local de rede, e clique em Avançar. Na tela seguinte, você pode explorar sua rede clicando no botão Procurar. Isto permitirá a você localizar o computador e a pasta compartilhada que você quer acessar. Algumas vezes, no entanto, o Windows não listará o computador ou a pasta compartilhada. Se isto acontecer com você, você pode adicionar manualmente a pasta compartilhada que deseja acessar digitando sua localização em “Endereço de rede ou na Internet”, no formato \ \nome_computador\nome_compartilhamento. Em nosso caso, por exemplo, adicionaríamos \Gabe\Dados, onde Gabe é o nome do computador onde a pasta compartilhada está localizada e Dados é o nome que demos à pasta

PAGE 41

compartilhada (veja na página anterior). Clique no Botão Avançar nas telas subseqüentes para finalizar o assistente.

Figura 8: Forçando o Windows a acessar sua pasta compartilhada. Todas as pastas compartilhadas disponíveis em sua rede estão disponíveis também a partir de qualquer caixa de diálogo Abrir/Salvar/Salvar como, através do ícone Meus Locais de Rede. Então você pode abrir um arquivo armazenado em uma pasta compartilhada dentro do seu programa favorito, por exemplo. Acessando Pastas Compartilhada (Cont.) Você pode atribuir uma letra de unidade para a pasta compartilhada. Isto dará a você uma maneira mais fácil de acessar a pasta compartilhada. Em vez de abrir as pastas compartilhadas através dos Meus Locais de Rede, sua pasta compartilhada estará acessível como F:, por exemplo. Para fazer isto, abra o Meu Computador, Ferramentas, Mapear unidade de rede.

Figura 9: Caminho para atribuir uma letra de unidade para uma pasta compartilhada na rede.

Na janela que será mostrada, você pode escolher uma letra de unidade e associá-la a uma pasta compartilhada. Em nosso caso, atribuímos à nossa pasta Dados a letra Z:. Com isso, esta pasta será acessada como sendo a unidade Z: do nosso micro. Você pode também marcar a opção “Reconectar- se durante o logon” se desejar que este mapeamento seja restabelecido quando você reiniciar o computador.

Figura 10: Atribuindo uma letra de unidade a uma pasta compartilhada na rede.

Figura 11: Agora nossa pasta compartilhada pode ser acessada como Z:. Se você deseja quebrar o mapeamento da unidade no futuro, clique com o botão direito do mouse sobre ela em Meu Computador e escolha Desconectar do menu que aparecerá.

Compartilhando Impressoras O compartilhamento de impressora é muito fácil. Clique no menu Iniciar, Configurações, Impressoras e aparelhos de fax, clique com o botão direito na sua impressora e escolha Compartilhamento no menu que aparecerá.

Figura 12: Caminho para o compartilhamento da sua impressora. Na janela que aparecerá, marque a opção “Compartilhar esta impressora” e digite um nome para a impressora compartilhada na caixa Nome do Compartilhamento. Este é o nome pelo qual sua impressora será conhecida pelos outros computadores em sua rede.

Figura 13: Compartilhando a impressora.

PAGE 41

Clique no botão OK e sua impressora estará acessível por todos os outros computadores localizados em sua rede. Veremos agora como os outros computadores podem acessar sua impressora.

PAGE 41

Acessando Impressoras Compartilhadas Para imprimir em uma impressora localizada em outro computador da sua rede, primeiro você terá que instalar a impressora em seu computador. Para isso, clique no menu Iniciar, Configurações, Impressoras e aparelhos de fax e, em seguida, em Adicionar impressora (primeira opção na coluna da esquerda). Clique em Avançar na primeira tela que aparecerá e, na segunda tela, selecione “Uma impressora de rede ou conectada a outro computador”.

Figura 14: Instalando uma impressora de rede. Clique em Avançar e você verá três opções. Selecione a primeira opção, “Procurar impressora”, para localizar a impressora compartilhada. Clique então em Avançar.

Figura 15: Instalando uma impressora de rede. Na próxima tela você deve procurar na sua rede de modo a localizar a impressora que deseja instalar em seu computador. Clique em Avançar e responda Sim para a pergunta que será feita pelo assistente.

Figura 16: Instalando uma impressora de rede. Na próxima tela você será perguntado se deseja configurar a impressora de rede como impressora padrão em seu computador. Se o seu computador não possui outra impressora instalada, você dever responde Sim. Clique em Avançar e, na tela seguinte, Finalizar.

Figura 17: Definindo a impressora de rede como padrão neste computador. Após esses passos a impressora de rede será instalada em seu computador. A utilização dessa impressora é muito fácil, já que ela é instalada como se fosse uma impressora fisicamente conectada ao seu micro, pronta para ser usada por todos os seus programas.

Figura 18: Impressora de rede depois de instalada em seu computador.

PAGE 41

Até o momento nenhum comentário
Esta é apenas uma pré-visualização
3 mostrados em 80 páginas