a historia dos processadires, Slides de Ciência da Computação. Universidade Federal de Pernambuco (UFPE)
lucas.bernardo.5831
lucas.bernardo.583113 de Fevereiro de 2014

a historia dos processadires, Slides de Ciência da Computação. Universidade Federal de Pernambuco (UFPE)

PDF (142 KB)
16 páginas
841Número de visitas
Descrição
olá.,
20pontos
Pontos de download necessários para baixar
este documento
baixar o documento
Pré-visualização3 páginas / 16
Esta é apenas uma pré-visualização
3 shown on 16 pages
baixar o documento
Esta é apenas uma pré-visualização
3 shown on 16 pages
baixar o documento
Esta é apenas uma pré-visualização
3 shown on 16 pages
baixar o documento
Esta é apenas uma pré-visualização
3 shown on 16 pages
baixar o documento
(Microsoft Word - Apresenta\347\343o)

A história do processador

O processador é o principal componente de hardwere do computador, visto

que todos os programas são executados através dele. Fazendo uma analogia, a CPU é

junto com os softwers(em especial o S.O.) formam o cérebro do computador, pois se

ela parar de funcionar, todo o resto para junto(é morte cerebral parceiro).

Primeira Geração

Os computadores de primeira geração são todos os baseados em tecnologias

de válvulas eletrônicas. Esta geração vai até 1959, mas seu início é classificado em

1942 e 1951. Os computadores da primeira geração normalmente quebravam após

algumas horas de uso. Destaque para o EDVAC.

Segunda Geração

Nos equipamentos de segunda geração, a válvula foi substítuida pelo

transistor, tecnologia usada entre 1959 e 1965. O transistor foi desenvolvido em 1947

no Bell Laboratories e por William Shockley, J.Brattain. Seu tamanho era 100 vezes

menor que o da válvula, não precisava de tempo para aquecimento, consumia menos

energia, era mais rápido e mais confiável. Destaque para 1401 da IBM;

Terceira Geração

A terceira geração começa com a substituição dos transistores pela tecnologia

de circuitos integrados - transistores e outros componentes eletrônicos miniaturizados

e montados num único chip -, que já calculava em nanossegundos (bilionésimos). O

evento considerado precursor da terceira geração é o anúncio em 7 de abril de 1964

da família criada por Gene Amdahl, chamada System/360, o IBM 360, com seis

modelos básicos e várias opções de expansão que realizava mais de 2 milhões de

adições por segundo e cerca de 500 mil multiplicações. Esse fato tornou seus

antecessores totalmente obsoletos e possibilitou à IBM comercializar bem mais 30.000

sistemas.

Quarta Geração

A quarta geração é localizada a partir do ano de 1970 ou 1971 até hoje -

considerando a importância de uma maior escala de integração alcançada pelos CI's de

LSI(Integração em larga escala). Finalmente, a outra corrente usa o mesmo argumento

da anterior, mas considerando que a miniaturização de fato com os VLSI's, definindo a

quarta geração de 1975, com o advento dos microprocessadores e dos

microcomputadores.

Em Novembro de 1971, uma companhia chamada Intel, publicou a introdução

para o mundo do primeiro processador do mundo, o Intel 4004 (Patente Americana

#3,821,715), inventado pelos engenheiros da Intel e Ted Hof. O chip Intel 4004 tinha

tudo que um computador precisava para pensar em um pequeno chip. Programar uma

inteligência artificial em objetos inanimados se tornou possível depois do lançamento

desse revolucionário chip. Os processadores de 64-bit ainda são baseados no 4004.

A arquitetura x86

A arquitetura x86, lançada em meados da década de 70, ainda serve como

base para uma boa parte dos computadores atuais. O primeiro processador que

aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a

velocidade do clock alcançou 5 Mhz, utilizando instruções reais de 16 bits, o dobro que

suas versões concorrentes.

Intel 8086

Pouco tempo depois, o 8088 foi lançado, possuindo o barramento externo

com 8 bits, ao contrário dos 16 bits do 8086, assim, tornando-o mais barato. Nos anos

seguintes, a Intel desenvolveu os modelos 80186 e 80188, utilizados em software

embarcado. Em 1982, o capacidade de processamento chegou ao patamar de 8 Mhz,

através do Intel 80286, que posteriormente atingiu 25 Mhz em modelos similares da

AMD, causando um fenômeno na época.

Versão X86-32

Como seu nome sugere, x86-32 é arquitetura x86 para 32 bits, utilizada até

hoje nos computadores. Em outras palavras, todo processador de 32 bits vendido

atualmente roda sobre a arquitetura x86-32 (os de 64 bits rodam sobre a x86-64).

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80,

trabalhavam com 40 Mhz e 100 Mhz, respectivamente. O 80386 permitiu que vários

programas utilizassem o processador de forma cooperativa, através do escalonamento

de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que

mais de uma instrução seja executada ao mesmo tempo no PC.

Intel 386 (1988)

Esse foi o chip que começou tudo que vemos hoje. Com esse chip, os Pc’s

começaram a ser mais úteis que âncoras de barcos. O 386 o primeiro processador de

32-bit para Pc’s. Ele consegue se comunicar com 4 GB de memória real e 64 TB de

memória virtual. Esse pequeno monstro podia ser usado com um co-processador

matemático, chamado de 80387. E também poderia usar cachê de 16 bytes.

A versão reduzida do chip é o 386SX. Esse é o chip mais barato para se

produzir. Se comunicava com placas via 16-bit. O 386 chegava de 12.5MHz até 33MHz.

Os processadores 386 foram desenvolvidos para serem de fácil uso. Todos os chips da

família 386 era compatíveis com o código binário com o seu antecessor 186, isso

significa que o usuário não precisa adquirir um novo software para usá-lo. Além disso,

o 386 oferecia um sistema de energia amigável como a baixa necessidade de voltagem

e também System Management Mode (SMM) que é usado para economizar energia.

Além de tudo, esse foi um grande passo para o desenvolvimento de processadores. Ele

deixou muitos padrões que são usados até hoje.

Intel 486 (1991)

Essa foi a próxima geração de processadores. Ela trouxe o cérebro do 386 com

o co processador matemático, com isso ele se tornava muito mais rápido. Esse

processador já rodava a 120 MHz e ainda é usado nos dias de hoje.

Para o 80486, existiram diversas versões, sendo que cada uma delas possuiam

pequenas diferenças entre si. Por exemplo, o 486DX era o top de linha da época

enquanto o 486SX era uma versão baixo custo.

A guerra entre Intel e AMD

A série de processadores Intel e AMD marcaram época no mundo da

informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado

em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da

super escalabilidade, ou seja, a replicação de hardware para que mais instruções

fossem executadas ao mesmo tempo. Seu clock inicial era de 100 Mhz, o qual chegou

a atingir 200 Mhz com o tempo.

Família Pentium (1993)

A família Pentium incluía as velocidades de clock de

75/90/100/120/133/150/166/200. É compatível com todos os Sistemas operacionais

antigos, incluindo o DOS, Windows 3.1, Unix e OS/2. É um processador super escalado

e pode executar duas instruções por ciclo de clock. A separação das cachês fez com

que a performance crescesse muito, bem acima dos chips x86. Tem o SL power

management e tem a habilidade de trabalhar em grupo com outro Pentium. O chip se

comunica por uma placa bus 64-bit. Tem 273 pinos conectado na placa mãe. Esse chip

é muito rápido mas também esquenta demais, então o uso de coolers começou a ser

necessário. Um pouco depois do primeiro lançamento a Intel lançou algumas versão

dos chips que operavam a 3.3 volts, não como os usuais 5 volts. Isso reduziu

significantemente o calor. Também lançado o Pentium MMX que tinha 70% a mais de

velocidade que os outros.

Em 1995, a Intel lançava o Pentium Pro, que possuía uma série de

melhoramentos em relação ao seu antecessor. Paralelamente, a AMD começava a

ganhar mercado com modelos similares, principalmente como o AMD K5, forte

concorrente do Pentium original.

Dois anos depois, o Pentium II foi lançado, atingindo a marca de 450 Mhz.

Nesta mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como

o AMD K6. Por esse motivo ambas empresas travaram uma espécie de “corrida

armamentista”, como o objetivo de ver quem conseguia o maior desempenho e valor

de clock.

A corrida por desempenho a lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o

desempenho dos processadores dobrava a cada 18 a 24 meses. Tal afirmação foi

conhecida como a Lei de Moore, a que supostamente perdura até os dias atuais.

Sempre que uma empresa lançava um modelo, meses depois a outra lançava outro

que o superava. Isso ficou bastante evidente nos anos de 1999 e 2000, quando o

Pentium 3 e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período

de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências

maiores que 1 Ghz, superou o Pentium 3.

A reviravolta da Intel veio com o lançamento do Pentium 4 em 2001, que

trabalhava com até com 2 Ghz, voltando ao topo do mercado. As versões de baixo

custo dessas CPUs, Celeron (Intel) e Duron (AMD) também disputavam fortemente o

lugar mais alto no ranking do processador B mais vendido.

O Advento 64 bits

No começo desta década, ficou claro que o uso de 32 bits não seria mais

eficiente, visto que somente 4 GB de memória RAM poderiam ser endereçados com

essa quantidade de dígitos. Logo, a solução mais natural foi o desenvolvimento de

novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.

Ambas empresas desenvolveram suas próprias arquiteturas 64 bits, contudo,

somente o projeto da AMD (x86-64 AMD64) foi vitorioso, enquanto que o

desenvolvido pela Intel (IA-64) foi malsucedido. O principal fato para isso ter

acontecido foi porque a AMD evoluiu o AMD64 diretamente do x86-32, enquanto que

a Intel tentou criar o projeto direto do zero.

Visto esse acontecimento, as empresas em questão criaram um acordo no uso

destas arquiteturas, onde a AMD licenciou a Intel para o uso do x86-64. Por outro lado,

a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os

modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD

Athlon 64 (imagem acima) foi um dos maiores representantes desta arquitetura.

A era multi-core

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus

transistores foram diminuindo de forma significativa. Contudo, após o lançamento do

Pentium 4, eles já estavam tão pequenos (0.13 micrometros) e numerosos (120

milhões) que tornou-se muito difícil aumentar o clock por limitações físicas,

principalmente pelo superaquecimento gerado.

A principal solução para este problema veio com o uso de mais de um núcleo

ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa

trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas

funcionar de maneira eficiente, é possível trabalhar com quase o dobro do clock. Por

exemplo, um processador dual core 1.5 Ghz poderia ter um desempenho semelhante a

um single-core de 3 Ghz. Existe um componente chamado escalonador, que

determina em qual dos núcleos uma tarefa qualquer será executada. Como o

escalonador demora um certo tempo nesta decisão, é quase impossível atingir o dobro

de desempenho na prática.

Pentium D ou Dual core

A Intel precisava colocar dois núcleos com uma freqüência muito alta(dissipa

muito calor) para conseguir um bom desempenho. O Pentium D é um

microprocessador desenvolvido pela Intel no Centro de Pesquisa e Desenvolvimento

de Israel, foi apresentado ao público na primavera de 2005 no Fórum de

desenvolvedores da Intel. O Chip Pentium D consiste em dois Pentium 4 em um único

encapsulamento (ao contrário da convicção popular que eles são dois núcleos fundidos

em um único núcleo).

O Pentium D foi o primeiro processador a anunciar o CPU multicore (junto

com seu irmão mais caro, o Pentium Extreme Edition) para computadores desktop. A

intel enfatizou o significado desta introdução predizendo que ao final de 2006, mais de

70% de suas CPUs comercializados seriam multicore.

Pentium Extreme Edition

Pelo nome não parece, mas os tais Pentium Extreme Edition são

processadores de duplo núcleo também. A diferença entre estes e os Pentium D é,

basicamente, que o Extreme Edition é um processador com dois Pentium 4 Extreme

Edition trabalhando em conjunto. Com um desempenho um pouco melhor, algumas

tecnologias a mais que auxiliam no trabalho pesado, este processador ganhou pouca

fama, pois logo foi substituído por outros modelos.

O Pentium 4 Extreme Edition trabalhava com a tecnologia HT (a qual simulava

dois processadores num só), a qual permitia um ganho de até 30% em múltiplas

tarefas. Como o Pentium Extreme Edition é uma evolução, ele traz dois núcleos que

operam com a tecnologia HT. Sendo assim, os dois núcleos do Pentium Extreme

Edition simulam dois núcleos virtuais, de modo que o processador disponibiliza quatro

núcleos para o sistema.

Core 2 Duo

Se comparado com os antigos processadores de dois núcleos da empresa, os

Core 2 Duo mostram uma superioridade incrível. O grande motivo da diferença em

desempenho é o novo sistema de núcleo da Intel.

Os antigos Pentium D trabalhavam com uma linha de processamento idêntica

a dos Pentium 4, já os tais Core 2 Duo funcionam com a nova tecnologia Core. Com

uma freqüência (velocidade) mais baixa, um pouco mais de memória interna, modos

mais eficiente de compartilhamento de recursos e alguns outros detalhes, os Core 2

Duo são os processadores mais potentes no ramo dos Dual Core.

O Intel Core 2 Duo é indicado para jogos de última geração, edição de imagem

e vídeo, programas matemáticos ou de engenharia e tarefas que requisitem alto

processamento. Há vários modelos, sendo que os mais fortes não são viáveis para

quem procura montar um PC econômico.

Pentium Dual Core

O Pentium Dual Core surgiu praticamente na mesma época do Core 2 Duo.

Tendo a arquitetura (sistema interno de peças) baseada no Core 2 Duo, o Pentium

Dual Core trouxe apenas algumas limitações. O tão falado FSB (barramento frontal)

tem velocidade menor, a memória interna (cache) do processador é menor e os

modelos disponíveis trazem clocks (velocidades) mais baixos.

Para o usuário que procura apenas navegar na internet e realizar tarefas

simples, este processador pode ser uma excelente escolha, visto que a relação custo-

benefício dele é uma das melhores quando se fala em processadores Intel de duplo

núcleo.

Intel Core 2 QuadCore 2 Quad

Descendentes dos Core 2 Duo, os Core 2 Quad nada mais são do que

processadores com quatro núcleos e um sistema interno muito semelhante aos seus

antecessores. Ainda novos no mercado, os Core 2 Quad apresentam desempenho

relativamente alto, porém em algumas tarefas eles perdem para os Dual Core.

O grande problema nos “Quad Core” (termo adotado para falar a respeito de

qualquer processador de quatro núcleos) é a falta de programas aptos a trabalhar com

os quatro núcleos. Além disso, o custo destes processadores ainda não é ideal para os

usuários domésticos.

Intel Core 2 ExtremeCore 2 Extreme Quad Core

Apesar da grande performance apresentada pelos Core 2 Quad, a Intel

conseguiu criar um processador quase idêntico com maior velocidade. Apresentando

dois modelos com a velocidade de clock superior, a Intel criou estes processadores

especificamente para gamers e usuários fanáticos por overclock.

Modelos Extreme prontos para overclockA relação custo-benefício é péssima,

pois custam quase o dobro dos Core 2 Quad e não fornecem o dobro de desempenho.

Em jogos há um pequeno ganho de desempenho, mas nada extraordinário que valha

realmente a pena.

Vale ressaltar que há processadores Core 2 Extreme de dois e quatro núcleos.

Ao comprar um Core 2 Extreme é importante averiguar se o processador é de dois ou

quatro núcleos, pois enganos acontecem e você pode acabar pagando por um

processador Quad Core e levar um Dual Core, muito cuidado!

Microarquitetura Intel® Nehalem(icore)

A última geração de microarquitetura da Intel, cujo primeiro exemplo foi o

processador Intel® Core™ i7, representa a próxima etapa da tecnologia de núcleos

múltiplos que maximizou de forma inteligente o desempenho para atender à sua carga

de trabalho. Com projeto totalmente novo para beneficiar-se da microarquitetura

Intel® Core™ high-k de 45nm de última geração, a microarquitetura Intel® também

chamada de Nehalem, libera desempenho de processamento paralelo habilitado por

um controlador de memória integrado e pela Tecnologia Intel® QuickPath

proporcionando interconexões de alta velocidade para cada núcleo de processamento.

O próximo nível de desempenho de núcleos múltiplos

A microarquitetura Intel®, codinome Nehalem, oferece a mais avançada

inovação em processadores, incluindo:

* Escalabilidade dinâmica, núcleos, sub-rotinas, cache, interfaces e potência

gerenciados para desempenho por demanda eficiente no uso de energia.

* Escalabilidade do design e do desempenho para servidores, workstations,

notebooks e PCs com suporte para 2-8+ núcleos e até 16+ sub-rotinas com a Intel® HT

Technology (Tecnologia Hyper-Threading Intel®) Conteúdo em inglês e caches de

tamanhos escalonáveis, interconexões entre sistemas e controladores de memória

integrados.

* Desempenho inteligente por demanda com a Tecnologia Intel® Turbo

Boost Conteúdo em inglês aproveitando a potência do processador e o espaço

térmico. Isso permite desempenho aprimorado tanto de cargas de trabalho de sub-

rotinas múltiplas quanto simples.

* Desempenho aprimorado em aplicativos com muitas sub-rotinas com a

Tecnologia Intel HT, incorporando os aplicativos de alto desempenho às principais

atividades de computação com sub-rotinas de 1-16+ otimizadas para a arquitetura de

processadores multi-core Intel® de última geração.

* A memória compartilhada escalonável oferece memória distribuída para

cada processador com controladores de memória integrados e as interconexões

ponto-a-ponto de alta velocidade da Tecnologia QuickPath Intel para liberar o

desempenho das próximas versões dos processadores multi-core Intel® de última

geração.

* O cache compartilhado de núcleos múltiplos melhora o desempenho e a

eficiência reduzindo a latência para dados utilizados com frequência.

Front Side Bus - Barramento Externo

É o caminho de comunicação do processador com o chipset da placa-mãe,

mais especificamente o circuito ponte norte. É mais conhecido em português como

"barramento externo".

Em geral este termo aparece quando há menção ao clock externo do

processador. Por exemplo "FSB de 100 MHz" significa "clock externo de 100 MHz".

Todos os processadores a partir do 486DX2 passaram a usar um esquema chamado

multiplicação de clock, onde o clock interno do processador é maior do que o seu clock

externo (ou seja, clock do barramento externo ou FSB). Por exemplo, o Pentium 4 de

3,2 GHz trabalha internamente a 3,2 GHz, porém externamente ele opera a 200 MHz

(ou seja, seu FSB é de 200 MHz).

HyperTransport

Tecnologia HyperTransport ™ é um link ponto-a-ponto de alta velocidade,

baixa latência, concebido para aumentar a velocidade de comunicação entre circuitos

integrados nos computadores, servidores, sistemas embarcados e redes e

equipamentos de telecomunicações até 48 vezes mais rápido que algumas tecnologias

existentes.

HyperTransport ajuda a reduzir o número de ônibus em um sistema, que pode

reduzir os estrangulamentos do sistema e liberar os microprocessadores mais rápidos

da atualidade para usar a memória do sistema com mais eficiência em sistemas de

multiprocessadores de alta qualidade.

HyperTransport Technology é projetado para:

* Fornecer muito mais banda do que as tecnologias atuais

* Use as respostas de baixa latência e baixa contagem de pin

* Manter a compatibilidade com o legado ônibus PC ao ser extensível a

novas SNA (Systems Network Architecture) ônibus

* Aparecem transparentes para os sistemas operacionais e oferecer pouco

impacto sobre controladores de periféricos

A tecnologia HyperTransport foi inventada na AMD com contribuições de

parceiros da indústria e é gerido e licenciada pelo HyperTransport Technology

Consortium, uma Texas corporação sem fins lucrativos.

SERVIDORES(AJUDA PARA ENTENDER AS VISITAS TÉCNICAS)

Hardware

Servidores dedicados, que possuem uma alta requisição de dados por partes

dos clientes e que atuam em aplicações críticas utilizam hardware específico para

servidores. Já servidores que não possuam essas atuações podem utilizar hardware de

um computador comum.

Para começar, muitos servidores baseiam-se em entradas e saídas de

informações (principalmente gravações e deleções de arquivos), o que implica

interfaces de entrada e saída e discos rígidos de alto desempenho e confiabilidade. O

tipo de disco rígido mais utilizado possui o padrão SCSI, que permite a interligação de

vários periféricos, dispostos em arranjos RAID.

Devido a operar com muitas entradas e saídas de informações, os servidores

necessitam de processadores de alta velocidade, algumas vezes alguns servidores são

multi-processados, ou seja, possuem mais de um processador. Servidores também tem

disponível uma grande quantidade de memória RAM, sendo geralmente usada para

caching de dados.

Por ter de operar por muito tempo (frequentemente de maneira

ininterrupta), alguns servidores são ligados a geradores elétricos. Outros utilizam

sistemas de alimentação (por exemplo, o UPS) que continuam a alimentar o servidor

caso haja alguma queda de tensão.

E, por operar durante longos intervalos de tempo, e devido à existência de um

ou mais processadores de alta velocidade, os servidores precisam de um eficiente

sistema de dissipação de calor, o que implica coolers mais caros, mais barulhentos,

porém de maior eficiência e confiabilidade.

Existem outros hardwares específicos para servidor, especialmente placas, do

tipo hot swapping, que permite a troca destes enquanto o computador está ligado, o

que é primordial para que a rede continue a operar.

Discute-se muito sobre a utilização ou não de um micro comum, o popular

Personal Computer (PC), como servidor e a necessidade de ou não de se adquirir um

equipamento mais robusto para atuar como servidor. A resposta a essa questão

depende da utilização do equipamento e da "criticidade" do serviço que o servidor

está executando. Em uma estrutura não crítica, um computador comum pode ser

usado como servidor. Note que o tamanho da rede não importa; por exemplo: uma

empresa com 3 instrutores on-line na Internet tem 3 computadores e um deles é o

servidor de acesso à Internet. Se este servidor falha o negócio da empresa está parado.

Prevendo esse tipo de necessidade, os fabricantes de componentes de

computadores desenvolvem placas mais robustas, aplicam uma engenharia mais

elaborada de ventilação, redundância de itens e capacidade de expansão ampliada,

para que o servidor possa garantir a disponibilidade do serviço e a confiabilidade no

mesmo.

Normalmente a preocupação em desenvolver servidores fica centrada em

grandes fabricantes do mercado, que possuem equipes preparadas e laboratórios com

esse fim.

ARTIGO INFORMATIVO

Computador quântico já funciona

Computador quântico: refrigeração (ao alto), filtro de ruídos (centro) e chip

SÃO PAULO - A empresa canadense D-Wave demonstrou nesta semana o

primeiro computador quântico do mundo.

O Orion, contruído pela D-Wave, é um computador de 16 qubits ("bits"

quânticos). É a primeira máquina desse tipo capaz de realizar tarefas práticas. O fato

de ele estar em pleno funcionamento é surpreendente. Alguns especialistas vinham

prevendo que demoraria 20 anos para que os computadores quânticos pudessem ser

usados na prática.

Durante a demonstração, o Orion resolveu problemas de lógica, encontrou

soluções para o jogo Sudoku e pesquisou alternativas para drogas usadas na indústria

farmacêutica. Tudo isso poderia ser feito, tranqüilamente, por um computador digital

comum. Mas a demonstração tem enorme importância, já que comprova a viabilidade

prática da computação quântica.

O Orion é baseado num único chip quântico. Sobre uma base de silício, esse

chip abriga os 16 qubits. Cada um deles é formado por uma porção de nióbio

circundada por uma bobina. Quando a bobina é estimulada eletricamente, ela gera um

campo magnético, que provoca alterações de estado nos átomos de nióbio. Essas

mudanças de estado são captadas pelos circuitos e transformadas em dados.

Para processar informações, elas primeiro são convertidas em impulsos

analógicos, que são enviados às bobinas. Depois, os sinais analógicos coletados são

novamente convertidos em bits. Como os sinais analógicos podem sofrer

interferências, um complexo filtro de 128 canais é usado para eliminar o ruído. Assim,

o processador quântico pode interagir com circuitos digitais convencionais.

Para que tudo isso funcione, o chip quântico precisa ser congelado a 4

milikelvins, temperatura muito próxima do zero absoluto. Isso é feito por meio de um

sistema de refrigeração com hélio líquido. O nióbio torna-se supercondutor nessa

temperatura. Um detalhe curioso é que esse modelo traz de volta a computação

analógica, que floresceu durante um breve período, nos anos 70, para ser depois

substituída pela digital.

Em seu estágio atual, o Orion não tem aplicação comercial. Mas a D-Wave diz

que vai produzir um computador de 32 qubits ainda neste ano. No primeiro semestre

de 2008, a empresa espera chegar a 512 qubits para, em menos de dois anos, atingir 1

quiloqubit.

O plano da empresa é prestar serviços a organizações que necessitam resolver

problemas lógicos complexos. Entre as possíveis aplicações estão criptografia, pesquisa

genética e farmacêutica. Para isso, primeiro é preciso que a D-Wave consiga cumprir

seu plano de produzir máquinas de maior capacidade, algo que ainda não é garantido.

Geordie Rose, fundador e diretor técnico da companhia, diz que acredita que o plano

vai dar certo "mas nós podemos estar enganados", admite ele.

comentários (0)
Até o momento nenhum comentário
Seja o primeiro a comentar!
Esta é apenas uma pré-visualização
3 shown on 16 pages
baixar o documento