sexta-feira, 10 de dezembro de 2010

CPU - Central Processing Unit

Um processador tem, por propósito, realizar operações com dados (que denominamos processamento) normalmente numéricos. Para realizar essas operações o processador necessita em primeiro ligar interpretar que tipo de operação ele irá executar. Em seguida, antes da realização propriamente dita da operação, é necessário que os dados estejam armazenados no dispositivo que irá executar a operação.

A ULA (“ALU”) é o dispositivo do processador que efectivamente executa as operações matemáticas com os dados. Tais operações podem ser, por exemplo:
Soma, subtração, multiplicação e divisão;
Operação lógica AND, OR, XOR;
Deslocamento à direita, deslocamento à esquerda; Entre outros




Servem para armazenar dados (ou para guardar resultados), que serão usadas pela ULA, ou resultados parciais das operações.

Para que um dado possa ser transferido pela ULA, é necessário que ele permaneça, mesmo por um breve instante, armazenado em um registrador; Além disto, o resultado de uma operação realizada na ULA deve ser armazenado, temporariamente, de modo a ser reutilizado mais adiante;

A UC é o dispositivo mais complexo do processador. Ele possui a lógica necessária para realizar a
movimentação de dados e instruções “de” e “para” o processador, através dos sinais de controle
que emite em instantes de tempo determinados conforme uma programação prévia.
A figura abaixo mostra o diagrama em bloco simplificado da função controle

O relógio (clock) é um dispositivo gerador de pulsos cuja duração é
chamada de ciclo. A quantidade de vezes em que este pulso básico se repete em um
segundo define a unidade de media do relógio denominada freqüência, a qual também é utilizada para definir
a velocidade da UCP. Servem para: Sincronizar, ou seja, permitir que duas ou mais ações
ocorram no mesmo instante de tempo. Cadenciar as ações realizadas em um determinada positivo,
ou seja, controlar a velocidade com que elas ocorrem.

sexta-feira, 3 de dezembro de 2010

Processadores actuais da AMD

 Este e o processador mais potente actualmente no mercado para desktops.

Para consultar outros modelos existentes clique aqui.


  Este e o processador mais potente actualmente no mercado laptops.

 
Para consultar outros modelos existentes clique aqui.
 Este e o processador mais potente actualmente no mercado servidores.Para consultar outros modelos 

existentes clique aqui.

Processadores actuais da Intel

Este e o processador mais potente da actualidade para laptops,  saber mais sobre os outros existentes no mercado consulte o site da intel.

Este e o processador mais potente da actualidade para Desktops,  saber mais sobre os outros existentes no mercado consulte o site da intel.
 
Este e o processador mais potente da actualidade para servidores, existem ainda:
Para saber mais consulte o site da Intel

Evolução dos Processadores


quarta-feira, 10 de novembro de 2010

Interfaces da memória de secundária


Tipos de transmissão
A transmissão em paralelo, ao contrário da transmissão em série, precisa de vários fios para transportar a informação. Esta informação pode ser enviada em palavras de 4, 8, 16, 32 ou 64 bits simultaneamente ao receptor por várias vias, entre as quais pinos, fios ou outros meios físicos.

Porta Paralela
Velocidade 50 a 100 KB/s.
 Surgiu em 1981 pela IBM
Comunicação em série 
Destina-se a scanners, câmeras  de vídeo, unidade de disco removível entre outros.

Porta Serie

Velocidade 115.200 bit/s
Surgio em 1969 pela IBM
Comunicação em serie
Destina-se a modems, ratos, impressoras, scanners etc...

USB

Velocidades
USB 1.0- 12Mb/s
USB 2.0- 480Mb/s
USB 3.0- 4,8Gb/s

Data de lançamento
    USB 0.7: Lançado em novembro  de 1994.
    USB 0.8: Lançada em dezembro de 1994.
    USB 0.9: Lançada em abril de 1995.
    USB 0.99: Lançado em agosto de 1995.
    USB 1.0: Lançado em janeiro de 1996,
    USB 2.0: Lançado em abril de 2000
    USB 3.0: Lançado em setembro de 2009
Comunicação em serie
Destina-se a Webcam, Teclado, Mouse, Unidades de armazenamento (HD, Pendrive, CD-ROM), Joystick, Gamepad, PDA, Câmera digital, Impressora, Placa-de-Som, Modem, MP3 Player


FireWire 

Velocidades 786,432 Mbit/s
Data de lançameto 1990
Comunicação em serie
                             
    

e-SATA
Velocidades  150 MB/s 
Data de lançamento  2004
comunicação em serie
Destina-se a ligar discos sata externos.

Light Peack

Velocidade 10Gb/s
Data de Lançamento 2009
Comunicação em serie





sexta-feira, 5 de novembro de 2010

Interfaces de memória secundária

SCSI, é uma tecnologia que permite ao usuário conectar uma larga gama de periféricos, tais como discos rígidos, unidades CD-ROM, impressoras  e scanners.Existe uma grande variedade de padrões de dispositivos SCSI, sendo que estes inicialmente usavam interfaces paralelas. Alguns exemplos: SCSI-1 (barramento de 8 bits, clock de 5 MHz e taxa de transferência de 5 MB/s), Fast SCSI (barramento de 8 bits, clock de 10 MHz e taxa de transferência de 10 MB/s), Ultra SCSI (barramento de 8 bits, clock de 20 MHz e taxa de transferência de 20 MB/s), Ultra2 Wide SCSI (barramento de 16 bits, clock de 40 MHz e taxa de transferência de 80 MB/s) e Ultra-320 SCSI (barramento de 16 bits, clock de 80 MHz DDR e taxa de transferência de 320 MB/s).


ATA é um padrão para interligar dispositivos de armazenamento, como discos rígidos e drives de CD-ROMs, no interior de computadores pessoais. A evolução do padrão fez com que se reunissem em si várias tecnologias antecessoras.




 Serial ATA, SATA ou S-ATA (acrônimo para Serial Advanced Technology Attachment) é uma tecnologia de transferência de dados entre um computador e dispositivos de armazenamento em massa (mass storage devices) como unidades de disco rígido e drives ópticos.
O sata atinge uma transferência máxima de 300 MB/s. SATA II é geralmente compatível com SATA I, tanto de SATA II para SATA I quanto ao contrário, o que permite usar os mesmos plugs e os mesmos cabos. No entando alguns sistemas não suportam a velocidade SATA II e a velocidade do clock  deve ser limitada manualmente para 150 Mb/s por meio de um jumper

quarta-feira, 3 de novembro de 2010

Barramentos de Expansão

Barramento ISA (Industry Standard Architecture)
O barramento ISA é um padrão não mais utilizado, sendo encontrado apenas em computadores antigos. Seu aparecimento se deu na época do IBM PC e essa primeira versão trabalha com transferência de 8 bits por vez e clock de 8,33 MHz (na verdade, antes do surgimento do IBM PC-XT, essa valor era de 4,77 MHz).
 
 Barramento PCI (Peripheral Component Interconnect)
O barramento PCI surgiu no início de 1990 pelas mãos da Intel. Suas principais características são a capacidade de transferir dados a 32 bits e clock de 33 MHz, especificações estas que tornaram o padrão capaz de transmitir dados a uma taxa de até 132 MB por segundo. Os slots PCI são menores que os slots ISA, assim como os seus dispositivos, obviamente.

Barramento PCI-X (Peripheral Component Interconnect Extended)
Muita gente confunde o barramento PCI-X com o padrão PCI Express (mostrado mais abaixo), mas ambos são diferentes. O PCI-X nada mais é do que uma evolução do PCI de 64 bits, sendo compatível com as especificações anteriores. A versão PCI-X 1.0 é capaz de operar nas freqüêcias de 100 MHz e 133 MHz. Neste última, o padrão pode atingir a taxa de transferência de dados de 1.064 MB por segundo. O PCI-X 2.0, por sua vez, pode trabalhar também com as freqüências de 266 MHz e 533 MHz.

Barramento AGP (Accelerated Graphics Port)
Se antes os computadores se limitavam a exibir apenas caracteres em telas escuras, hoje eles são capazes de exibir e criar imagens em altíssima qualidade. Mas, isso tem um preço: quanto mais evoluída for uma aplicação gráfica, em geral, mais dados ela consumirá. Para lidar com o volume crescente de dados gerados pelos processadores gráficos, a Intel anunciou em meados de 1996 o padrão AGP, cujo slot serve exclusivamente às placas de vídeo.


Barramento PCI Express

O padrão PCI Express (ou PCIe ou, ainda, PCI-EX) foi concebido pela Intel em 2004 e se destaca por substituir, ao mesmo tempo, os barramentos PCI e AGP. Isso acontece porque o PCI Express está disponível em vários segmentos: 1x, 2x, 4x, 8x e 16x (há também o de 32x, mas até o fechamento deste artigo, este não estava em uso pela indústria). Quanto maior esse número, maior é a taxa de transferência de dados. Como mostra a imagem abaixo, esse divisão também reflete no tamanho dos slots PCI Express:

PCI Express 2.0

Em janeiro de 2007 foi concluído o desenvolvimento do padrão PCI Express 2.0 (PCIe 2.0), que oferece o dobro de velocidade do padrão antigo, ou seja, 500 MB/s (também bidirecional) ao invés dos 250 MB/s. Um slot PCI Express x16, no padrão 2.0, poderá transferir até 8 GB/s contra 4 GB/s do padrão anterior.

Gestão de memória e o DMA

Gestao de memória é um complexo campo da ciência da computação e são constantemente desenvolvidas várias técnicas para torná-la mais eficiente. Em sua forma mais simples, está relacionado em duas tarefas essenciais:
A cada dia que passa os programadores necessitam de mais memória e mais programas rodando simultaneamente para poderem tratar cada vez mais informações. O tratamento necessário da memória utilizada não é uma tarefa fácil de ser implementada. Existem vários requisitos que devem ser observados para o correto funcionamento, tais como, Segurança, Isolamento, Performance, entre outros. Para isto a função de gerenciar a memória passa a ser do sistema operacional e não mais do aplicativo. Para que uma memória funcione de maneira correta, é necessário que se tome cuidado com vários elementos como segurança e isolamento, e para isso é utilizado o gerenciamento de memória. Este desenvolve sua função a partir de duas tarefas, a Alocação de Memória e a Fragmentação.


O DMA permite que certos dispositivos de hardware  num computador acedam a memória  do sistema para leitura e escrita independentemente da CPU. Muitos sistemas utilizam DMA, incluindo controladores de disco, placas gráficas, de rede ou de som.O acesso dirceto da memória é usado igualmente para transferência de dados de núcleos em processadores multi-core, em especial nos sistema-em-microplaquetas do processador, onde seu elemento de processamento é equipado com uma memória local ,e o acesso direto da memória é usado para transferir dados entre a memória local e a memória principal. Os computadores que têm os canais de acesso direto a memória podem transferir dados aos dispositivos com muito menos perdas gerais de processamento do que computadores sem uma via de acesso direto à memória. Com acesso direto da memória, o processador central executa transferências, faz outras operações enquanto alguma transferência estiver em andamento, recebe uma interrupção do controlador de acesso direto da memória uma vez que a operação foi feita.

sexta-feira, 29 de outubro de 2010

Memoria cache

Um cache é um bloco de memória para o armazenamento temporário de dados que possuem uma grande probabilidade de serem utilizados novamente.Uma definição mais simples de cache poderia ser: uma área de armazenamento temporária onde os dados frequentemente acedidos são armazenados para acesso rápido.

Cache L1
Uma pequena porção de memória estática presente dentro do processador. Em alguns tipos de processador, como o Pentium 2, o L1 é dividido em dois níveis: dados e instruções (que "dizem" o que fazer com os dados). A partir do Intel 486, começou a se colocar a L1 no próprio chip [processador]. Geralmente tem entre 16KB e 128KB; hoje já encontramos processadores com até 16MB de cache.

Cache L2
Possuindo o Cache L1 um tamanho reduzido e não apresentando uma solução ideal, foi desenvolvido o cache L2, que contém muito mais memória que o cache L1. Ela é mais um caminho para que a informação requisitada não tenha que ser procurada na lenta memória principal.

Cache L3
Terceiro nível de cache de memória. Inicialmente utilizado pelo AMD K6-III (por apresentar o cache L2 integrado ao seu núcleo) utilizava o cache externo presente na placa-mãe como uma memória de cache adicional. Ainda é um tipo de cache raro devido a complexidade dos processadores atuais, com suas áreas chegando a milhões de transístores por micrómetros ou picómetros de área. Ela será muito útil, é possível a necessidade futura de níveis ainda mais elevados de cache, como L4 e assim por diante.

DRAM e SRAM

Memória SRAM (Static Random Access Memory, que significa memória estática de acesso aleatório em Português) é um tipo de memória de acesso aleatório que mantém os dados armazenados desde que seja mantida sua alimentação, não precisando que as células que armazenam os bits sejam refrescadas (atualizadas de tempo em tempo), como é o caso das memórias DRAM.

DRAM (Dynamic Random-Access Memory - RAM Dinâmica): memórias desse tipo possuem capacidade alta, isto é, podem comportar grandes quantidades de dados. No entanto, o acesso a essas informações costuma ser mais lento que o acesso às memórias estáticas. Esse tipo também costuma ter preço bem menor quando comparado ao tipo estático;


DIMMs são muito semelhantes aos SIMMs. A principal diferença é que um DIMM tem dois pinos de sinal diferente em cada lado do módulo, como mostrado na figura. Uma das grandes vantagens de DIMM é que apenas um módulo pode ser inserido na placa-mãe, enquanto você precisa de dois SIMMs (pareado), quando trabalhando com microprocessadores de 64 bits como o Pentium II e superiores. Desde SIMM oferece ônibus somente de 32 bits, você precisa usar 2 SIMMs emparelhados com qualquer processador de 64 bits moderna.





quarta-feira, 27 de outubro de 2010

Endereçamento de memória

Esta imagem representa uma célula básica de memoria com um funcionamento muito simples que processa apenas um bit em que dados e onde entra a informação que vai ser processada, o R/W vai decidir se a informação vai ser gravada ou lida, por fim o s vai decidir se a célula esta activa ou desactivada.


sexta-feira, 22 de outubro de 2010

Arquitetura de von Neumann VS Arquitectura de Harvard

A Arquitetura de Harvard baseia-se em um conceito mais recente que a de Von-Neumann, tendo vindo da necessidade de por o microcontrolador para trabalhar mais rápido. É uma arquitetura de computador que se distingue das outras por possuir duas memórias diferentes e independentes em termos de barramento e ligação ao processador.

Baseia-se na separação de barramentos de dados das memórias onde estão as instruções de programa e das memórias de dados, permitindo que um processador possa acessar as duas simultaneamente, obtendo um desempenho melhor do que a da Arquitetura de von Neumann, pois pode buscar uma nova instrução enquanto executa outra.

A Arquitetura de von Neumann de John von Neumann - é uma arquitetura de computador que se caracteriza pela possibilidade de uma máquina digital armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas



Arquitectura de Computadores

Os objectivos mais comuns numa arquitectura de computador baseiam-se na relação entre os factores custo e prestação (ou seja, velocidade), apesar de outras considerações, tais como dimensões, peso e consumo de energia, também serem um factor tido em conta.








Northbridge é um chipset que se comunica com o processador do computador e controla a interação com a memória, o barramento Peripheral Component Interconnect (PCI), cache de nível 2, e todos Accelerated Graphics Port (AGP). Northbridge se comunica com o processador usando o barramento frontal (FSB). 

O southbridge, é um chip que implementa as capacidades mais "lentas" da placa-mãe numa arquitetura de chipset  northbridge/southbridge. O southbridge pode ser geralmente diferenciado do northbridge por não estar diretamente conectado à UCP. Em vez disso, o northbridge liga o southbridge à UCP.
Resumo :

chipset divide-se em "ponte norte" e "ponte sul"que fazem a comunicação do processador com as memórias e perifericos.

Northbridge: controlador de memória, alta velocidade.

Southbridge: controlador de periféricos, baixa velocidade

FSB é o barramento de transferência de dados que transporta informação entre CPU e a northbridge.


O DMA permite que certos dispositivos de hardware  num computador acedam a memória  do sistema para leitura e escrita independentemente da CPU


sexta-feira, 15 de outubro de 2010

Computação quântica

A computação quântica tem um potencial muito grande de revolucionar a resolução de problemas de alta complexidade na computação clássica. Porém, a dificuldade em lidar com estes fenômenos e principalmente conseguir uma arquitetura que seja escalável deixam ainda muita incerteza quanto ao sucesso destas máquinas. Grandes empresas, como a IBM, estão investindo em pesquisas nesta área e já criam os primeiros protótipos. Algoritmos para solução de problemas neste novo paradigma já estão sendo desenvolvidos e inclusive linguagens de programação estão sendo elaboradas. Resta saber se os problemas conseguirão ser solucionados, se é uma questão de investimento e tempo ou existem restrições físicas que impediriam na prática a criação de máquinas realmente capazes de superar as atuais. Se isto for realmente possível talvez existam co-processadores quânticos que em conjunto com processadores de silício formassem os computadores do futuro, capazes de fazer previsão de tempo com maior precisão e otimizar sistemas combinatórios.




PRINCÍPIOS DA COMPUTAÇÃO QUÂNTICA
O modelo clássico de computador utiliza como elemento básico de informação o bit, que pode estar desligado, representado pelo estado 0 (zero), ou ligado, representado pelo estado 1 (um). A computação quântica introduz o conceito de qubit (bit quântico), que além dos dois estados tradicionais de um bit pode estar num estado de superposição coerente de ambos. É como se ele estivesse nos dois estados ao mesmo tempo ou como se houvesse dois universos paralelos e em cada um o qubit assumisse um dos estados tradicionais. Dois qubits possibilitariam realizar computação em quatro universos paralelos, três em oito e assim por diante, como mostra a Figura onde Q representa um bit no estado de superposição.


quarta-feira, 13 de outubro de 2010

Circuitos Integrados

Em electrónica, um circuito integrado é um circuito electrónico (composto principalmente por dispositivos semicondutores), que tem sido produzido na superfície de um substrato fino de material semicondutor.
Existem vários tipos de encapsulamentos desenvolvidos para as placas de circuito impresso, os quais são usados dependendo do hardware em questão.
Por exemplo, o PGA (Pin Grid Array) é usado bastante em micro processadores, implementando uma matriz de pinos que circula o chip principal da CPU.

Este modelo possui algumas variantes, como o PPGA, e o FC-GPA, os quais são usadas em processadores muito famosos, como os Pentium III e 4.

Outro modelo muito usado é o Ball Grid Array, cujos pinos são em formato de bolas, usado bastante em chipsets de placas mãe e em algumas placas de vídeo e CPUs.

Sendo um modelo mais antigo, o Dual In-Line Package foi um dos encapsulamentos mais usados desde a década de 70. Seu uso é recomendado para módulos menores, utilizando de uma quantidade reduzida de pinos, normalmente em formato de ganchos.

sexta-feira, 8 de outubro de 2010

Circuitos integrados TTL e CMOS


TTL
A Lógica Transistor-Transistor é uma classe de circuitos digitais construídos de transistores de junção bipolar, e resistores.

Isso é chamado lógica transistor-transistor porque ocorrem ambas as funções porta lógica e de amplificação pelos transistores.

Por causa do grande uso desta família lógica, sinais de entrada e saída de equipamentos eletrônicos pode ser chamada entrada ou saída "TTL", significantemente compatível com os níveis de tensão usados.

Estes circuitos têm como característica a utilização de sinais de 5 volts para níveis lógicos altos.

Seus circuitos integrados são constituídos basicamente de transístores, o que os torna pouco sensíveis à eletricidade estática.





CMOS

CMOS é uma sigla para complementary metal-oxide-semiconductor, semicondutor metal-óxido complementar.

É um tipo de tecnologia empregada na fabricação de circuitos integrados onde se incluem elementos de lógica digital

A CMOS é hoje a tecnologia mais largamente usada na fabricação de CIs.

As principais vantagens dos circuitos integrados CMOS são o baixíssimo consumo de energia (que leva à baixa dissipação de calor) e a possibilidade de alta densidade de integração, comparativamente com outras tecnologias como a TTL.