Pesquisar este blog

sábado, 17 de dezembro de 2011

Internet via rede elétrica: mais barata e prática, mas ainda restrita para muitos

A internet via rede elétrica ainda está longe da maioria dos brasileiros. Em São Paulo, primeira cidade em que a tecnologia BPL (broadband over power lines, em inglês) está disponível ao consumidor doméstico, apenas 300 endereços distribuídos nos bairros de Jardins, Moema e Pinheiros estão adequadamente equipados para usufruir da novidade. É pouco. Mas os benefícios para esses consumidores - e, eventualmente, os futuros - são evidentes.

Entenda como funciona a Internet através da energia elétrica

Segundo a Intelig, distribuidora do serviço, o plano básico, com velocidade de 5 Mbps, custa 75 reais por mês. São 15 reais a menos do que os similares via cabo. A diferença é proporcional à capacidade de transmissão de dados. O pacote de 15 Mbps, por exemplo, limite da rede baseada em eletricidade, sai por 125 reais. Planos similares de operadoras a cabo variam entre 119 reais e 199 reais. A operadora aponta que os valores mais baixos são consequência do aproveitamento de uma rede já existente – mas não explorada – e incentivos para a propagação do modelo.
De acordo com Emerson Hioki, diretor de operações da AES Eletropaulo Telecom, parceira da Intelig no fornecimento do serviço a São Paulo, foram investidos 20 milhões na estrutura atual, baseada na transmissão de dados via fibra ótica. Ao chegar ao destino final, o sinal é convertido em pulso elétrico. “Para aumentar o número de consumidores beneficiados, é preciso expandir a infraestrutura a outras áreas. Isso dependerá da demanda do mercado”, garante Hioki. Sim, já há planos para levar a "web elétrica" a mais gente, mas a empresa guarda essa informação como um segredo.
Para que a transmissão via rede elétrica convencional, usando os velhos fios de postes, avance, também será necessário investimento. Nesse caso, será preciso investir em equipamentos como repetidores, que mantém o nível do sinal que viaja pela rede, garantindo que não haja perda de dados.
Contra - Apesar das vantagens, persistem problemas que podem prejudicar a experiência do consumidor final. Aparelhos eletrônicos podem causar interferência, levando à queda da velocidade na transmissão de dados. A melhor forma de evitar o problema consiste na instalação de filtros para as tomadas. Fora de casa, os postes estão expostos a diversos tipos de intempéries, incluindo o ruído proveniente dos transformadores, que devem ser contornadas para evitar o bloqueio do sinal.



Afinal ainda é só uma ideia para o futoro

sábado, 5 de novembro de 2011

CASE MOD XBOX360

                                              CASE MOD DE XBOX 360



 




CASE MOD


                                                                  CASE MOD


Casemod é a modificação do gabinete de um computador. O termo é originado da língua inglesa, formado pela junção de "Case" (que significa caixa, gabinete) e "Mod" (significa a contração de modificação). Muitas pessoas, particularmente entusiastas em hardware usam o casemod para ilustrar o poder do computador (mostrando o hardware interno), e também por propósitos estéticos. Gabinetes também são modificados para melhorar a performance do computador.


Ficheiro:PC Window mod.jpg


Ficheiro:CasemodCP2.jpg

Ficheiro:Modding CP.jpg







terça-feira, 25 de outubro de 2011

MAPA PLACA MÃE ASUS

                                                 MAPA  PLACA MÃE ASUS

Item A - processador
O item A mostra o local onde o processador deve ser conectado. Também conhecido como socket, esse encaixe não serve para qualquer processador, mas sim para um modelo (ou para modelos) específico. Cada tipo de processador tem características que o diferenciam de outros modelos. Essas diferenças consistem na capacidade de processamento, na quantidade de memória cache, na tecnologia de fabricação usada, no consumo de energia, na quantidade de terminais (as "perninhas") que o processador tem, entre outros. Assim sendo, a placa-mãe deve ser desenvolvida para aceitar determinados processadores. A motherboard vista acima, por exemplo, é compatível com os processadores Duron, Athlon XP e Sempron (todos da fabricante AMD) que utilizam a forma de conexão conhecida por "Socket A". Assim sendo, processadores que utilizam outros sockets, como o Intel Pentium 4 ou o AMD Athlon 64 não se conectam a esta placa.
Por isso, na aquisição de um computador, deve-se escolher primeiro o processador e, em seguida, verificar quais as placas-mãe que são compatíveis. À medida que novos processadores vão sendo lançados, novos sockets vão surgindo.
É importante frisar que, mesmo quando um processador utiliza um determinado socket, ele pode não ser compatível com a placa-mãe relacionada. Isso porque o chip pode ter uma capacidade de processamento acima da suportada pela motherboard. Por isso, essa questão também deve ser verificada no momento da montagem de um computador.

Item B - Memória RAM
O item B mostra os encaixes existentes para a memória RAM. Esse conector varia conforme o tipo. As placas-mãe mais antigas usavam o tipo de memória popularmente conhecido como SDRAM. No entanto, o padrão mais usado atualmente é o DDR (Double Data Rate), que também recebe a denominação de SDRAM II (termo pouco usado). A placa-mãe da imagem acima possui duas conexões (ou slots) para encaixe de memórias DDR.
As memórias também trabalham em velocidades diferentes, mesmo quando são do mesmo tipo. A placa-mãe mostrada acima aceita memórias DDR que trabalham a 266 MHz, 333 MHz e 400 MHz. Supondo que a motherboard só aceitasse velocidades de até 333 MHz, um pente de memória DDR que funciona a 400 MHz só trabalharia a 333 MHz nessa placa, o máximo suportado.
Em relação à capacidade, as memórias mais antigas ofereciam 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, etc. Hoje, já é possível encontrar memórias que vão de 128 MB a 1 GB de capacidade. Enquanto você lê este texto, pode ser que o limite atual já esteja maior.

Item C - Slots de expansão
Para que seja possível conectar placas que adicionam funções ao computador, é necessário fazer uso de slots de expansão. Esses conectores permitem a conexão de vários tipos de dispositivos. Placas de vídeo, placas de som, placas de redes, modems, etc, são conectados nesses encaixes. Os tipos de slots mais conhecidos atualmente são o PCI (Peripheral Component Interconnect) - item C1 -, o AGP (Accelerated Graphics Port) - item C2 -, o CNR (Communications Network Riser) - item C3 - e o PCI Express (PCI-E). As placas-mãe mais antigas apresentavam ainda o slot ISA (Industry Standard Architecture).
A placa-mãe vista acima possui um slot AGP (usado exclusivamente por placas de vídeo), um slot CNR (usado para modems) e cinco slots PCI (usados por placas de rede, placas de som, modems PCI, etc). A tendência atual é que tanto o slot AGP quanto o slot PCI sejam substituídos pelo padrão PCI Express, que oferece mais recursos e possibilidadesItem C - Slots de expansão
Para que seja possível conectar placas que adicionam funções ao computador, é necessário fazer uso de slots de expansão. Esses conectores permitem a conexão de vários tipos de dispositivos. Placas de vídeo, placas de som, placas de redes, modems, etc, são conectados nesses encaixes. Os tipos de slots mais conhecidos atualmente são o PCI (Peripheral Component Interconnect) - item C1 -, o AGP (Accelerated Graphics Port) - item C2 -, o CNR (Communications Network Riser) - item C3 - e o PCI Express (PCI-E). As placas-mãe mais antigas apresentavam ainda o slot ISA (Industry Standard Architecture).
A placa-mãe vista acima possui um slot AGP (usado exclusivamente por placas de vídeo), um slot CNR (usado para modems) e cinco slots PCI (usados por placas de rede, placas de som, modems PCI, etc). A tendência atual é que tanto o slot AGP quanto o slot PCI sejam substituídos pelo padrão PCI Express, que oferece mais recursos e possibilidades

Item D - Plug de alimentação
O item D mostra o local onde deve-se encaixar o cabo da fonte que leva energia elétrica à placa-mãe. Para isso, tanto a placa-mãe como a fonte de alimentação devem ser do mesmo tipo. Existem, atualmente, dois padrões para isso: o ATX e o AT (este último saiu de linha, mas ainda é utilizado). A placa-mãe da foto usa o padrão ATX. É importante frisar que a placa-mãe sozinha consegue alimentar o processador, as memórias e a grande maioria dos dispositivos encaixados nos slots. No entanto, HDs, unidades de CD e DVD, drive de disquete e cooler (um tipo de ventilador acoplado ao processador que serve para manter sua temperatura em limites aceitáveis de uso) devem receber conectores individuais de energia

Item E - Conectores IDE e drive de disquete
O item E2 mostra as entradas padrão IDE (Intergrated Drive Electronics) onde devem ser encaixados os cabos que ligam HDs e unidades de CD/DVD à placa-mãe. Esses cabos, chamados de "flat cables", podem ser de 40 vias ou 80 vias (grossamente falando, cada via seria um "fiozinho"), sendo este último mais eficiente. Cada cabo pode suportar até dois HDs ou unidades de CD/DVD, totalizando até quatro dispositivos nas entradas IDE. Note também que E1 aponta para o conector onde deve ser encaixado o cabo que liga o drive de disquete à motherboard.
Existe também, um tipo de HD que não segue o padrão IDE, mas sim o SATA (Serial ATA), como mostra a figura a seguir.



Item F - BIOS e bateria
O item F2 aponta para o chip Flash-ROM e o F1, para a bateria que o alimenta. Esse chip contém um pequeno software chamado BIOS (Basic Input Output System), que é responsável por controlar o uso do hardware do computador e manter as informações relativas à hora e data. Cabe ao BIOS, por exemplo, emitir uma mensagem de erro quando o teclado não está conectado. Na verdade, quando isso ocorre, o BIOS está trabalhando em conjunto com o Post, um software que testa os componentes de hardware após o computador ser ligado.
Através de uma interface denominada Setup, também presente na Flash-ROM, é possível alterar configurações de hardware, como velocidade do processador, detecção de discos rígidos, desativação de portas USB, etc.
Como mostra a imagem abaixo, placas-mãe antigas usavam um chip maior para o BIOS.

Foto de um chip de BIOS


Item G - Conectores de teclado, mouse, USB, impressora e outros
item G aponta para a parte onde ficam localizadas as entradas para a conexão do mouse (tanto serial, quanto PS/2), teclado, portas USB, porta paralela (usada principalmente por impressoras), além de outros que são disponibilizados conforme o modelo da placa-mãe. Esses itens ficam posicionados de forma que, quando a motherboard for instalada em um gabinete, tais entradas fiquem imediatamente acessíveis pela parte traseira deste. A imagem abaixo mostra um outro modelo de placa-mãe da Soyo, a SY-P4VGM, desenvolvida para o processador Intel Pentium 4, que exibe esses conectores através de outro ângulo:
Em destaque: conectores de dispositivos entrada e saída

A disposição de entradas vista acima é semelhante em toda placa-mãe que segue o padrão ATX. No antigo padrão AT, esse posicionamento é de outra forma e alguns conectores são diferentes.
H - Furos de encaixe
Para evitar danos, a placa-mãe deve ser devidamente presa ao gabinete. Isso é feito através de furos (item H) que permitem o encaixe de espaçadores e parafusos. Para isso, é necessário que a placa-mãe seja do mesmo padrão do gabinete. Se este for AT, a placa-mãe deverá também ser AT. Se for ATX (o padrão atual), a motherboard também deverá ser, do contrário o posicionamento dos locais de encaixe serão diferentes para a placa-mãe e para o gabinete.
I - Chipset
O chipset é um chip responsável pelo controle de uma série de itens da placa-mãe, como acesso à memória, barramentos e outros. Principalmente nas placas-mãe atuais, é bastante comum que existam dois chips para esses controles: Ponte Sul (I1) e Ponte Norte (I2):
Ponte Sul (South Bridge): este geralmente é responsável pelo controle de dispositivos de entrada e saída, como as interfaces IDE ou SATA. Placas-mãe que possuem som onboard (visto adiante), podem incluir o controle desse dispositivo também na Ponte Sul;
Ponte Norte (North Bridge): este chip faz um trabalho "mais pesado" e, por isso, geralmente requer um dissipador de calor para não esquentar muito. Repare que na foto da placa-mãe em que esse chip é apontado, ele, na verdade, está debaixo de uma estrutura metálica. Essa peça é dissipador. Cabe à Ponte Norte as tarefas de controle do FSB (Front Side Bus - velocidade na qual o processador se comunica com a memória e com componentes da placa-mãe), da freqüência de operação da memória, do barramento AGP, etc.
Os chipsets não são desenvolvidos pelas fabricantes das placas-mãe e sim por empresas como VIA Technologies, SiS e Intel (esta é uma exceção, já que fabrica motherboards também). Assim sendo, é comum encontrar um mesmo chipset em modelos concorrentes de placa-mãe.
Placas-mãe onboard
"Onboard" é o termo empregado para distinguir placas-mãe que possuem um ou mais dispositivos de expansão integrados. Por exemplo, há modelos que têm placa de vídeo, placa de som, modem ou placa de rede na própria placa-mãe. A motherboard estudada neste artigo possui placa de som (C-Media CMI9761A 6-channel) e placa de rede (VIA VT6103 10/100 Mbps Ethernet) integradas, ou melhor, onboard. Por esta razão, os conectores desses dispositivos ficam juntos às entradas mostradas no item G, visto anteriormente.
A vantagem de se utilizar modelos onboard é a redução de custo do computador, uma vez que deixa-se de comprar determinados dispositivos porque estes já estão incluídos na placa-mãe. No entanto, é necessário ter cuidado: quanto mais itens onboard uma placa-mãe tiver, mais o desempenho do computador será comprometido. Isso porque o processador acaba tendo que executar as tarefas dos dispositivos integrados. Na maioria dos casos, placas de som e rede onboard não influenciam significantemente no desempenho, mas placas de vídeo e modems sim.
As placas de vídeo, mesmo os modelos mais simples, possuem um chip gráfico que é responsável pela geração de imagens. Este, por sua vez, requer memória para tal, principalmente quando trata imagens em 3D. Uma placa de vídeo onboard, mesmo quando acompanhada de um chip gráfico integrado, acaba "tomando atenção" do processador, além de usar parte da memória RAM.
Se um computador é comprado para uso em uma loja ou em alguma aplicação que não requer muito desempenho, a compra de um computador com placa-mãe onboard pode ser viável. No entanto, quem deseja uma máquina para jogos e aplicações mais pesadas deve pensar seriamente em adquirir uma placa-mãe "offboard", isto é, com nenhum item integrado, ou no máximo, com placa de som ou rede onboard.
Finalizando
Existe uma série de empresas que fabricam placas-mãe. As marcas mais conhecidas são: Asus, Abit, Gigabyte, Soyo, PC Chips, MSI, Intel e ECS. Apesar da maioria dessas fabricantes disponibilizarem bons produtos, é recomendável pesquisar sobre um modelo de seu interesse para conhecer suas vantagens e desvantagens. Para isso, basta digitar o nome do modelo em sites de busca. Geralmente, o resultado mostra fóruns de discussão onde os participantes debatem sobre a placa-mãe em questão. A pesquisa vale a pena, afinal, a placa-mãe é um item de importância extrema ao computador.
                                                           PROCESSADORES

O processador, também conhecido como CPU, é peça fundamental dos computadores. E não estamos falando apenas dos famosos PCs. Celulares, video games, smartphones, tablets: todos esses dispositivos precisam de processadores para funcionar. Esse componente tão vital é responsável por carregar e realizar as operações aritméticas e lógicas de que os programas de computador fazem uso. Portanto, nada funciona sem a famosa CPU.
Levou décadas para que chegássemos aos modelos atuais de processadores. Na verdade, demoramos alguns anos para chegar também à ideia que temos hoje de como uma CPU funciona. Antes, os softwares não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.
Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Por incrível que pareça, isso não chegava a ser uma barreira preocupante, visto que a produção de software ainda não era alta e não existiam muitos programas disponíveis.


Precursores da CPU moderna: anos 40, 50 e 60

Painéis do ENIAC em exposição na Universidade da Pensilvânia (Fonte da imagem: Wikimedia Commons)
Os primeiros computadores, anteriores à década de 50, possuíam um diferencial considerável, se comparados com as máquinas de hoje: eles não eram capazes de armazenar programas. Alguns deles, como o ENIAC, que teve seu desenvolvimento iniciado em 1943, tinham inicialmente o plano de armazenamento de softwares em seu interior. Mas, para agilizar o lançamento da máquina, essa ideia acabou ficando para trás.
Dessa forma, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada. Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Era dessa forma que o processamento em si era realizado.
EDVAC instalado no Laboratório de Pesquisas Balísticas dos EUA
Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas.
Durante a década de 50, a organização interna dos computadores começou a ser repensada. Esse foi o momento em que os processadores começaram a ganhar funcionalidades básicas, como registradores de índices, operandos imediatos e detecção de operadores inválidos.
No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos.
Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360.  Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam em comum.

Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si.  Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados e em um único chip de silício.



O Intel 4004 foi o primeiro microprocessador a ser lançado, em 1971. Sendo desenvolvido para o uso em calculadoras, essa CPU operava com o clock máximo de 740 KHz e podia calcular até 92 mil instruções por segundo, ou seja, cada instrução gastava cerca de 11 microssegundos.
Com o sucesso do 4004, a Intel desenvolveu o processador 8008, em 1972. Esse era uma CPU de 8 bits, com barramento externo de 14 bits e capaz de endereçar 16 KB de memória. Seu clock trabalhava na frequência máxima de 0,8 MHz.
Esse modelo foi substituído, em 1974, pelo Intel 8080, que apesar de ainda ser um processador de 8 bits, podia executar, com algumas limitações, operações de 16 bits. O 8080 foi desenvolvido, originalmente, para controlar mísseis guiados. Tinha clock limite de 2 MHz, um valor muito alto para a época, era capaz de realizar centenas de milhares de operações por segundo e de endereçar até 64 KB de memória.

A família x86 de 16 bits

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançava 5 MHz, utilizando instruções reais de 16 bits. O nome "x86" veio do fato de que o nome dos processadores que vieram depois do Intel 8086 também terminavam em "86".
Ainda no mesmo ano, foi lançado o 8088, sucessor que possuía barramento externo de 8 bits, porém, com registradores de 16 bits e faixa de endereçamento de 1 MB, como no 8086. Esse foi o chip utilizado no IBM PC original.





Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, criados para serem usados com sistemas embarcados.  Em 1982, a capacidade de processamento chegou ao patamar de 6 e 8 MHz, com o Intel 80286. Posteriormente, as empresas AMD e Harris Corporation conseguiram romper essa barreira, chegando a 25 MHz.

Entram as CPUs de 32 bits (x86-32)

Como o nome sugere, a x86-32 é arquitetura x86 de 32 bits, utilizada até hoje em muitos computadores. Grosso modo, podemos dizer que, com exceção de processadores de 64 bits e aqueles de arquitetura ARM, todos os outros existentes ainda hoje são herdeiros das características dessa geração.

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com clocks que iam de 33 MHz a 100 MHz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução fossem executadas ao mesmo tempo.




A guerra entre Intel e AMD

As séries de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da superescalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 MHz, o qual chegou a atingir 200 MHz com o passar do tempo de desenvolvimento.


Em 1995, a Intel lançava o Pentium Pro, sexta geração de chips x86 e que possuía uma série de melhoramentos em relação ao seu antecessor. Essa seria a base para os futuros lançamentos: Pentium II, Pentium III e Pentium M.
Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original. Dois anos depois, o Pentium II foi lançado, atingindo o clock de 450 MHz.
Nessa mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo, ambas as empresas travaram uma espécie de “corrida”, competindo para ver quem conseguia o maior desempenho e valor de clock.

A lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o número de transistores em um chip dobraria, sem custo adicional, a cada 18 meses. Tal afirmação ficou conhecida como a Lei de Moore, a qual foi válida durante anos, principalmente no final da década de 90.
Sempre que uma empresa lançava um modelo de processador, o concorrente a superava meses depois. Isso ficou muito evidente nos anos de 1999 e 2000, quando o Pentium III e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores do que 1 GHz, superou o Pentium III.
A reviravolta da Intel veio com o lançamento do Pentium 4, em 2001, que trabalhava com até  2 GHz e levou a empresa de volta ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD), também disputavam fortemente o lugar mais alto no ranking do processador “B” mais vendido.

Multicore: o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foi diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0,13 micrômetros) e numerosos (120 milhões) que se tornou muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.
A principal solução para esse problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionasse de maneira eficiente, seria possível trabalhar com quase o dobro do clock. Um processador dual-core de 1,5 GHz, por exemplo, poderia ter um desempenho semelhante a uma CPU de núcleo único de 3 GHz.
Um componente chamado de escalonador determina em qual dos núcleos uma tarefa deve ser executada. Mas como o escalonador demora certo tempo para fazer essa decisão, na prática fica quase impossível atingir o dobro exato de desempenho. Portanto, com o advento do processador multicore, a lei de Moore tornou-se inválida, visto que já não era mais possível aumentar a frequência do processador como antes.

Anos 2000: a era de 64 bits

No começo dessa década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que, no máximo, apenas 4 GB de memória RAM poderiam ser endereçados nessa plataforma. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.



Tanto a AMD quanto a Intel trabalhavam em seus próprios projetos de CPUs de 64 bits, mas quem venceu a disputa foi mesmo a AMD, com o x86-64, que mais tarde foi renomeado para AMD64. Isso aconteceu, principalmente, pelo fato de a AMD ter evoluído diretamente o x86-32, enquanto que a Intel tentou criar algo novo, do zero.
Visto esse acontecimento, as empresas em questão criaram um acordo no uso dessas arquiteturas, no qual a AMD licenciou para a Intel o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 foi um dos maiores representantes dessa arquitetura.

Blackfin

Ainda em 2000, uma nova arquitetura de processadores foi lançada pela empresa Analog Devices. A Blackfin, como foi batizada, é uma família de microprocessadores de 16 e 32 bits que possuía, como diferencial, um processador de sinal digital (DSP) embutido, usado para processar áudio e vídeo.
Aliado a outras características de design, esse processador permite um consumo menor de energia aliado ao alto desempenho. O uCLinux é um dos sistemas operacionais que suporta esse tipo de CPU.

Pentium 4 e Pentium D

Em 2002, a Intel lançou o Pentium 4, processador que podia alcançar clocks muito altos, chegando até a 3,8 GHz em condições especiais. Os últimos modelos dessa linha também incluíam a tecnologia Hyperthreading (HT), funcionalidade que fazia um processador físico trabalhar como se fossem duas CPUs lógicas.




Posteriormente, o Pentium 4 foi substituído pelo Pentium D, duas linhas de processadores dual-core de 64 bits. Mais tarde, foi lançado o Pentium Extreme Edition, que possuía desempenho um pouco melhor do que o Pentium D, além de tecnologias extras que o tornavam mais apto para tarefas pesadas. Esse modelo também fazia uso da tecnologia HT, podendo simular a existência de até quatro núcleos.
Outra novidade da Intel foi o Pentium M, uma versão de baixo consumo do Pentium Pro desenvolvido para dispositivos móveis. Esse processador foi lançado em 2003. Em 2005, a AMD apresentou ao mundo o seu primeiro processador dual-core, o Athlon 64 X2.

Intel Core

Em 2006, a Intel inicia a sua linha Core, para consumidores que precisam de mais poder de processamento. Faz parte dessa linha o modelo Core 2 Duo, que demonstra uma capacidade incrível se comparado com os dual-core anteriores da empresa. Na mesma época, foi lançada a versão Pentium Dual Core, que apesar de trazer uma boa relação custo-benefício, se mostra inferior ao Core 2 Duo.
Outro grande lançamento feito pela Intel foi o Core 2 Quad, processadores com quatro núcleos e que, apesar de demonstrarem alto desempenho, acabam perdendo em algumas tarefas para o Core 2 Duo. Uma versão posterior, nomeada Core 2 Extreme Quad Core, também foi lançada, proporcionando mais velocidade de clock, que pode chegar até 3,2 GHz.
Em 2010, a Intel anunciou os modelos Core i3, i5 e i7. Quem ainda não conhece pode conferir o artigo publicado pelo Tecmundo sobre as diferenças entre esses três modelos.





Além disso,a empresa também lançou uma segunda geração desses processadores, que vem sendo muito bem aceita pelos consumidores. Essa nova leva possui mudanças na memória cache, melhorias no modo Turbo Boost e aperfeiçoamentos na própria arquitetura. Porém, o que chama a atenção é a presença de um chip gráfico acoplado com o processador principal (APU). Confira as diferenças entre as duas gerações no artigo de Fábio Jordão.
A empresa também vem trabalhando em uma nova microarquitetura de processadores, a Ivy Bridge, que deve possuir suporte para PCI Express 3.0, DirectX 11 e OpenCL 1.1. A empresa espera obter um aumento de até 30% de desempenho no processamento gráfico se comparado com o chipset Sandy Bridge, presente nos processadores i5 e i7.

As últimas novidades da AMD

Quando o assunto é AMD, a história possui algumas diferenças. Depois dos processadores dual-core, a linha Athlon II apresentou processadores de três (X3) e quatro núcleos (x4), todos com versões econômicas, ou seja, com menor desempenho e mais baratos.
Um dos últimos grandes lançamentos da AMD foi o Athlon Neo, chip desenvolvido para notebooks ultrafinos e que precisam de uma duração maior da bateria. Outra linha apresentada pela fabricante foi a dos processadores Sempron, uma versão simplificada do Athlon, com apenas um núcleo e voltada para consumidores menos exigentes.





Quem não dispensa um bom jogo ou precisa de processamento de alto desempenho pode contar com os processadores Phenom, que foram lançados para competirem de igual para igual com as CPUs da Intel. Esses modelos também receberam versão de três (X3) e quatro (X4) núcleos. A segunda geração dessa linha, Phenom II, conta também com processadores dual-core de 3 e 3,1 GHz.
A surpresa mesmo fica por conta dos processadores Phenom II X4, de quatro núcleos e alto desempenho, com modelos de até 3,4 GHz. Além desses, servidores ou estações de trabalho que exigem uma carga maior de processamento também podem se beneficiar dos processadores Opteron, que podem operar com até seis núcleos.
A AMD também lançou uma linha de CPUs para notebooks que, apesar de ser dual-core, possui um consumo eficiente de energia, poupando assim a carga da bateria dos portáteis. Mas o que vem ganhando espaço é mesmo a Fusion, linha de APUs (Unidade de Processamento Acelerada) da AMD. Com a junção de CPU e GPU em um único chip, é possível obter melhor desempenho a um custo reduzido.


sexta-feira, 14 de outubro de 2011

                                           HISTORIA DO MAC OS X



Mac OS X é o mais recente lançamento da linha de sistemas operacionais Mac OS da Apple Computer. Apesar de ter sido designado oficialmente apenas como a "versão 10" do Mac OS, possui uma história relativamente independente dos lançamentos anteriores do Mac OS.

Desenvolvimento fora da Apple

Após a Apple remover Steve Jobs da gerência em 1985, ele deixou a companhia e tentou — com investimentos de Ross Perot e de seu próprio bolso — criar a próxima "grande inovação": o resultado foi a NeXT. Os equipamentos produzidos pela NeXT eram avançados para sua época, como a primeira estação de trabalho a incluir um DSP e um drive óptico de alta-capacidade, mas ele tinha várias estranhezas e problemas de design, sendo também caro comparado aos concorrentes no setor. A produção do equipamento foi cancelada em 1993. No entanto, o NeXTSTEP, o sistema operacional de orientação a objeto da companhia, teve um legado mais duradouro.
O NeXTSTEP era baseado na núcleo Mach e no BSD, uma implementação do Unix cujas origens são da década de 1970. Talvez seja mais lembrado por possuir um framework de programação baseado na linguagem Objective-C. Este ambiente é conhecido hoje no mundo Mac como Cocoa. Também suportava Enterprise Objects Framework e o WebObjects, entre outras características notáveis.
Abandonando todas suas idéias, exceto o sistema operacional, a NeXT conseguiu manter um negócio vendendo o WebObjects e consultoria de serviços, mas nunca foi um sucesso comercial. O NeXTSTEP evoluiu para o OPENSTEP que separou as camadas de objetos do sistema operacional abaixo, permitindo que rodasse com menos modificações em outras plataformas. O OPENSTEP foi, por algum tempo, adotado pela Sun Microsystems. No entanto, neste ponto, algumas outras companhias — entre as mais notáveis, Apple, IBMMicrosoft, e até mesmo a Sun — estavam dizendo que iriam logo lançar sistemas operacionais parecidos de orientação a objeto e ferramentas de desenvolvimento próprias. (Alguns desses esforços, como Taligent, não foram completados; outros, como Java, foram muito adotados.)

Desenvolvimento interno

Enquanto isso, a Apple estava enfrentando seus próprios problemas comerciais. O Mac OS, já com dez anos, tinha alcançado os limites de sua arquitetura de usuário único e multitarefa, e sua interface de usuário que já tinha sido considerada inovadora estava parecendo cada vez mais "antiquada". Houve um grande esforço em 1994 para desenvolver um substituto, conhecido como Copland, que era visto fora da Apple como um caso sem esperança. Em torno de 1996, o Copland não estava nem perto das condições para lançamento, e o projeto foi eventualmente cancelado. Alguns elementos do Copland foram incorporadas no Mac OS 8, lançado em 1997.
Após considerar a compra do BeOS — um sistema operacional multitarefa e multimídia projetado para equipamento similar ao da Apple — a companhia decidiu adquirir a NeXT e utilizar o OPENSTEP como base de seu novo sistema operacional. Avie Tevanian assumiu o desenvolvimento do SO, e Steve Jobs foi trazido como consultor. Inicialmente, o plano era desenvolver um novo SO baseado quase completamente numa versão atualizada do OPENSTEP, com um emulador — conhecido como "Blue Box" — para rodar aplicativos "clássicos" do Macintosh. O resultado ficou conhecido pelo codinome Rhapsody, programado para lançamento no final de 1998.
A Apple achou que os desenvolvedores começariam a portar seus programas para as bibliotecas mais poderosas do OPENSTEP uma vez que soubessem do seu poder e flexibilidade. Em vez disso, vários grandes desenvolvedores como a Adobe falaram para a Apple que isso jamais ocorreria, e que eles preferiam deixar a plataforma completamente. Essa "rejeição" do plano da Apple se devia, em grande parte, a antigas promessas que não foram cumpridas pela companhia; após acompanhar um "próximo sistema operacional" desaparecer após o outro e a fatia de mercado da Apple diminuir, os desenvolvedores não estavam muito interessados em trabalhar na plataforma, e muito menos em reescrever aplicativos.

Mudança de direção sob o comando de Jobs

As perdas financeiras da Apple continuavam, os diretores perderam a confiança no CEO Gil Amelio e pediram que ele renunciasse. A diretoria convenceu Jobs a assumir o comando interino da companhia. Na verdade, Jobs estava recebendo "carta branca" dos diretores para trazer os lucros de volta para a companhia. Quando Jobs anunciou na Worldwide Developers Conference que o que os desenvolvedores realmente queriam era uma versão moderna do Mac OS, e que era isso que a Apple entregaria, recebeu muitos aplausos. Nos dois anos seguintes, foi feito muito esforço para portar as APIs originais do Macintosh para as bibliotecas Unix, conhecido como Carbon. Os aplicativos do Mac OS poderiam ser portados para o Carbon sem a necessidade de reescrever todo o código, e ainda assim sendo completamente compatíveis com o novo sistema operacional. Enquanto isso, aplicativos escritos utilizando os kits de ferramentas antigos seriam suportados utilizando o ambiente "clássico" do Mac OS 9 ("Classic"). O suporte a CC++Objective-CJava e Python facilitou a situação ainda mais para os desenvolvedores.
Durante esse tempo as camadas inferiores do sistema operacional (o núcleo Mach e as camadas BSD em cima) foram reempacotadas e lançadas sob uma licença de código aberto conhecido como Darwin. O núcleo do Darwin fornece um sistema operacional extremamente estável e flexível, rivalizando muitas outras implementações do Unix e oferencendo a vantagem das contribuições de programadores e de projetos de código aberto fora da Apple; no entanto, não há muito uso fora da comunidade Macintosh. Durante esse período, a linguagem Java tinha crescido em popularidade e um esforço foi feito para melhorar o suporte a essa linguagem no Mac. Isso foi feito através do porte de uma máquina virtual Java de alta velocidade para a plataforma.
Enquanto o primeiro lançamento do novo SO — Mac OS X Server 1.0 — utilizava uma interface gráfica semelhante ao do Mac OS, todas as versões seguintes apresentavam um novo tema conhecido como Aqua. O desenvolvimento dessa parte do SO foi atrasado em parte devido ao fato da troca do motor de visualização (engine Display) OpenScript do OPENSTEP para um que era livre de licenças, conhecido como Quartz. O Aqua era uma mudança relativamente radical da interface do Mac OS 9, que era uma evolução do Macintosh Finder original. Foram incorporados novos gráficos coloridos escaláveis, anti-aliasing de texto e gráficos, sombreamento e destaque simulado, transparência e animação. Um novo recurso era o Dock, um abridor de aplicativos que tirava vantagem dessas capacidades. Apesar disso, o Mac OS X manteve um grau de compatibilidade com a interface original do Mac OS e com as próprias orientações da Apple, com seu menu único no topo da tela, atalhos de teclado familiares e suporte a mouses de um só botão.

Lançamentos

A Apple lançou o Mac OS X Server 1.0 em janeiro de 1999. Um beta público do Mac OS X foi lançado em 2000, e em 24 de março de 2001 foi o lançamento oficial e completo da versão 10.0 do Mac OS X.

PERGUNTAS

Quantos mac os ja foi lançado? 
R: 10

Em que dia foi lançado o Mac OS C V10.4?
R: Dia 29 de abril

Em que dia, mês e ano foi lançado o mac os Lion ?
R: Foi lançado no dia 20 de julho de 2011

Qual o ultimo lançamento da mac os X
R: O mac os x V10.7 "lion"

Qual foi o primeiro mac os X? 
R: o Mac os 1.0