Pesquisar este blog

terça-feira, 25 de outubro de 2011

MAPA PLACA MÃE ASUS

                                                 MAPA  PLACA MÃE ASUS

Item A - processador
O item A mostra o local onde o processador deve ser conectado. Também conhecido como socket, esse encaixe não serve para qualquer processador, mas sim para um modelo (ou para modelos) específico. Cada tipo de processador tem características que o diferenciam de outros modelos. Essas diferenças consistem na capacidade de processamento, na quantidade de memória cache, na tecnologia de fabricação usada, no consumo de energia, na quantidade de terminais (as "perninhas") que o processador tem, entre outros. Assim sendo, a placa-mãe deve ser desenvolvida para aceitar determinados processadores. A motherboard vista acima, por exemplo, é compatível com os processadores Duron, Athlon XP e Sempron (todos da fabricante AMD) que utilizam a forma de conexão conhecida por "Socket A". Assim sendo, processadores que utilizam outros sockets, como o Intel Pentium 4 ou o AMD Athlon 64 não se conectam a esta placa.
Por isso, na aquisição de um computador, deve-se escolher primeiro o processador e, em seguida, verificar quais as placas-mãe que são compatíveis. À medida que novos processadores vão sendo lançados, novos sockets vão surgindo.
É importante frisar que, mesmo quando um processador utiliza um determinado socket, ele pode não ser compatível com a placa-mãe relacionada. Isso porque o chip pode ter uma capacidade de processamento acima da suportada pela motherboard. Por isso, essa questão também deve ser verificada no momento da montagem de um computador.

Item B - Memória RAM
O item B mostra os encaixes existentes para a memória RAM. Esse conector varia conforme o tipo. As placas-mãe mais antigas usavam o tipo de memória popularmente conhecido como SDRAM. No entanto, o padrão mais usado atualmente é o DDR (Double Data Rate), que também recebe a denominação de SDRAM II (termo pouco usado). A placa-mãe da imagem acima possui duas conexões (ou slots) para encaixe de memórias DDR.
As memórias também trabalham em velocidades diferentes, mesmo quando são do mesmo tipo. A placa-mãe mostrada acima aceita memórias DDR que trabalham a 266 MHz, 333 MHz e 400 MHz. Supondo que a motherboard só aceitasse velocidades de até 333 MHz, um pente de memória DDR que funciona a 400 MHz só trabalharia a 333 MHz nessa placa, o máximo suportado.
Em relação à capacidade, as memórias mais antigas ofereciam 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, etc. Hoje, já é possível encontrar memórias que vão de 128 MB a 1 GB de capacidade. Enquanto você lê este texto, pode ser que o limite atual já esteja maior.

Item C - Slots de expansão
Para que seja possível conectar placas que adicionam funções ao computador, é necessário fazer uso de slots de expansão. Esses conectores permitem a conexão de vários tipos de dispositivos. Placas de vídeo, placas de som, placas de redes, modems, etc, são conectados nesses encaixes. Os tipos de slots mais conhecidos atualmente são o PCI (Peripheral Component Interconnect) - item C1 -, o AGP (Accelerated Graphics Port) - item C2 -, o CNR (Communications Network Riser) - item C3 - e o PCI Express (PCI-E). As placas-mãe mais antigas apresentavam ainda o slot ISA (Industry Standard Architecture).
A placa-mãe vista acima possui um slot AGP (usado exclusivamente por placas de vídeo), um slot CNR (usado para modems) e cinco slots PCI (usados por placas de rede, placas de som, modems PCI, etc). A tendência atual é que tanto o slot AGP quanto o slot PCI sejam substituídos pelo padrão PCI Express, que oferece mais recursos e possibilidadesItem C - Slots de expansão
Para que seja possível conectar placas que adicionam funções ao computador, é necessário fazer uso de slots de expansão. Esses conectores permitem a conexão de vários tipos de dispositivos. Placas de vídeo, placas de som, placas de redes, modems, etc, são conectados nesses encaixes. Os tipos de slots mais conhecidos atualmente são o PCI (Peripheral Component Interconnect) - item C1 -, o AGP (Accelerated Graphics Port) - item C2 -, o CNR (Communications Network Riser) - item C3 - e o PCI Express (PCI-E). As placas-mãe mais antigas apresentavam ainda o slot ISA (Industry Standard Architecture).
A placa-mãe vista acima possui um slot AGP (usado exclusivamente por placas de vídeo), um slot CNR (usado para modems) e cinco slots PCI (usados por placas de rede, placas de som, modems PCI, etc). A tendência atual é que tanto o slot AGP quanto o slot PCI sejam substituídos pelo padrão PCI Express, que oferece mais recursos e possibilidades

Item D - Plug de alimentação
O item D mostra o local onde deve-se encaixar o cabo da fonte que leva energia elétrica à placa-mãe. Para isso, tanto a placa-mãe como a fonte de alimentação devem ser do mesmo tipo. Existem, atualmente, dois padrões para isso: o ATX e o AT (este último saiu de linha, mas ainda é utilizado). A placa-mãe da foto usa o padrão ATX. É importante frisar que a placa-mãe sozinha consegue alimentar o processador, as memórias e a grande maioria dos dispositivos encaixados nos slots. No entanto, HDs, unidades de CD e DVD, drive de disquete e cooler (um tipo de ventilador acoplado ao processador que serve para manter sua temperatura em limites aceitáveis de uso) devem receber conectores individuais de energia

Item E - Conectores IDE e drive de disquete
O item E2 mostra as entradas padrão IDE (Intergrated Drive Electronics) onde devem ser encaixados os cabos que ligam HDs e unidades de CD/DVD à placa-mãe. Esses cabos, chamados de "flat cables", podem ser de 40 vias ou 80 vias (grossamente falando, cada via seria um "fiozinho"), sendo este último mais eficiente. Cada cabo pode suportar até dois HDs ou unidades de CD/DVD, totalizando até quatro dispositivos nas entradas IDE. Note também que E1 aponta para o conector onde deve ser encaixado o cabo que liga o drive de disquete à motherboard.
Existe também, um tipo de HD que não segue o padrão IDE, mas sim o SATA (Serial ATA), como mostra a figura a seguir.



Item F - BIOS e bateria
O item F2 aponta para o chip Flash-ROM e o F1, para a bateria que o alimenta. Esse chip contém um pequeno software chamado BIOS (Basic Input Output System), que é responsável por controlar o uso do hardware do computador e manter as informações relativas à hora e data. Cabe ao BIOS, por exemplo, emitir uma mensagem de erro quando o teclado não está conectado. Na verdade, quando isso ocorre, o BIOS está trabalhando em conjunto com o Post, um software que testa os componentes de hardware após o computador ser ligado.
Através de uma interface denominada Setup, também presente na Flash-ROM, é possível alterar configurações de hardware, como velocidade do processador, detecção de discos rígidos, desativação de portas USB, etc.
Como mostra a imagem abaixo, placas-mãe antigas usavam um chip maior para o BIOS.

Foto de um chip de BIOS


Item G - Conectores de teclado, mouse, USB, impressora e outros
item G aponta para a parte onde ficam localizadas as entradas para a conexão do mouse (tanto serial, quanto PS/2), teclado, portas USB, porta paralela (usada principalmente por impressoras), além de outros que são disponibilizados conforme o modelo da placa-mãe. Esses itens ficam posicionados de forma que, quando a motherboard for instalada em um gabinete, tais entradas fiquem imediatamente acessíveis pela parte traseira deste. A imagem abaixo mostra um outro modelo de placa-mãe da Soyo, a SY-P4VGM, desenvolvida para o processador Intel Pentium 4, que exibe esses conectores através de outro ângulo:
Em destaque: conectores de dispositivos entrada e saída

A disposição de entradas vista acima é semelhante em toda placa-mãe que segue o padrão ATX. No antigo padrão AT, esse posicionamento é de outra forma e alguns conectores são diferentes.
H - Furos de encaixe
Para evitar danos, a placa-mãe deve ser devidamente presa ao gabinete. Isso é feito através de furos (item H) que permitem o encaixe de espaçadores e parafusos. Para isso, é necessário que a placa-mãe seja do mesmo padrão do gabinete. Se este for AT, a placa-mãe deverá também ser AT. Se for ATX (o padrão atual), a motherboard também deverá ser, do contrário o posicionamento dos locais de encaixe serão diferentes para a placa-mãe e para o gabinete.
I - Chipset
O chipset é um chip responsável pelo controle de uma série de itens da placa-mãe, como acesso à memória, barramentos e outros. Principalmente nas placas-mãe atuais, é bastante comum que existam dois chips para esses controles: Ponte Sul (I1) e Ponte Norte (I2):
Ponte Sul (South Bridge): este geralmente é responsável pelo controle de dispositivos de entrada e saída, como as interfaces IDE ou SATA. Placas-mãe que possuem som onboard (visto adiante), podem incluir o controle desse dispositivo também na Ponte Sul;
Ponte Norte (North Bridge): este chip faz um trabalho "mais pesado" e, por isso, geralmente requer um dissipador de calor para não esquentar muito. Repare que na foto da placa-mãe em que esse chip é apontado, ele, na verdade, está debaixo de uma estrutura metálica. Essa peça é dissipador. Cabe à Ponte Norte as tarefas de controle do FSB (Front Side Bus - velocidade na qual o processador se comunica com a memória e com componentes da placa-mãe), da freqüência de operação da memória, do barramento AGP, etc.
Os chipsets não são desenvolvidos pelas fabricantes das placas-mãe e sim por empresas como VIA Technologies, SiS e Intel (esta é uma exceção, já que fabrica motherboards também). Assim sendo, é comum encontrar um mesmo chipset em modelos concorrentes de placa-mãe.
Placas-mãe onboard
"Onboard" é o termo empregado para distinguir placas-mãe que possuem um ou mais dispositivos de expansão integrados. Por exemplo, há modelos que têm placa de vídeo, placa de som, modem ou placa de rede na própria placa-mãe. A motherboard estudada neste artigo possui placa de som (C-Media CMI9761A 6-channel) e placa de rede (VIA VT6103 10/100 Mbps Ethernet) integradas, ou melhor, onboard. Por esta razão, os conectores desses dispositivos ficam juntos às entradas mostradas no item G, visto anteriormente.
A vantagem de se utilizar modelos onboard é a redução de custo do computador, uma vez que deixa-se de comprar determinados dispositivos porque estes já estão incluídos na placa-mãe. No entanto, é necessário ter cuidado: quanto mais itens onboard uma placa-mãe tiver, mais o desempenho do computador será comprometido. Isso porque o processador acaba tendo que executar as tarefas dos dispositivos integrados. Na maioria dos casos, placas de som e rede onboard não influenciam significantemente no desempenho, mas placas de vídeo e modems sim.
As placas de vídeo, mesmo os modelos mais simples, possuem um chip gráfico que é responsável pela geração de imagens. Este, por sua vez, requer memória para tal, principalmente quando trata imagens em 3D. Uma placa de vídeo onboard, mesmo quando acompanhada de um chip gráfico integrado, acaba "tomando atenção" do processador, além de usar parte da memória RAM.
Se um computador é comprado para uso em uma loja ou em alguma aplicação que não requer muito desempenho, a compra de um computador com placa-mãe onboard pode ser viável. No entanto, quem deseja uma máquina para jogos e aplicações mais pesadas deve pensar seriamente em adquirir uma placa-mãe "offboard", isto é, com nenhum item integrado, ou no máximo, com placa de som ou rede onboard.
Finalizando
Existe uma série de empresas que fabricam placas-mãe. As marcas mais conhecidas são: Asus, Abit, Gigabyte, Soyo, PC Chips, MSI, Intel e ECS. Apesar da maioria dessas fabricantes disponibilizarem bons produtos, é recomendável pesquisar sobre um modelo de seu interesse para conhecer suas vantagens e desvantagens. Para isso, basta digitar o nome do modelo em sites de busca. Geralmente, o resultado mostra fóruns de discussão onde os participantes debatem sobre a placa-mãe em questão. A pesquisa vale a pena, afinal, a placa-mãe é um item de importância extrema ao computador.
                                                           PROCESSADORES

O processador, também conhecido como CPU, é peça fundamental dos computadores. E não estamos falando apenas dos famosos PCs. Celulares, video games, smartphones, tablets: todos esses dispositivos precisam de processadores para funcionar. Esse componente tão vital é responsável por carregar e realizar as operações aritméticas e lógicas de que os programas de computador fazem uso. Portanto, nada funciona sem a famosa CPU.
Levou décadas para que chegássemos aos modelos atuais de processadores. Na verdade, demoramos alguns anos para chegar também à ideia que temos hoje de como uma CPU funciona. Antes, os softwares não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.
Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Por incrível que pareça, isso não chegava a ser uma barreira preocupante, visto que a produção de software ainda não era alta e não existiam muitos programas disponíveis.


Precursores da CPU moderna: anos 40, 50 e 60

Painéis do ENIAC em exposição na Universidade da Pensilvânia (Fonte da imagem: Wikimedia Commons)
Os primeiros computadores, anteriores à década de 50, possuíam um diferencial considerável, se comparados com as máquinas de hoje: eles não eram capazes de armazenar programas. Alguns deles, como o ENIAC, que teve seu desenvolvimento iniciado em 1943, tinham inicialmente o plano de armazenamento de softwares em seu interior. Mas, para agilizar o lançamento da máquina, essa ideia acabou ficando para trás.
Dessa forma, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada. Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Era dessa forma que o processamento em si era realizado.
EDVAC instalado no Laboratório de Pesquisas Balísticas dos EUA
Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas.
Durante a década de 50, a organização interna dos computadores começou a ser repensada. Esse foi o momento em que os processadores começaram a ganhar funcionalidades básicas, como registradores de índices, operandos imediatos e detecção de operadores inválidos.
No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos.
Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360.  Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam em comum.

Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si.  Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados e em um único chip de silício.



O Intel 4004 foi o primeiro microprocessador a ser lançado, em 1971. Sendo desenvolvido para o uso em calculadoras, essa CPU operava com o clock máximo de 740 KHz e podia calcular até 92 mil instruções por segundo, ou seja, cada instrução gastava cerca de 11 microssegundos.
Com o sucesso do 4004, a Intel desenvolveu o processador 8008, em 1972. Esse era uma CPU de 8 bits, com barramento externo de 14 bits e capaz de endereçar 16 KB de memória. Seu clock trabalhava na frequência máxima de 0,8 MHz.
Esse modelo foi substituído, em 1974, pelo Intel 8080, que apesar de ainda ser um processador de 8 bits, podia executar, com algumas limitações, operações de 16 bits. O 8080 foi desenvolvido, originalmente, para controlar mísseis guiados. Tinha clock limite de 2 MHz, um valor muito alto para a época, era capaz de realizar centenas de milhares de operações por segundo e de endereçar até 64 KB de memória.

A família x86 de 16 bits

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançava 5 MHz, utilizando instruções reais de 16 bits. O nome "x86" veio do fato de que o nome dos processadores que vieram depois do Intel 8086 também terminavam em "86".
Ainda no mesmo ano, foi lançado o 8088, sucessor que possuía barramento externo de 8 bits, porém, com registradores de 16 bits e faixa de endereçamento de 1 MB, como no 8086. Esse foi o chip utilizado no IBM PC original.





Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, criados para serem usados com sistemas embarcados.  Em 1982, a capacidade de processamento chegou ao patamar de 6 e 8 MHz, com o Intel 80286. Posteriormente, as empresas AMD e Harris Corporation conseguiram romper essa barreira, chegando a 25 MHz.

Entram as CPUs de 32 bits (x86-32)

Como o nome sugere, a x86-32 é arquitetura x86 de 32 bits, utilizada até hoje em muitos computadores. Grosso modo, podemos dizer que, com exceção de processadores de 64 bits e aqueles de arquitetura ARM, todos os outros existentes ainda hoje são herdeiros das características dessa geração.

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com clocks que iam de 33 MHz a 100 MHz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução fossem executadas ao mesmo tempo.




A guerra entre Intel e AMD

As séries de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da superescalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 MHz, o qual chegou a atingir 200 MHz com o passar do tempo de desenvolvimento.


Em 1995, a Intel lançava o Pentium Pro, sexta geração de chips x86 e que possuía uma série de melhoramentos em relação ao seu antecessor. Essa seria a base para os futuros lançamentos: Pentium II, Pentium III e Pentium M.
Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original. Dois anos depois, o Pentium II foi lançado, atingindo o clock de 450 MHz.
Nessa mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo, ambas as empresas travaram uma espécie de “corrida”, competindo para ver quem conseguia o maior desempenho e valor de clock.

A lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o número de transistores em um chip dobraria, sem custo adicional, a cada 18 meses. Tal afirmação ficou conhecida como a Lei de Moore, a qual foi válida durante anos, principalmente no final da década de 90.
Sempre que uma empresa lançava um modelo de processador, o concorrente a superava meses depois. Isso ficou muito evidente nos anos de 1999 e 2000, quando o Pentium III e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores do que 1 GHz, superou o Pentium III.
A reviravolta da Intel veio com o lançamento do Pentium 4, em 2001, que trabalhava com até  2 GHz e levou a empresa de volta ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD), também disputavam fortemente o lugar mais alto no ranking do processador “B” mais vendido.

Multicore: o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foi diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0,13 micrômetros) e numerosos (120 milhões) que se tornou muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.
A principal solução para esse problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionasse de maneira eficiente, seria possível trabalhar com quase o dobro do clock. Um processador dual-core de 1,5 GHz, por exemplo, poderia ter um desempenho semelhante a uma CPU de núcleo único de 3 GHz.
Um componente chamado de escalonador determina em qual dos núcleos uma tarefa deve ser executada. Mas como o escalonador demora certo tempo para fazer essa decisão, na prática fica quase impossível atingir o dobro exato de desempenho. Portanto, com o advento do processador multicore, a lei de Moore tornou-se inválida, visto que já não era mais possível aumentar a frequência do processador como antes.

Anos 2000: a era de 64 bits

No começo dessa década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que, no máximo, apenas 4 GB de memória RAM poderiam ser endereçados nessa plataforma. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.



Tanto a AMD quanto a Intel trabalhavam em seus próprios projetos de CPUs de 64 bits, mas quem venceu a disputa foi mesmo a AMD, com o x86-64, que mais tarde foi renomeado para AMD64. Isso aconteceu, principalmente, pelo fato de a AMD ter evoluído diretamente o x86-32, enquanto que a Intel tentou criar algo novo, do zero.
Visto esse acontecimento, as empresas em questão criaram um acordo no uso dessas arquiteturas, no qual a AMD licenciou para a Intel o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 foi um dos maiores representantes dessa arquitetura.

Blackfin

Ainda em 2000, uma nova arquitetura de processadores foi lançada pela empresa Analog Devices. A Blackfin, como foi batizada, é uma família de microprocessadores de 16 e 32 bits que possuía, como diferencial, um processador de sinal digital (DSP) embutido, usado para processar áudio e vídeo.
Aliado a outras características de design, esse processador permite um consumo menor de energia aliado ao alto desempenho. O uCLinux é um dos sistemas operacionais que suporta esse tipo de CPU.

Pentium 4 e Pentium D

Em 2002, a Intel lançou o Pentium 4, processador que podia alcançar clocks muito altos, chegando até a 3,8 GHz em condições especiais. Os últimos modelos dessa linha também incluíam a tecnologia Hyperthreading (HT), funcionalidade que fazia um processador físico trabalhar como se fossem duas CPUs lógicas.




Posteriormente, o Pentium 4 foi substituído pelo Pentium D, duas linhas de processadores dual-core de 64 bits. Mais tarde, foi lançado o Pentium Extreme Edition, que possuía desempenho um pouco melhor do que o Pentium D, além de tecnologias extras que o tornavam mais apto para tarefas pesadas. Esse modelo também fazia uso da tecnologia HT, podendo simular a existência de até quatro núcleos.
Outra novidade da Intel foi o Pentium M, uma versão de baixo consumo do Pentium Pro desenvolvido para dispositivos móveis. Esse processador foi lançado em 2003. Em 2005, a AMD apresentou ao mundo o seu primeiro processador dual-core, o Athlon 64 X2.

Intel Core

Em 2006, a Intel inicia a sua linha Core, para consumidores que precisam de mais poder de processamento. Faz parte dessa linha o modelo Core 2 Duo, que demonstra uma capacidade incrível se comparado com os dual-core anteriores da empresa. Na mesma época, foi lançada a versão Pentium Dual Core, que apesar de trazer uma boa relação custo-benefício, se mostra inferior ao Core 2 Duo.
Outro grande lançamento feito pela Intel foi o Core 2 Quad, processadores com quatro núcleos e que, apesar de demonstrarem alto desempenho, acabam perdendo em algumas tarefas para o Core 2 Duo. Uma versão posterior, nomeada Core 2 Extreme Quad Core, também foi lançada, proporcionando mais velocidade de clock, que pode chegar até 3,2 GHz.
Em 2010, a Intel anunciou os modelos Core i3, i5 e i7. Quem ainda não conhece pode conferir o artigo publicado pelo Tecmundo sobre as diferenças entre esses três modelos.





Além disso,a empresa também lançou uma segunda geração desses processadores, que vem sendo muito bem aceita pelos consumidores. Essa nova leva possui mudanças na memória cache, melhorias no modo Turbo Boost e aperfeiçoamentos na própria arquitetura. Porém, o que chama a atenção é a presença de um chip gráfico acoplado com o processador principal (APU). Confira as diferenças entre as duas gerações no artigo de Fábio Jordão.
A empresa também vem trabalhando em uma nova microarquitetura de processadores, a Ivy Bridge, que deve possuir suporte para PCI Express 3.0, DirectX 11 e OpenCL 1.1. A empresa espera obter um aumento de até 30% de desempenho no processamento gráfico se comparado com o chipset Sandy Bridge, presente nos processadores i5 e i7.

As últimas novidades da AMD

Quando o assunto é AMD, a história possui algumas diferenças. Depois dos processadores dual-core, a linha Athlon II apresentou processadores de três (X3) e quatro núcleos (x4), todos com versões econômicas, ou seja, com menor desempenho e mais baratos.
Um dos últimos grandes lançamentos da AMD foi o Athlon Neo, chip desenvolvido para notebooks ultrafinos e que precisam de uma duração maior da bateria. Outra linha apresentada pela fabricante foi a dos processadores Sempron, uma versão simplificada do Athlon, com apenas um núcleo e voltada para consumidores menos exigentes.





Quem não dispensa um bom jogo ou precisa de processamento de alto desempenho pode contar com os processadores Phenom, que foram lançados para competirem de igual para igual com as CPUs da Intel. Esses modelos também receberam versão de três (X3) e quatro (X4) núcleos. A segunda geração dessa linha, Phenom II, conta também com processadores dual-core de 3 e 3,1 GHz.
A surpresa mesmo fica por conta dos processadores Phenom II X4, de quatro núcleos e alto desempenho, com modelos de até 3,4 GHz. Além desses, servidores ou estações de trabalho que exigem uma carga maior de processamento também podem se beneficiar dos processadores Opteron, que podem operar com até seis núcleos.
A AMD também lançou uma linha de CPUs para notebooks que, apesar de ser dual-core, possui um consumo eficiente de energia, poupando assim a carga da bateria dos portáteis. Mas o que vem ganhando espaço é mesmo a Fusion, linha de APUs (Unidade de Processamento Acelerada) da AMD. Com a junção de CPU e GPU em um único chip, é possível obter melhor desempenho a um custo reduzido.


sexta-feira, 14 de outubro de 2011

                                           HISTORIA DO MAC OS X



Mac OS X é o mais recente lançamento da linha de sistemas operacionais Mac OS da Apple Computer. Apesar de ter sido designado oficialmente apenas como a "versão 10" do Mac OS, possui uma história relativamente independente dos lançamentos anteriores do Mac OS.

Desenvolvimento fora da Apple

Após a Apple remover Steve Jobs da gerência em 1985, ele deixou a companhia e tentou — com investimentos de Ross Perot e de seu próprio bolso — criar a próxima "grande inovação": o resultado foi a NeXT. Os equipamentos produzidos pela NeXT eram avançados para sua época, como a primeira estação de trabalho a incluir um DSP e um drive óptico de alta-capacidade, mas ele tinha várias estranhezas e problemas de design, sendo também caro comparado aos concorrentes no setor. A produção do equipamento foi cancelada em 1993. No entanto, o NeXTSTEP, o sistema operacional de orientação a objeto da companhia, teve um legado mais duradouro.
O NeXTSTEP era baseado na núcleo Mach e no BSD, uma implementação do Unix cujas origens são da década de 1970. Talvez seja mais lembrado por possuir um framework de programação baseado na linguagem Objective-C. Este ambiente é conhecido hoje no mundo Mac como Cocoa. Também suportava Enterprise Objects Framework e o WebObjects, entre outras características notáveis.
Abandonando todas suas idéias, exceto o sistema operacional, a NeXT conseguiu manter um negócio vendendo o WebObjects e consultoria de serviços, mas nunca foi um sucesso comercial. O NeXTSTEP evoluiu para o OPENSTEP que separou as camadas de objetos do sistema operacional abaixo, permitindo que rodasse com menos modificações em outras plataformas. O OPENSTEP foi, por algum tempo, adotado pela Sun Microsystems. No entanto, neste ponto, algumas outras companhias — entre as mais notáveis, Apple, IBMMicrosoft, e até mesmo a Sun — estavam dizendo que iriam logo lançar sistemas operacionais parecidos de orientação a objeto e ferramentas de desenvolvimento próprias. (Alguns desses esforços, como Taligent, não foram completados; outros, como Java, foram muito adotados.)

Desenvolvimento interno

Enquanto isso, a Apple estava enfrentando seus próprios problemas comerciais. O Mac OS, já com dez anos, tinha alcançado os limites de sua arquitetura de usuário único e multitarefa, e sua interface de usuário que já tinha sido considerada inovadora estava parecendo cada vez mais "antiquada". Houve um grande esforço em 1994 para desenvolver um substituto, conhecido como Copland, que era visto fora da Apple como um caso sem esperança. Em torno de 1996, o Copland não estava nem perto das condições para lançamento, e o projeto foi eventualmente cancelado. Alguns elementos do Copland foram incorporadas no Mac OS 8, lançado em 1997.
Após considerar a compra do BeOS — um sistema operacional multitarefa e multimídia projetado para equipamento similar ao da Apple — a companhia decidiu adquirir a NeXT e utilizar o OPENSTEP como base de seu novo sistema operacional. Avie Tevanian assumiu o desenvolvimento do SO, e Steve Jobs foi trazido como consultor. Inicialmente, o plano era desenvolver um novo SO baseado quase completamente numa versão atualizada do OPENSTEP, com um emulador — conhecido como "Blue Box" — para rodar aplicativos "clássicos" do Macintosh. O resultado ficou conhecido pelo codinome Rhapsody, programado para lançamento no final de 1998.
A Apple achou que os desenvolvedores começariam a portar seus programas para as bibliotecas mais poderosas do OPENSTEP uma vez que soubessem do seu poder e flexibilidade. Em vez disso, vários grandes desenvolvedores como a Adobe falaram para a Apple que isso jamais ocorreria, e que eles preferiam deixar a plataforma completamente. Essa "rejeição" do plano da Apple se devia, em grande parte, a antigas promessas que não foram cumpridas pela companhia; após acompanhar um "próximo sistema operacional" desaparecer após o outro e a fatia de mercado da Apple diminuir, os desenvolvedores não estavam muito interessados em trabalhar na plataforma, e muito menos em reescrever aplicativos.

Mudança de direção sob o comando de Jobs

As perdas financeiras da Apple continuavam, os diretores perderam a confiança no CEO Gil Amelio e pediram que ele renunciasse. A diretoria convenceu Jobs a assumir o comando interino da companhia. Na verdade, Jobs estava recebendo "carta branca" dos diretores para trazer os lucros de volta para a companhia. Quando Jobs anunciou na Worldwide Developers Conference que o que os desenvolvedores realmente queriam era uma versão moderna do Mac OS, e que era isso que a Apple entregaria, recebeu muitos aplausos. Nos dois anos seguintes, foi feito muito esforço para portar as APIs originais do Macintosh para as bibliotecas Unix, conhecido como Carbon. Os aplicativos do Mac OS poderiam ser portados para o Carbon sem a necessidade de reescrever todo o código, e ainda assim sendo completamente compatíveis com o novo sistema operacional. Enquanto isso, aplicativos escritos utilizando os kits de ferramentas antigos seriam suportados utilizando o ambiente "clássico" do Mac OS 9 ("Classic"). O suporte a CC++Objective-CJava e Python facilitou a situação ainda mais para os desenvolvedores.
Durante esse tempo as camadas inferiores do sistema operacional (o núcleo Mach e as camadas BSD em cima) foram reempacotadas e lançadas sob uma licença de código aberto conhecido como Darwin. O núcleo do Darwin fornece um sistema operacional extremamente estável e flexível, rivalizando muitas outras implementações do Unix e oferencendo a vantagem das contribuições de programadores e de projetos de código aberto fora da Apple; no entanto, não há muito uso fora da comunidade Macintosh. Durante esse período, a linguagem Java tinha crescido em popularidade e um esforço foi feito para melhorar o suporte a essa linguagem no Mac. Isso foi feito através do porte de uma máquina virtual Java de alta velocidade para a plataforma.
Enquanto o primeiro lançamento do novo SO — Mac OS X Server 1.0 — utilizava uma interface gráfica semelhante ao do Mac OS, todas as versões seguintes apresentavam um novo tema conhecido como Aqua. O desenvolvimento dessa parte do SO foi atrasado em parte devido ao fato da troca do motor de visualização (engine Display) OpenScript do OPENSTEP para um que era livre de licenças, conhecido como Quartz. O Aqua era uma mudança relativamente radical da interface do Mac OS 9, que era uma evolução do Macintosh Finder original. Foram incorporados novos gráficos coloridos escaláveis, anti-aliasing de texto e gráficos, sombreamento e destaque simulado, transparência e animação. Um novo recurso era o Dock, um abridor de aplicativos que tirava vantagem dessas capacidades. Apesar disso, o Mac OS X manteve um grau de compatibilidade com a interface original do Mac OS e com as próprias orientações da Apple, com seu menu único no topo da tela, atalhos de teclado familiares e suporte a mouses de um só botão.

Lançamentos

A Apple lançou o Mac OS X Server 1.0 em janeiro de 1999. Um beta público do Mac OS X foi lançado em 2000, e em 24 de março de 2001 foi o lançamento oficial e completo da versão 10.0 do Mac OS X.

PERGUNTAS

Quantos mac os ja foi lançado? 
R: 10

Em que dia foi lançado o Mac OS C V10.4?
R: Dia 29 de abril

Em que dia, mês e ano foi lançado o mac os Lion ?
R: Foi lançado no dia 20 de julho de 2011

Qual o ultimo lançamento da mac os X
R: O mac os x V10.7 "lion"

Qual foi o primeiro mac os X? 
R: o Mac os 1.0
  
                           HISTORIA DO LINUX



Linux é o termo geralmente usado para designar qualquer sistema operativo (português europeu) ou sistema operacional (português brasileiro) que utilize o núcleo Linux. Foi desenvolvido pelo finlandês Linus Torvalds, inspirado no sistema Minix. O seu código fonte está disponível sob licença GPL para qualquer pessoa que utilizar, estudar, modificar e distribuir de acordo com os termos da licença.
Inicialmente desenvolvido e utilizado por grupos de entusiastas em computadores pessoais, o sistema Linux passou a ter a colaboração de grandes empresas, como a IBMSun MicrosystemsHewlett-Packard (HP), Red HatNovellOracleGoogleMandriva e a Canonical.[1]
Apoiado por pacotes igualmente estáveis e cada vez mais versáteis de aplicativos para escritório (LibreOffice;BrOffice, por exemplo) ou de uso geral, por programas para micro e pequenas empresas gratuitos(projeto GNU) mas que em nada ficam a dever aos seus concorrentes comercializados, e interfaces gráficas cada vez mais amigáveis como o KDE e o GNOME, o núcleo linux, conhecido por sua estabilidade e robustez, tem gradualmente caido no domínio popular, encontrando-se cada vez mais presente nos computadores de uso pessoal atuais. Há muito entretanto destaca-se como o sistema operacional preferido em servidores de grandes porte, encontrando-se quase sempre presente nos "mainframes" de grandes empresas comerciais [2] e até mesmo no computador mais rápido do mundo, o K computer, japonês (lista TOP500).


História


Linus Torvalds, criador e principal mantenedor do núcleo Linux.


programadores voluntários através da Usenet (uma espécie de sistema de listas de discussão existente desde os primórdios da Internet).
núcleo Linux foi, originalmente, escrito por Linus Torvalds do Departamento de Ciência da Computação da Universidade de Helsinki,Finlândia

Linus Torvalds começou o desenvolvimento do núcleo como um projeto particular, inspirado pelo seu interesse no Minix, um pequeno sistema UNIX desenvolvido por Andrew S. Tanenbaum. Ele limitou-se a criar, nas suas próprias palavras, "um Minix melhor que o Minix" ("a better Minix than Minix"). E depois de algum tempo de trabalho no projecto, sozinho, enviou a seguinte mensagem para comp.os.minix:
Cquote1.svgVocê suspira pelos bons tempos do Minix-1.1, quando os homens eram homens e escreviam seus próprios "device drivers"? Você está sem um bom projecto em mãos e deseja trabalhar num S.O. que possa modificar de acordo com as suas necessidades? Acha frustrante quando tudo funciona no Minix? Chega de noite ao computador para conseguir que os programas funcionem? Então esta mensagem pode ser exactamente para você. Como eu mencionei há um mês atrás, estou trabalhando numa versão independente de um S.O. similar ao Minix para computadores AT-386. Ele está, finalmente, próximo do estado em que poderá ser utilizado (embora possa não ser o que você espera), e eu estou disposto a disponibilizar o código-fonte para ampla distribuição. Ele está na versão 0.02... contudo eu tive sucesso ao executar bashgcc, gnu-make, gnu-sed, compress etc. nele.Cquote2.svg
Curiosamente, o nome Linux foi criado por Ari Lemmke, administrador do site ftp.funet.fi que deu esse nome ao diretório FTPonde o núcleo Linux estava inicialmente disponível. (Linus tinha-o baptizado como "Freax", inicialmente)
No dia 5 de outubro de 1991 Linus Torvalds anunciou a primeira versão "oficial" do núcleo Linux, versão 0.02. Desde então muitos programadores têm respondido ao seu chamado, e têm ajudado a fazer do Linux o sistema operacional que é hoje. No início era utilizado por programadores ou só por quem tinha conhecimentos, usavam linhas de comando. Hoje isso mudou, existem diversas empresas que criam os ambientes gráficos, as distribuições cada vez mais amigáveis de forma que uma pessoa com poucos conhecimentos consegue usar o Linux. Hoje o Linux é um sistema estável e consegue reconhecer muitos periféricos sem a necessidade de se instalar os drivers de som, vídeo, modem, rede, entre outros.

Núcleo

O termo Linux refere-se ao núcleo (em inglês"kernel") do sistema operativo. O termo também é usado pelos meios de comunicação e usuários para referir-se aos sistemas operacionais baseados no núcleo Linux agregado a outros programas. Segundo Tanenbaum e Silberschatz, um núcleo pode ser considerado o próprio sistema operativo, quando este é definido como um gerenciador de recursos de hardware.



Arquitetura

O Linux é um núcleo monolítico: as funções do núcleo (escalonamento de processosgerenciamento de memória, operações de entrada/saída, acesso ao sistema de arquivos) são executadas no espaço de núcleo. Uma característica do núcleo Linux é que algumas das funções (drivers de dispositivos, suporte à redesistema de arquivos, por exemplo) podem ser compiladas e executadas como módulos (em inglêsLKM - loadable kernel modules), que são bibliotecas compiladas separadamente da parte principal do núcleo e podem ser carregadas e descarregadas após o núcleo estar em execução.
Ficheiro:Ubuntu 10 04-Beta2.png


UNIX

Embora Linus Torvalds não tenha tido como objetivo inicial tornar o Linux um sistema portável, ele evoluiu nessa direção. Linux é hoje um dos núcleos de sistemas operativos mais portáveis, correndo em sistemas desde o iPaq (um computador portátil) até o IBM S/390 (um denso e altamente custoso mainframe).
Os esforços de Linus foram também dirigidos a um diferente tipo de portabilidade. Portabilidade, de acordo com Linus, era a habilidade de facilmente compilaraplicações de uma variedade de código fonte no seu sistema; consequentemente, o Linux originalmente tornou-se popular em parte devido ao esforço para que os códigos-fonte GPL ou outros favoritos de todos corressem em Linux.
O Linux hoje funciona em dezenas de plataformas, desde mainframes até um relógio de pulso, passando por várias arquitecturas: x86 (IntelAMD), x86-64 (Intel EM64TAMD64), ARMPowerPCAlphaSPARC e etc, com grande penetração também em sistemas embarcados, como handheldsPVRconsola de videojogoscelularesTVs e centros multimídia, entre outros.

Termos de Licenciamento


Inicialmente, Torvalds lançou o Linux sob uma licença de software que proibia qualquer uso comercial. Isso foi mudado de imediato para a GNU General Public License. Essa licença permite a distribuição e mesmo a venda de versões possivelmente modificadas do Linux mas requer que todas as cópias sejam lançadas dentro da mesma licença e acompanhadas do código fonte.

Apesar de alguns dos programadores que contribuem para o núcleo permitirem que o seu código seja licenciado com GPL versão 2 ou posterior, grande parte do código (incluído as contribuições de Torvalds) menciona apenas a GPL versão 2. Isto faz com que o núcleo como um todo esteja sob a versão 2 exclusivamente, não sendo de prever sua adoção da nova GPLv3.

Sistemas de arquivos suportados


O Linux possui suporte de leitura e escrita a vários sistema de arquivos, de diversos sistemas operacionais, além de alguns sistemas nativos. Por isso, quando o Linux é instalado em dual boot com outros sistemas (Windows, por exemplo) ou mesmo funcionando como Live CD, ele poderá ler e escrever nas partições formatadas em FAT e NTFS. Por isto, Live CDs Linux são muito utilizados na manutenção e recuperação de outros sistemas operacionais.[6]
Entre os sistemas de ficheiros suportados pelo Linux, podemos citar FATNTFSJFSXFSHPFSMinix e ISO 9660 (sistema de ficheiros usado em CD-ROMs), este último também com as extensões RRIP (IEEE P1282) e ZISOFS. Alguns sistemas de ficheiros nativos são, dentre outros, Ext2Ext3Ext4ReiserFS eReiser4. Alguns sistemas de ficheiros com características especiais são SWAPUnionFSSquashFSTmpfsAufs e NFS, dentre outros.

Sistema Operacional


Richard Stallman, fundador do projeto GNU para um sistema operacional livre.
Logo que Linus Torvalds passou a disponibilizar o Linux, ou seja na sua versão 0.01, já havia suporte ao disco rígido, tela, teclado e portas seriais, o sistema de arquivos adotava o mesmo layout do Minix (embora não houvesse código do Minix no Linux), havia extensos trechos em assembly, e ela já era capaz de rodar o bash e o gcc.
Cquote1.svgA linha guia quando implementei o Linux foi: fazê-lo funcionar rápido. Eu queria o núcleo simples, mas poderoso o suficiente para rodar a maioria dos aplicativos Unix.[9]Cquote2.svg
O próprio usuário deveria procurar os programas que dessem funcionalidade ao seu sistema, compilá-los e configurá-los. Talvez por isso, o Linux tenha carregado consigo a etiqueta de sistema operativo apenas para técnicos. Foi neste ambiente que surgiu aMCC Interim Linux, do Manchester Computer Centre, a primeira distribuição Linux, desenvolvida por Owen Le Blanc daUniversidade de Manchester, capaz de ser instalada independentemente em um computador. Foi uma primeira tentativa de facilitar a instalação do Linux.
Desde o começo, o núcleo Linux incluía um sistema básico para chamadas do sistema e acesso aos dispositivos do computador. O núcleo de um sistema operativo define entre várias operações, o gerenciamento da memória, de processos, dos dispositivos físicos no computador e é uma parte essencial de qualquer sistema operacional utilizável, contudo para um sistema operacional adquirir funcionalidade são necessários também vários outros aplicativos que determinam funções específicas que aquele sistema será capaz de desenvolver, os aplicativos existentes em um sistema operacional com a única exceção do núcleo são determinados pelo usuário do computador, como por exemplo: interpretadores de comandosgerenciadores de janelas, que oferecem respectivamente uma interface para o usuário do computador, CLI ou GUI, e outros aplicativos como editores de texto, editores de imagem, tocadores de som, e, mas não necessariamente, compiladores.
A maioria dos sistemas inclui ferramentas e utilitários baseados no BSD e tipicamente usam XFree86 ou X.Org para oferecer a funcionalidade do sistemas de janelas X — interface gráfica. Assim como também oferecem ferramentas desenvolvidas pelo projeto GNU.
No momento do desenvolvimento do Linux, vários aplicativos já vinham sendo reunidos pelo Projeto GNU da Free Software Foundation (‘Fundação Software Livre’), que embarcara em um subprojeto que ainda continua para obter um núcleo, o GNU Hurd. Porém devido a várias complicações o projeto GNU e demora em desenvolver o Hurd, Stallman acabou adotando o núcleo Linux como base para distribuir os programas do projeto GNU , não obstante diversas pessoas e instituições tiveram a mesma idéia e assim várias distribuições começaram a surgir baseadas no núcleo desenvolvido inicialmente por Linus.

Distribuições

Atualmente, um Sistema Operacional (em Portugal Sistema Operativo) Linux ou GNU/Linux completo (uma "Lista de distribuições de Linux ou GNU/Linux") é uma coleção de software livre (e por vezes não-livres) criados por indivíduos, grupos e organizações de todo o mundo, incluindo o núcleo Linux. Companhias como aRed Hat, a SuSE, a Mandriva (união da Mandrake com a Conectiva) e a Canonical (desenvolvedora do Ubuntu Linux), bem como projetos de comunidades como oDebian ou o Gentoocompilam o software e fornecem um sistema completo, pronto para instalação e uso. Patrick Volkerding também fornece uma distribuição Linux, o Slackware.
As distribuições do Linux ou GNU/Linux começaram a receber uma popularidade limitada desde a segunda metade dos anos 90, como uma alternativa livre para os sistemas operacionais Microsoft Windows e Mac OS, principalmente por parte de pessoas acostumadas com o Unix na escola e no trabalho. O sistema tornou-se popular no mercado de Desktops e servidores, principalmente para a Web e servidores de bancos de dados.
No decorrer do tempo, várias distribuições surgiram e desapareceram, cada qual com sua característica. Algumas distribuições são maiores outras menores, dependendo do número de aplicações e sua finalidade. Algumas distribuições de tamanhos menores cabem num disquete com 1,44 MB, outras precisam de vários CDs, existindo até algumas versões em DVD. Todas elas tem o seu público e sua finalidade, as pequenas (que ocupam poucos disquetes) são usadas para recuperação de sistemas danificados ou em monitoramento de redes de computadores.
Dentre as maiores, distribuídas em CDs, podem-se citar: SlackwareDebianSuse, e Conectiva. O que faz a diferença é como estão organizadas e pré-configuradas as aplicações. A distribuição Conectiva Linux, por exemplo, tinha as suas aplicações traduzidas em português, o que facilitou que usuários que falam a Língua Portuguesa tenham aderido melhor a esta distribuição. Hoje esta distribuição foi incorporada à Mandrake, o que resultou na Mandriva. Para o português, existe também a distribuição brasileira Kurumin (Essa distribuição foi descontinuada pelo seu mantedor), construída sobre Knoppix e Debian, e a Caixa Mágica, existente nas versões 32 bits64 bitsLive CD 32 bits e Live CD 64 bits, e com vários programas open sourceOpenOffice.orgMozilla Firefox, entre outros.
Existem distribuições com ferramentas para configuração que facilitam a administração do sistema. As principais diferenças entre as distribuições estão nos seus sistemas de pacotes, nas estruturas dos diretórios e na sua biblioteca básica. Por mais que a estrutura dos diretórios siga o mesmo padrão, o FSSTND é um padrão muito relaxado, principalmente em arquivos onde as configurações são diferentes entre as distribuições. Então normalmente todos seguem o padrão FHS(File Hierarchy System), que é o padrão mais novo. Vale lembrar, entretanto, que qualquer aplicativo ou driver desenvolvido para Linux pode ser compilado em qualquer distribuição que vai funcionar da mesma maneira.
Quanto à biblioteca, é usada a Biblioteca libc, contendo funções básicas para o sistema Operacional Linux. O problema está quando do lançamento de uma nova versão da Biblioteca libc, algumas das distribuições colocam logo a nova versão, enquanto outras aguardam um pouco. Por isso, alguns programas funcionam numa distribuição e noutras não. Existe um movimento LSB (Linux Standard Base) que proporciona uma maior padronização. Auxilia principalmente vendedores de software que não liberam para distribuição do código fonte, sem tirar características das distribuições. O sistemas de pacotes não é padronizado.
ArchLinuxDebianFedoraMandrivaMintOpensusePCLinuxOSPuppySabayonSlackware e Ubuntu são algumas das distribuições mais utilizadas actualmente, listadas aqui por ordem alfabética.
Um exemplo de distribuição que corre num CD é o Kurumin Linux, criado por Carlos Eduardo Morimoto, baseada no Knoppix.
De entre as distribuições consideradas mais difíceis de gerir (por preferirem assegurar a estabilidade tecnológica em detrimento da interface de utilizador), destacam-se a Debian, Gentoo e Slackwerw

Controvérsias quanto ao nome

Linux foi o nome dado ao núcleo de sistema operacional criado por Linus Torvalds. Por extensão, sistemas operacionais que usam o núcleo Linux são chamados genericamente de Linux. Entretanto, a Free Software Foundation afirma tais sistemas operacionais são, na verdade, sistemas GNU, e o nome mais adequado para tais sistemas é GNU/Linux, uma vez que grande parte do código-fonte dos sistemas operacionais baseados em Linux são ferramentas do projeto GNU.
Há muita controvérsia quanto ao nome. Eric Raymond afirma, no Jargon File, que a proposta da FSF só conseguiu a "aceitação de uma minoria" e é resultado de uma "disputa territorial".[11] Linus Torvalds afirma que consideraria "justo" que tal nome fosse atribuído a uma distribuição do projeto GNU, mas que chamar os sistemas operacionais Linux como um todo de GNU/Linux seria "ridículo". Linus disse não se importar sobre qual o nome usado, considera a proposta da GNU como "válida" ("ok") mas prefere usar o termo "Linux".

Sobre o símbolo

O símbolo do software foi escolhido pelo seu criador (Linus Torvalds),que um dia estava no zoológico e foi surpreendido pela mordida de um pinguim.Fato curioso e discutido até hoje.
Em 1996, muitos integrantes da lista de discussão "Linux-Kernel" estavam discutindo sobre a criação de um logotipo ou de um mascote que representasse o Linux. Muitas das sugestões eram paródias ao logotipo de um sistema operacional concorrente e muito conhecido (Windows). Outros eram monstros ou animais agressivos. Linus Torvalds acabou entrando nesse debate ao afirmar em uma mensagem que gostava muito de pingüins. Isso foi o suficiente para dar fim à discussão.

Tux.
Depois disso, várias tentativas foram feitas numa espécie de concurso para que a imagem de um pingüim servisse aos propósitos do Linux, até que alguém sugeriu a figura de um "pingüim sustentando o mundo". Em resposta, Linus Torvalds declarou que achava interessante que esse pingüim tivesse uma imagem simples: um pingüim "gordinho" e com expressão de satisfeito, como se tivesse acabado de comer uma porção de peixes. Torvalds também não achava atraente a idéia de algo agressivo, mas sim a idéia de um pingüim simpático, do tipo em que as crianças perguntam "mamãe, posso ter um desses também?". Ainda, Torvalds também frisou que trabalhando dessa forma, as pessoas poderiam criar várias modificações desse pingüim. Isso realmente acontece. Quando questionado sobre o porquê de pingüins, Linus Torvalds respondeu que não havia uma razão em especial, mas os achava engraçados e até citou que foi bicado por um "pingüim assassino" na Austrália e ficou impressionado como a bicada de um animal aparentemente tão inofensivo podia ser tão dolorosa.

PERGUNTAS

Criador do linux?
R: Linuis Trovakds


Qual a logotipo do linux
R: Um pinguim
Porque linux usa um pinguim de logotipo?

R: O símbolo do software foi escolhido pelo seu criador (Linus Torvalds),que um dia estava no zoológico e foi surpreendido pela mordida de um pinguim.Fato curioso e discutido até hoje.


Qual o fundador do projeto GNU?

R: Richard Stallman


No que linux foi inspirado?
R: inspirado no sistema Minix