Nanômetro (nm) é uma unidade de medida que equivale a um bilionésimo de 1 metro e que tem grande relevância na indústria de semicondutores, já que é a escala usada para medir dimensões no interior de qualquer microchip: módulos de memória, SSDs, processadores e GPUs. Apesar de ser um aspecto crucial para entender a tecnologia atual, os conceitos por trás da aplicação desse termo na indústria de processadores e microchips em geral tende a ser desconhecido pela grande maioria. Nesse texto, você vai entender por que os nanômetros são tão importantes.
Saiba o que é a nanotecnologia e como ela pode mudar o futuro
Para você ter ideia de quanto essa escala é pequena, basta saber que uma folha de papel tem, normalmente, 100 nanômetros de espessura; um fio de cabelo humano tem entre 80.000 e 100.000 nm de espessura; e um único átomo de ouro tem aproximadamente 0,3 nanômetros de espessura. Para comparar, hoje, os processadores mais avançados do mundo são feitos em processos de 14 nanômetros.
Aplicativo do TechTudo: receba as melhores dicas e últimas notícias no seu celular
O que se mede em nanômetros num processador?
Quando se fala que determinado processador é de uma arquitetura, ou processo de manufatura, de 14 nanômetros (nm), está sendo dito, na verdade, que, no interior do chip, a distância entre os terminais dos transistores mede esses tais 14 nanômetros.
Para entender porque é importante que a distância seja a menor possível, basta compreender que os bilhões de transistores que residem no interior de um processador atual são responsáveis pelo processamento de dados (eles funcionam como chaves: podem estar abertas, situação em que toleram a passagem de energia, ou fechadas, situação em que a impedem).
Processadores são naturalmente pequenos e há chips controladores ainda menores, de poucos milímetros quadrados, então, se a distância entre seus componentes fundamentais puder ser a mais exprimida possível, você pode ganhar mais espaço livre para inserir mais alguns milhões de transistores sem precisar criar um processador grandão como resultado. Vale ressaltar que processadores e chips grandes são evitados a todo o custo, porque quanto maior eles forem fisicamente, maiores são os problemas térmicos.
Não que isso seja uma regra absoluta, mas, em princípio, quanto mais transistores o chip tem, mais poderoso ele é. Além disso, os efeitos positivos da economia de espaço e aumentos de área disponível para aumentar a densidade de transistores não param por aí.
Eletricidade corre entre os tais terminais dos transistores, cuja distância medimos em nanômetros. Quanto menor ela for, menos espaço físico a corrente elétrica precisa percorrer, o que significa que, na prática, a informação pode viajar mais rápido no interior do processador, aumentando a sua velocidade de operação.
Outro efeito positivo desse encolhimento medido em escala microscópica é o fato de que se a distância que a energia precisa p
Sabendo disso fica fácil entender porque um processador de 14 nm é inerentemente mais econômico do que um de 22 nanômetros: a menor escala significa que a energia elétrica encontra menor resistência para viajar no interior do chip. Se a resistência é menor, o consumo elétrico cai, porque o chip desperdiça menor quantidade de energia, já que ele precisa receber uma quantidade menor para vencer a resistência.
Por fim, existe também efeitos positivos no custo de fabricação. Entretanto, esse aspecto acaba sendo engolido atualmente pelos valores astronômicos do desenvolvimento de tecnologia para a fabricação de maquinário que permita a produção em larga escala de chips em arquiteturas cada vez menores. No fim das contas, a diminuição de custos é relevante para as indústrias e não para o consumidor.
Economia e performance no mundo real
Se você acompanhou os três pontos cruciais da ideia de diminuir cada vez mais um transistor (aumento da densidade de transistores por conta da economia de espaço, potencial de aumento de velocidade e diminuição de consumo), você deve estar se perguntando: por que, no fim das contas, as vantagens de um processador novo de 14 nanômetros sobre um de 22 nm são tão difíceis de serem percebidas?
São várias razões, mas do ponto de vista do hardware, muito do ganho teórico acaba se perdendo, porque o fabricante usa a margem ganha com o encolhimento para melhorar o chip em outros aspectos.
Um exemplo: suponhamos que a Intel fabricava um i3 dual-core de 22 nanômetros e que podia rodar a 2 GHz. Ao descer para 14 nm, torna-se possível fazer um i3 de dois núcleos rodar nos mesmos 2 GHz, mas com uma economia considerável de energia e com muito menos calor gerado. Só que a 14 nanômetros, esse chip vai esquentar e gastar menos, dando margem para que a Intel, no fim das contas, lance o processador com 2.5 GHz. Essa diferença de 500 MHz a mais faz a CPU i3 de 14 nanômetros mais rápida, mas acaba com a vantagem do menor consumo e calor: para rodar esses 500 MHz a mais, o chip vai precisa de mais eletricidade e vai esquentar a mesma coisa que o seu antecessor.
Outros efeitos acabam dilapidando essas vantagens teóricas: a Apple fabricava um MacBook com bateria de 8.000 mAh, que aguentava até 10 horas de uso com um processador de 22 nanômetros. Se a fabricante usasse essa mesma bateria no chip de 14 nanômetros, a autonomia poderia passar das 12 horas. Entretanto, aproveitando o avanço do processador, a Apple decidiu redesenhar o MacBook, sacrificando a bateria para torná-lo mais leve e fino, e ainda assim mantendo as 10 horas de autonomia.
O exemplo da Apple se estende por toda a indústria e vale para smartphones, tablets e até consoles: os novos PS4 Slim e Xbox One S se tornam viáveis porque seus processadores encolheram alguns nanômetros.
Em números reais
O cenário descrito anteriormente é a norma na indústria, mas há alguns episódios em que ele não ocorre: um caso famoso foi o iPad 2, lançado originalmente com um processador de 45 nanômetros. Depois de um tempo, a Apple apresentou uma nova versão do tablet com um processador que tinha rigorosamente o mesmo design, contagem de núcleos, transistores e velocidade final: a única diferença é que o chip era feito em 32 nanômetros.
Isso permitiu testes aprofundados para determinar o quanto a diminuição de 13 nm significaria em termos de performance. O site Ars Technica realizou esses testes, que consluiram que o iPad 2 com processador menor consumia 16% menos bateria que o modelo anterior. Lembre-se que os dois tablets eram iguais em memória RAM, tela e demais especificações.
Encolher até quando?
Como você viu, diminuir a escala em que os componentes eletrônicos de um microchip são fabricados é essencial para que a tecnologia possa progredir, já que a diminuição abre espaço para processadores cada vez mais rápidos e econômicos.
No entanto, aplicando um raciocínio simples, é possível entender que esse jogo não pode continuar infinitamente, já que, em alguma altura, a distância desses transistores será tão pequena, mas tão pequena, que se aproximará perigosamente das dimensões físicas de átomos. Nesse momento, as leis da física mudam para as leis quânticas e muito do que falamos aqui sobre eletricidade e resistência deixa de funcionar.
O assunto é absurdamente complexo, mas é possível extrair uma noção geral do problema. Acredita-se que, a partir de 5 ou 7 nanômetros, torna-se impossível controlar o funcionamento do processador, porque a distância entre os transistores fica tão pequena que a eletricidade (nesse caso, entenda a energia como os elétrons em si) pode simplesmente pular esse espaço entre terminais.
O problema é que processadores, GPUs, memórias de todos os tipos e qualquer controlador que você imaginar funcionam porque eles conseguem administrar corretamente a passagem da energia entre transistores: por vezes, um transistor está ligado, situação em que admite a passagem de elétrons (1); mas em outros casos, ele precisa estar desligado, cenário em que a porta por onde a energia deve fluir fica fechada para bloquear a sua passagem (0).
A ideia de transistores ou ligados, ou desligados, é que dá a natureza binária da tecnologia: tudo que nossos dispositivos fazem está baseado no código binário de 0 e 1. Se o processador não consegue garantir que o transistor está no estado correto, desligado para a passagem de energia, nada vai funcionar direito.
Como resolver?
O problema é conhecido há décadas porque muito antes de nós especularmos sobre ele aqui, cientistas já vinham antecipando o problema da barreira dos 5 nanômetros. Atualmente, existem pesquisas sendo realizadas em institutos do mundo todo para descobrir formas de contornar o problema: uso de grafeno, germânio, nanotubos de carbono e outras pesquisas com materiais exóticos e engenharia muito criativa visam desenvolver uma saída para o problema.
Qual placa de vídeo comprar para o PC? Opine no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- Novo processador da AMD promete bom desempenho em PCs de baixo custo
- Câmera de segurança Intelbras iC7 é boa? Veja preço e especificações
- Chromecast Audio: descubra se vale comprar o dongle do Google
- Novo GPS consegue mapear localização com precisão de centímetros
- Apple Brasil começa a vender iPad Pro 2018: conheça características
- Windows 10 traz 52 mil emojis renovados; saiba como encontrar
- Battlefield Hardline: aprenda a personalizar classes e armas do game
- Como usar a câmera do M4 Aqua no modo manual?
- Dragon Ball FighterZ: Nakkiel assina com a Panda Global
- Tela 2.5D: entenda tecnologia do display do iPhone 6 e outros celulares