sexta-feira, 24 de dezembro de 2010

Só uma revolução garantirá os futuros avanços da computação

Depois de décadas de crescimento vertiginoso, o aumento no desempenho dos computadores está prestes a sofrer um travamento.

A única forma de evitar essa parada brusca em um ritmo de avanços tido pela maioria das pessoas como algo certo está em um conjunto de mudanças revolucionárias no desenvolvimento dos programas e no projeto dos processadores.

Esta dura advertência está nas conclusões de um novo relatório elaborado pelo Conselho Nacional de Pesquisas dos EUA, intitulado O Futuro do Desempenho da Computação: Fim do Jogo ou Próximo Nível?

A notícia não poderia ser pior em uma época de crise e incerteza econômica, uma vez que a predição afeta uma indústria com um faturamento na casa do trilhão de dólares, e que já se tornou um elemento dinâmico do crescimento econômico mundial.

Os microprocessadores aumentaram de velocidade por um fator de 10.000 durante os anos 1980 e 1990. Mas dois obstáculos podem fazer com que o poder de processamento bata de frente com um muro na próxima década.

Conforme os transistores se tornaram cada vez menores e mais densamente empacotados dentro dos chips, a velocidade dos processadores se estabilizou. Eles atingiram a casa dos 3 gigahertz em 2005, e ficaram aí desde então. Isto ocorre porque chips com clocks maiores geram calor demais.

Esse patamar na velocidade de clock ameaça acabar com a tendência que chamamos de Lei de Moore - a duplicação do número de transistores em um chip a cada dois anos.

Para tentar sair desse planalto sem graça, e voltar a escalar novos picos de processamento, os fabricantes começaram a fabricar processadores com vários núcleos.

Mas o relatório adverte que processadores multicore não são o bastante para salvar a Lei de Moore: a eficiência energética dos transistores atuais não pode ser melhorada muito mais, e o desempenho "irá se tornar limitado pelo consumo de energia dentro de uma década".

E, para isso, só há uma saída, segundo o documento: inventar uma nova arquitetura para os transistores, ou seja, usar transistores melhores, que ainda não foram inventados.

E os processadores multicore também revelam que o outro calcanhar desse Aquiles computacional também é deficiente: os programas de computador ainda são feitos segundo o paradigma anterior, em que as tarefas eram executadas sequencialmente.

Para que supercomputadores e minicomputadores com processadores de múltiplos núcleos funcionem bem, é necessário projetar os softwares para que eles sejam capazes de executar as tarefas de forma paralela.

Isso parece soar mais promissor, já que a programação paralela, ao contrário de uma nova arquitetura de transistores, já foi inventada.

"A computação paralela oferece um caminho claro rumo ao futuro" para sustentar o crescimento na velocidade dos computadores, afirmou Samuel Fuller, que coordenou a elaboração do relatório.

Alguns processamentos científicos já trabalham bem em paralelo, como os simuladores, seja na previsão do clima ou de grandes explosões de supernovas.

Até mesmo o Google já desenvolveu um conjunto de ferramentas de programação paralela, chamada MapReduce, para processar as grandes massas de dados coletadas pelo seu rastreador, que indexa a internet.

Mas o relatório adverte que a conversão da grande maioria dos softwares, escritos para serem executados sequencialmente, em aplicações paralelas, "será extremamente difícil".

Isso exigirá novos processos de engenharia de software e novas ferramentas. E os programadores terão de passar por uma reciclagem completa para serem capazes de usá-los.
Fonte: The Future of Computing Performance.

Tabela Periódica será corrigida pela primeira vez na história

Pela primeira vez na história, os pesos atômicos de alguns elementos da Tabela Periódica serão alterados.

A nova Tabela Periódica, descrita em um relatório científico que acaba de ser divulgado, irá expressar os pesos atômicos de 10 elementos de uma forma diferente, para refletir com mais precisão como esses elementos são encontrados na natureza.

Os elementos que terão seus pesos atômicos alterados são: hidrogênio, lítio, boro, carbono, nitrogênio, oxigênio, silício, cloro, enxofre e tálio.

"Por mais de 150 anos os estudantes aprenderam a usar os pesos atômicos padrão - um valor único - encontrados na orelha dos livros didáticos de química e na Tabela Periódica dos elementos," comenta o Dr. Michael Wieser, da Universidade de Calgary, no Canadá e membro da IUPAC (União Internacional de Química Pura e Aplicada).

Contudo, explica ele, conforme a tecnologia foi evoluindo, os cientistas descobriram que aqueles números tão bem decorados não são tão estáticos quanto se acreditava anteriormente.

As modernas técnicas analíticas conseguem medir o peso atômico de vários elementos com altíssima precisão.

E essas pequenas variações no peso atômico de um elemento são importantes não apenas nas pesquisas científicas, mas também em outras atividades práticas.

Por exemplo, medições precisas da abundância dos isótopos de carbono podem ser usadas para determinar a pureza e a origem de alimentos como a baunilha ou o mel.

Medições dos isótopos de nitrogênio, cloro e outros são utilizadas para a detecção de poluentes em rios e águas subterrâneas.

Nas investigações de doping nos esportes, a testosterona, que melhora o desempenho dos atletas, pode ser identificada no corpo humano porque o peso atômico do carbono na testosterona humana natural é maior do que na testosterona farmacêutica.

Os pesos atômicos destes 10 elementos agora serão expressos em intervalos, com limites superiores e inferiores.

Por exemplo, o enxofre é conhecido por ter um peso atômico de 32,065. No entanto, o seu peso atômico real pode estar em qualquer lugar no intervalo entre 32,059 e 32,076, dependendo de onde o elemento é encontrado.

"Em outras palavras, o peso atômico pode ser utilizado para identificar a origem e a história de um determinado elemento na natureza," afirma Wieser.

Elementos com apenas um isótopo estável não apresentam variações em seu peso atômico. Por exemplo, o peso atômico padrão do flúor, alumínio, sódio e ouro são constantes, e seus valores são conhecidos com uma precisão acima de seis casas decimais.

quarta-feira, 1 de dezembro de 2010

VSWR, ROE, Realação de Onda Estacionária

Nos bons livros de telecomunicações sempre encontramos a sigla VSWR (Voltage Standing Wave Ratio), ou em português, ROE (Relação de Ondas Estacionárias). Seu conceito é simples, porém as fontes geralmente dificultam seu entendimento. É por isso que este artigo propõe explicar, de forma clara e objetiva, um dos vilões de várias literaturas: o VSWR ou ROE.

Basicamente, a ROE é uma forma de se medir o casamento de uma antena com sua fonte de sinal. Exemplo: quando toda a energia gerada é transferida para a antena (modelo ideal), obtemos um ROE de 1:1 (um para um). Ou seja, um casamento perfeito. Na prática isto não ocorre, pois sempre existirão perdas.

No mundo real vemos valores como 1,50:1. Isto significa que o sistema consegue transferir uma quantidade ótima de sua energia para a antena (algo em torno dos 90%).

As perdas são comumente observadas na linha de transmissão (cabo ou guia de onda) localizada entre a fonte e a antena. Não é a toa que devemos escolher com cuidado os cabos de nossas instalações. Quanto melhor, menor a perda. E mais: infiltração de água e maus tratos (dobramentos, etc) contribuem, e muito, para um alto e desagradável valor de ROE. Cuidado, ok?

Simples, não?

É isso…