terça-feira, 28 de agosto de 2012

New HEVC video compression wins big over today's standard

          When it comes to very high-resolution video, researchers concluded that a new video compression technology is a big step up from today's prevailing H.264 standard.
          A new compression technology represents a significant improvement over today's standard, a new study found. The result could help pave the way for video with at least four times the pixels of today's 1080p standard.
          The new compression technology, called HEVC or H.265, is significantly better than today's prevailing standard video codec, called AVC or H.264, researchers from the Ecole Polytechnique Federale de Lausanne in Lausanne, Switzerland, concluded.
          "The test results clearly exhibited a substantial improvement in compression performance, as compared to AVC," the researchers said. "As ultra-high definition television has recently been demonstrated to be the future of television, the upcoming HEVC video compression standard seems to be one of the key elements towards a wide deployment of 4K and 8K resolutions."
          HEVC has been tested with mathematical measurements, but this study tested 30 actual people, an important factor since technical measurements such as signal-to-noise ratio don't necessarily match up perfectly with actual human perception of quality. The test subjects compared videos compressed with each codec to high-quality 3840x2160 video -- quad full HD, or QFHD, one of a few resolutions generally given the 4K label.
          The High Efficiency Video Coding technology, now in the final stages of standardization, is expected to be twice as good as H.264, meaning that it can match its image quality using only half as many bits per second. That's a potential boon for the industry, which is struggling to improve image quality and meet video-streaming demand without taxing bandwidth too much.
          The video compression improvements could help with everything from network-constrained mobile video to ordinary broadband streaming video. The study emphasized 4K video, an area where H.264 bitrates would lag those of HEVC.
          In the study, people compared three videos -- one with traffic moving by, one with people on a street, and one with animation. The traffic and animation videos were easier to handle; the first had relatively little movement from one frame of video to the next, and the second had low noise. The people-on-the-street video, though, had a lot of information in each frame, and it changed rapidly from frame to frame, so it proved the most taxing for the codecs.
          Comparing the codecs at various bitrates, HEVC outdid H.264 in four out of five cases for the people on the street. The fifth case, at the highest bitrate, was a tie. For the animation, HEVC swept H.264 at all bitrates. For the traffic video, it only outdid H.264 at one bitrate. In no cases did H.264 outdo HEVC; the best result it could muster was a tie.
          HEVC comes at a price, though: it takes more processing power to encode and decode video than H.264.
          The study, by Philippe Hanhart, Martin Rerabek, Francesca De Simone, and Touradj Ebrahimi, is detailed in a new paper for theSPIE Optics and Photonics conference in August and in an online presentation.
          H.264 is very well established in the industry, used in everything from Blu-ray discs and videocameras and TV broadcasts and Web video. Cementing its position is hardware decoding support built into many processors, a feature that improves performance and cuts battery usage on mobile devices.
          Not everybody is happy with H.264, though. Required patent royalty payments mean it can't be used in open-source software such as the Firefox Web browser, but H.264's popularity for streaming video has effectively imposed a tax on products that need to handle online video. Free online video services may stream H.264 video for free, but operating systems, computing devices, optical disks, and for-fee streaming video services must pay a royalty.
          HEVC looks likely to follow the same payment direction. It and H.264 both stemmed from a joint effort of ITU-T Video Coding Experts Group (VCEG) and the ISO/IECE Moving Picture Experts Group (MPEG), and a group called MPEG LA licenses the group of patents it deems essential to support H.264.  The group has issued a request for any patents that bear on HEVC.
Fonte: CN.

segunda-feira, 25 de junho de 2012

Ministro cogita nova data para apagão analógico

Prevendo dificuldades que possam ser encontradas durante o processo de desligamento do sinal analógico, datado para o ano de 2016, o ministro Paulo Bernardes afirmou uma possibilidade de adiamento desta data.


          O ministro das Comunicações, Paulo Bernardo, acenou ontem (20) com a possibilidade de o prazo para desligamento do sinal para televisores analógicos, previsto para 2016, ser adiado, caso parte considerável da população ainda não tenha adquirido os conversores ou aparelhos necessários ao aproveitamento do sinal digital. Ele também estimou que o padrão tecnológico da rádio digital no Brasil será definido até o fim do ano.
          "O prazo de 2016 [para desligamento do sinal analógico] está mantido, mas pode mudar enquanto houver número razoável de receptores analógicos funcionando nas residências", disse Paulo Bernardo, após participar de palestra no Congresso Brasileiro de Radiodifusão. "Sabemos que um número muito grande de pessoas já possui TVs digitais, mas talvez a metade ainda tenha aparelhos analógicos", acrescentou.
          Pouco antes de iniciar a palestra, Paulo Bernardo confirmou que, até o final do ano, o padrão tecnológico das rádios digitais deverá estar definido. A exemplo do que disse sobre a transição da TV analógica para a digital, as rádios digitais deverão transmitir nos dois sinais enquanto os ouvintes não trocarem seus aparelhos.
          O ministro reiterou, ainda, as vantagens de os processos relativos à engenharia das rádios digitais serem repassados do Ministério das Comunicações para a Agência Nacional de Telecomunicações (Anatel). "A agência tem corpo técnico mais numeroso e melhor preparado que o Ministério das Comunicações. Afinal, são cerca de oito a dez mil processos ligados a engenharia, tratando de assuntos como variação de potência e da localização de transmissores", disse.
          "Já estamos testando alguns dos grandes sistemas [de rádio digital] que existem no cenário internacional. Queremos que os aparelhos [para recepção do sinal digital] sejam fabricados no Brasil a preço popular, acessível às famílias", completou.

Fonte: PP

sábado, 9 de junho de 2012

TVs devem se tornar portais interativos para sobreviver

          Segundo declarações feitas por um executivo da Panasonic, as televisões devem evoluir para tornarem-se completamente interativas e conectadas a serviços online, visando manter sua posição de centro das atenções dentro das casas.
          Apps e recursos da internet e a habilidade de interagir com outros dispositivos, como telefones e tablets, são agora tão importantes quanto a qualidade da imagem e do design. "Smart Tvs continuarão a evoluir para serem dispositivos de comunicação interativos dentro de casa", disse o diretor de gestão da unidade de televisão da Panasonic, Hirotoshi Uehara, durante apresentação na feira Computex, que ainda está acontecendo em Taiwan.
          As configurações mais recentes da Panasonic suportam browsers com HTML5, versão essa que permite aos desenvolvedores criar mais facilmente sites interativos, bem como aplicativos e serviços baseados em nuvem. As televisões da empresa interagem ainda com smartphones e tablets, permitindo aos usuários trocar fotos e vídeos entre os dispositivos e utilizar aparelhos como se fossem controles remoto. Uehara disse que a companhia contratou uma porção de programadores para desenvolverem seus programas. A atual estratégia da companhia visa posicionar as televisões no centro da "onda smart", na qual pode-se conectar serviços online e fazer downloads de softwares.
          A indústria televisiva está preocupada com a Apple, por conta dos rumores de que a gigante prepara sua própria televisão. Os constantes boatos sobre se e quando a companhia irá revelar o dispositivo aumentou muito nos últimos tempos com a aproximação da Apple's Wordwide Developers Conference, que acontecerá durante o mês de junho, em São Francisco.
          Juntamente com outras marcas, como Sony e Sharp, a Panasonic tem lutado para evitar perdas em seus negócios televisivos. Em março, a companhia registrou um prejuízo de quase 10 bilhões de dólares no ano fiscal, o maior na história de uma fabricante japonesa.
          A companhia com sede em Osaka continua a apostar na tecnologia plasma como parte da estratégia, que é tecnicamente superior a de LCD em áreas como velocidade de refresh da tela, mas ainda não consegue alcançar outros fabricantes. Isso porque equipamentos e componentes necessários para a produção estão cada vez mais escassos e caros. Ainda assim, Uehara afirmou que a companhia continuará a oferecer ambas as tecnologias - plasma e LCD.



terça-feira, 5 de junho de 2012

Corning e Sharp apresentam protótipos de telas flexíveis


          Protótipo revelado pela SharpA Sharp e a Corning, duas grandes fabricantes de display, anunciaram cada uma seus protótipos para telas LCD e OLED flexíveis.
          As novas telas da Sharp são finas como uma folha de papel. A empresa usa a tecnologia de óxido de índio e zinco gálio (IGZO) para criar os displays LCD e OLED com imagens de excelente qualidade e baixo consumo de energia.O protótipo exibido pela Sharp possui 4,9 polegadas e resolução de 720 x 1280 pixels. 
          A empresa também já desenvolve outro modelo de 6,1 polegadas e resolução de 2560 x 1600 pixels. Segundo a empresa, modelos de 3,4 polegadas (resolução de 540 x 960 pixels) e displays OLED de 13,5 polegadas com resolução 3840 x 2160 pixels também serão produzidas futuramente.
          A Corning, fabricante do conhecido Gorilla Glass, também revelou detalhes do seu projeto para vidro flexível para smartphones.



           Seu novo produto recebe o nome de Willow Glass e tem a espessura de 100 mícron (um mícron equivale a milésima parte de um milímetro), que poderá ser utilizada como um substrato flexível para painéis LCD e OLED.
           O Willow Glass poderá deixar os dispositivos mais leves e também resistentes, uma vez que conta também com as tecnologias antirrisco do Gorilla Glass. Segundo a Corning, o Willow Glass aparecerá primeiro em smartphones, mas a empresa também planeja utilizá-lo em outras vertentes como células solares e iluminação.

Novo chipset é 1.000 vezes mais rápido que Bluetooth


          Pesquisadores de Cingapura construíram e testaram um novo chipset que transfere 80 músicas MP3 entre dois aparelhos móveis em 1 segundo.
          Isto é o equivalente a transferir o conteúdo de um DVD - um filme de 2 horas "pesando" 8 gigabytes em meio minuto.
          Tente fazer isso por uma conexão Bluetooth e você levará 8,5 horas.
          Essa velocidade sem precedentes para a plataforma de transmissão de dados sem fios foi obtida por Yeo Kiat Seng e seus colegas da Universidade Tecnológica de Nanyang e do Instituto AStar.

TV e projetor sem fios

          O microchip alcança velocidades de transmissão sustentadas de 2 gigabytes por segundo, o que é 1.000 vezes mais rápido do que uma conexão Bluetooth.
          Segundo os pesquisadores, usando ondas de rádio na faixa dos milímetros é possível transmitir grandes pacotes de informação sem consumir muita energia.
          Isto torna o novo "chip wireless", batizado de Virtus, adequado para smartphones e tablets, bem como para a transmissão de dados sem fios entre TVs e projetores, algo inédito até agora.

Chipset wireless

          O chipset inteiro possui três componentes: uma antena, um transmissor/receptor completo de rádio e um processador de banda base, que permite que um canal único utilize toda a largura de banda disponível.
          Segundo a equipe, o processador de banda base é essencial para o baixo consumo de energia do sistema.
          Ele recebe o sinal, captado pela antena e filtrado e amplificado pelo transceptor, e efetua um processamento analógico não-linear e um processamento digital paralelo.
          O chip Virtus será apresentado publicamente durante a Computex de Taiwan, que ocorrerá neste mês de Junho. Mas os cientistas afirmam que já existem contatos com fabricantes para colocá-lo no mercado.



sábado, 12 de maio de 2012

O que é o servidor L?

          O servidor L é um dos 13 servidores originais da Internet no mundo (há dez instalados nos Estados Unidos, dois na Europa e um no Japão). Antes desses 14 servidores L, o Brasil já possuía outros cinco servidores-raiz. Um F, um L e um J localizados em São Paulo, outro J, em Brasília e um I, em Porto Alegre. O que os diferencia? A organização encarregada da sua administração. O servidor L e seus espelhos são gerenciados pela ICANN. O J, pela Verisign. O, F, pelo ICS – Internet Systems Consortium. O I, pela Netnod.
          Uma limitação tecnológica impede que os servidores originais sejam mais de 13. Por isso, foi desenvolvida uma técnica chamada “anycast”, que permite criar clones desses servidores-raiz, chamados de servidores espelhos, que uma vez operativos, não podem ser distinguidos dos originais. O Brasil, portanto, acaba de receber 14 novas cópias anycast do servidor L da ICANN.
           O acordo que permitiu a implementação dessas cópias do servidor raiz “L” na América Latina e o Caribe (região a qual pertence o Brasil, foi assinada pela ICANN e o Registro de Endereçamento da Internet da América Latina e o Caribe (LACNIC) em março deste ano.
           Desde 2010, o Brasil era uma dos poucos países do mundo a ter servidores espelhos da Internet operando no país: cinco. O primeiro deles começou a operar em 2003, já com o objetivo de diminuir o tempo de resolução de nomes de todos os domínios, baratear os custos de interconexão de rede e aumentar a autonomia e a confiabilidade no acesso global ao DNS por brasileiros.
          Até 2003, o internauta que precisasse acessar os servidores-raiz mais próximos levava aproximadamente mais de 100 milissegundos para obter a resposta, o que tornava a navegação mais lenta. Com esses novos servidores, uma rede conectada aos PTTs realizam o mesmo procedimento em menos de 10 milissegundos.

Internet pode ficar ainda mais rápida e segura no Brasil

          O Núcleo de Informação e Coordenação do Ponto BR (NIC.br), em cooperação com a Internet Corporation for Assigned Names and Numbers (ICANN), instalou no Brasil, nos últimos dois meses, 14 novas cópias do servidor L da ICANN, um dos servidores-raiz de nomes da Internet.
           Para quem chegou agora, servidores-raiz de nomes são uma parte crítica da Internet. Eles são a mais alta hierarquia de servidores responsáveis pela transformação de nomes de sites, como www.idgnow.com.br, em endereços IP (Internet Protocol) usados pelos computadores. Poucos países possuem mais de quatro cópias de servidores DNS raiz. Entre eles estão Alemanha, Austrália, Brasil, China, Estados Unidos, França, Índia, Itália, Japão e Reino Unido.
          “Esses novos servidores distribuídos no Brasil fazem parte de um esforço global para melhorar o tempo de resposta, a segurança e a estabilidade do sistema da DNS geral, para todos os usuários”, explica Joe Abley, diretor de operações DNS da ICANN.
          Segundo o comunicado distribuído pelo NIC.br, a partir de hoje, as cópias deste servidor-raiz (o l.root-servers.net, administrado pela ICANN) passam a operar juntamente com servidores do domínio .br em 14 dos 20 Pontos de Troca de Tráfego ( os PTTs) responsáveis pela interconexão direta entre as redes que compõem a Internet brasileira.
           Os PPTs garantem que o tráfego internet seja resolvido direta e localmente e não através de redes de terceiros, muitas vezes fisicamente distantes. Trocando em miúdos, provedores de acesso e de conteúdo conectados a um PTT controlam melhor o tráfego que entra e sai de sua rede e são capazes de reduzir os custos decorrentes da troca de tráfego, aumentar a segurança, reduzir a latência… Ou seja, de oferecer uma operação mais eficiente e melhor para os clientes da sua rede e para a Internet como um todo”, explica Milton Milton Kaoru Kashiwakura, diretor de projetos especiais e de desenvolvimento do NIC.br.
           Agora, pense no ganho ao agregar a tudo isso a resolução de domínios… “Significa que a resolução do DNS vai ser mais rápida, porque vai estar mais próxima da rede do usuários. O tempo de resposta diminui muito”, explica Hugo Koji Kobayashi, gerente de Engenharia e Sistemas do Registro.br/NIC.br.
           E não só. “O impacto mais relevante dessa nova infraestrutura é o grande aumento na segurança, ao distribuir a conectividade internacional para o serviço de resolução de nomes junto à raiz da Internet dentro do país, e de forma independente”, explica Frederico Neves, diretor de serviços e tecnologia do NIC.br.
          Ela distribui por toda a internet brasileira, em nível metropolitano, a capacidade de resolução de nomes e consequentemente a resiliência para suportar possíveis abusos ou ataques ao serviços DNS. “Imagina um ataque de DDoS em um servidor-raiz, na Califórnia. Se ele não for muito bem distribuído, não vai conseguir afetar todas as cópias do servidor”, afirma Kobayashi. O mesmo vale para um ataque direcionado a um servidor de Brasília. Eles só será capaz de afetar os provedores que estiverem conectados ao PTT de Brasília. Todos os demais continuarão operando normalmente.

terça-feira, 8 de maio de 2012

TV Digital: Sistemas DVB-T e ISDB-T

Os sistemas DVB-T e ISDB-T são sistemas multiportadoras. A taxa de bits do sinal na entrada do modulador pode ser variável (até 20 Mbit/s), dependendo da qualidade da imagem ou da robustez que se deseja na transmissão. Os dois sistemas utilizam modulação COFDM (Coded Ortogonal Frequency Division Multiplex). O sistema DVB-T foi implantado na Europa em 1998 e visa, principalmente, a transmissão de vários canais de SDTV no lugar de um canal analógico. O sistema ISDB-T está em fase de implantação no Japão.

Sistema DVB-T

A figura 12 mostra o diagrama de blocos simplificado do sistema DVB-T.



                                                                             Fig. 12

O "Outer Coder" executa uma função idêntica à do "Reed Solomon" do sistema ATSC. A única diferença é que, no sistema DVB-T são acrescentados apenas 16 bytes no "packet", que ficará com 204 bytes na saída. No "Outer Interleaver" os bits são embaralhados da mesma maneira que no "Interleaver" do sistema ATSC. O "Inner Coder" é semelhante ao "Tellis Encoder" do sistema ATSC. A diferença é que, no sistema ATSC o valor de (CR)C é fixo em 2/3 e, no sistema DVB-T ele pode ser programado para diversos valores (1/2; 2/3; 3/4; 5/6 ou 7/8).

O sistema DVB-T possui dois métodos de mutiportadoras: 2K e 8K. No "OFDM Modulator" são criadas 1705 portadoras ortogonais simultâneas para o modo 2K ou 6734 portadoras ortogonais simultâneas para o modo 8K. Isto é obtido por DSP ("Digital Signal Processing" = processamento digital de sinal), pelo uso de uma IFFT ("Inverse Fast Fourier Transform" = transformada rápida inversa de Fourier) e por um conversor D/A (digital / analógico). No padrão M (banda de 6MHz), a separação entre as portadoras é fx=3348,1 Hz para o modo 2K, e fx=837,025 Hz para o modo 8K.

O sistema DVB-T pode ser programado para modulação QPSK (“Quaternary Phase Shift Keying” = 2 feixes digitais), 16QAM (“16 Quadrature Amplitude Modulation” = 4 feixes digitais) ou 64QAM (“64 Quadrature Amplitude Modulation” = 6 feixes digitais). No “Inner Interleaver” o sinal é transformado em 2, 4 ou 6 feixes digitais (conforme o tipo de modulação escolhido) e, através do “Mapper”, esses feixes são destinados, consecutivamente, às 1705 portadoras do modo 2K ou às 6734 portadoras do modo 8K.

Na saída do “OFDM Modulator” surgem blocos estáticos de portadoras simultâneas moduladas em QPSK, 16QAM ou 64QAM. O tempo útil de cada bloco, também conhecido pelo nome de “símbolo” será Tu=1/fx. Assim sendo, tem-se: Tu=298,67ms para o modo 2K, e Tu=1,1947ms para o modo 8K.

Após cada símbolo, é deixado um intervalo de tempo sem nenhuma informação, conhecido como “intervalo de guarda” (Delta t=kTu). Para o sistema DVB-T o fator k pode ser programado para 1/4, 1/8, 1/16 ou 1/32. A introdução do “intervalo de guarda” dá ao sistema DVB-T uma proteção natural contra interferências por “multicaminhos” ou “fantasmas”. Suponha-se. como exemplo (figura 13), uma transmissão no modo 8K com k=1/32 e que, além do sinal principal, esteja chegando ao receptor um sinal retardado de 20 us. Como Delta t=kTu=(1/32).1,1947ms=37,3ms, conclui-se que o sinal retardado não irá invadir o símbolo seguinte.



                                                                                Fig. 13

Fonte: teleco.


sábado, 31 de março de 2012

LG inicia produção da primeira tela flexível





          A LG revelou que deu início a produção da primeira tela flexível projetada para leitores digitais (e-readers).

          A nova tela utiliza um plástico EDP, que pode ser dobrado em um ângulo de até 40 graus. Os e-readers que utilizarão a tecnologia terão 6 polegadas e display e-ink com resolução de 1024 x 768 pixels.
          As telas terão espessura de 0,7 milímetros e pesarão apenas 14 gramas. Também serão resistentes a riscos e quedas de até 1,5 metro.
          Segundo a LG, a tela será fornecida para fabricantes na China e os primeiros produtos para o usuário final devem ser lançados na Europa dentro do próximo mês.
          Embora a tecnologia adotada para as telas flexíveis seja a e-ink, que reproduz apenas imagens em tons cinza, a LG afirmou que com o início da produção em massa do plástico EDP, os conceitos em torno desta experiência poderá favorecer o desenvolvimento de telas flexíveis OLED.


          Fonte: INFO





sexta-feira, 23 de março de 2012

O que é DLNA?

           DLNA (Digital Living Network Alliance) é uma certificação que torna fácil a criação de uma rede entre dispositivos de mídia.
           A DLNA estabelece normas e diretrizes para aparelhos domésticos de mídia em rede. Qualquer dispositivo multimídia pode receber essa certificação e essa certificação permite que o consumidor saiba que uma vez esse dispositivo conectado à sua rede doméstica, ele automaticamente se comunicará com outros dispositivos que possuam o padrão DLNA que também estejam conectados.
           Dispositivos com certificação DLNA podem: localizar e reproduzir filmes, enviar, exibir e/ou fazer upload de fotos, encontrar, envie, tocar e/ou baixar músicas e enviar e imprimir fotos.
          Produtos que estão com certificação DLNA normalmente são reconhecidos, com pouca ou nenhuma configuração, assim que você conectá-los a sua rede. Essa certificação significa que o dispositivo tem suas regras em sua rede doméstica e que os outros dispositivos DLNA pode se comunicar com ele com base em suas próprias regras. Alguns produtos armazenam mídias, alguns produtos controlam mídia e alguns produtos reproduzem essas mídias. Existe uma certificação para cada uma dessas funções.
          Dentro de cada certificação, há orientações DLNA para Ethernet e conectividade WiFi, para requisitos de hardware, para requisitos de software ou firmware, para a interface do usuário, para obter instruções para reconhecer o dispositivo na rede, e para a exibição de diferentes formatos de arquivos de mídia. Cada aspecto deve passar por testes para obter uma certificação DLNA.
          A certificação pode ser embutido no hardware ou ser parte de um aplicativo de software/programa que está em execução no dispositivo. Isto é particularmente relacionado com drives e computadores Network Attached Storage (NAS). Twonky, TVersity, e TV Mobili são produtos de software populares que atuam como servidores de mídia digital e podem ser encontrados por outros dispositivos DLNA.

quarta-feira, 21 de março de 2012

União será obrigada a regulamentar volume de programação na TV

A 10ª Vara Federal Cível da Justiça Federal em São Paulo julgou ação proposta pelo Ministério Público Federal e condenou a União a criar regulamentação para a lei 10.222, de maio de 2001, que prevê que as emissoras mantenham o mesmo volume durante sua programação, sem elevações injustificadas, no prazo de 120 dias.

A elevação abusiva de volume nos intervalos, segundo o Ministério Público, afeta em especial crianças e adolescentes. Segundo laudos técnicos-periciais apresentados na ação, os canais infantis têm uma variação sonora nos comerciais maior do que em outras emissoras. A sentença destaca que, durante esses dez anos, crianças podem ter sofridos danos irreversíveis devido à falta de regulamentação, o que também contraria o Estatuto da Criança e do Adolescente.

De acordo com uma nota técnica divulgada pelo Ministério das Comunicações, "a elevação injustificada de volume nos intervalos comerciais (...) é conhecida pelo nome técnico de loudness e ocorre não apenas nos intervalos comerciais, mas ao longo de toda a programação". Na sentença, a juíza Leila Paiva Morrison destaca que, dois anos após os estudos do ministério em 2009, a falta de regulamentação se tornou um "descaso institucionalizado".

Ainda de acordo com a juíza, a demonstração do descaso fica clara na conclusão do Departamento de Acompanhamento e Avaliação da Secretaria de Serviços de Comunicação Eletrônica do Ministério das Comunicações, que afirma ser "melhor deixar tudo como está e não regulamentar".

Com a sentença, a União tem prazo de 120 dias para a regulamentação e a fiscalização deve começar imediatamente. A variação indevida de volume durante a programação pode levar a pena de suspensão das atividades da emissora pelo prazo de 30 dias, tempo que pode ser triplicado em caso de reincidência, segundo o artigo 3º da lei.

Na decisão, a juíza Leila Paiva entende que não é da Anatel a responsabilidade pela regulamentação. Cabe a União, criar a norma, que concede ao "Presidente da República, auxiliado pelos Ministros de Estado" essa responsabilidade. Durante o processo, tanto a União como a Anatel negaram "legitimidade para atuar e fiscalizar" a lei.

terça-feira, 31 de janeiro de 2012

Era da informação móvel anseia por um novo hardware

          No ano passado, pela primeira vez a venda de smartphones superou a venda de notebooks.
          Com a introdução mais recentes dos tablets, já há elementos suficientes para concluir que a era da informação está passando por sua primeira evolução: a era da informação móvel.
           Parece então que já é hora de pensar em um hardware projetado desde o início para equipamentos que devem permanecer conectados à internet o tempo todo e, sobretudo, gastar menos bateria.

Além da miniaturização

          Um consórcio europeu, reunindo indústria e academia, acaba de divulgar seus resultados justamente nessa área.
          Os dois principais objetivos do projeto DualLogic são a melhoria do desempenho dos equipamentos com conexão permanente à internet e o baixo consumo de energia.
          Depois de 40 anos de miniaturização contínua, não está fácil melhorar o desempenho e a eficiência dos chips.
          A saída encontrada pela equipe foi manter o velho e bom silício como elemento básico, o substrato do chip, mas olhar além do silício para criar componentes com um novo patamar de rendimento.
          "No projeto DualLogic, nós queremos substituir os canais de silício dos transistores, que não permitem que os elétrons andem tão rápido quanto gostaríamos, por materiais semicondutores de maior mobilidade, como o germânio," explica o Dr. Athanasios Dimoulas, coordenador do projeto.


Era da informação móvel anseia por um novo hardware
O projeto DualLogic utiliza dois materiais, um para cada um dos dois tipos de transistores encontrados nos chips. [Imagem: A.Dimoulas]

Duas lógicas

          O projeto foi batizado de DualLogic porque utiliza dois materiais, um para cada um dos dois tipos de transistores encontrados nos chips, o tipo positivo e o tipo negativo.
          A equipe escolheu o germânio (Ge) e o silício-germânio (SiGe) para os transistores do tipo p e o arseneto de índio e gálio (InGaAs) para o transistor tipo n.
          Isso deu a cada um dos transistores a maior mobilidade de cargas obtida na eletrônica.
          O InGaAs, um composto conhecido como semicondutor III-V, porque ele é feito com elementos da terceira e da quinta colunas da Tabela Periódica, deu aos transistores "um rendimento além das expectativas", segundo o Dr. Dimoulas.
          Os resultados para os transistores tipo p não superaram tanto as expectativas, mas ainda assim foram positivos, superando os transistores atuais.

Desafio do mercado

          Mais difícil foi integrar o InGaAs com o silício, o que exigiu o desenvolvimento de um novo equipamento para crescer as camadas do semicondutor III-V diretamente sobre o silício.
           E, embora seja uma inovação significativa, parece que essa nova técnica de fabricação é também o ponto fraco da nova tecnologia.
           Os resultados foram "surpreendentes" em escala piloto, mas ficou então um enorme desafio para que o novo paradigma DualLogic chegue ao mercado: convencer a indústria a usá-lo.
          Algo que seria feito naturalmente se tecnologia de "dupla lógica" pudesse ser fabricada usando a mesma tecnologia CMOS usada hoje pela indústria.

Futuro do hardware

           Embora seja previsível que, em um futuro próximo, a indústria tenha que superar o atual processo produtivo, as empresas vão tentar estender ao máximo a vida útil de seu parque industrial instalado.
           E, com várias novas tecnologias sendo simultaneamente desenvolvidas, ainda não está claro para onde caminhará o hardware nos próximos 10 ou 15 anos.
           Depois da introdução dos materiais de elevado dielétrico, em 2007, os semicondutores III-V vinham sendo as grandes promessas para um novo salto qualitativo.
          Mas, a medir pelos resultados do projeto DualLogic, parece que a melhor aposta a médio prazo continuam sendo os processadores fotônicos, que usam luz em vez de eletricidade para a troca interna de dados.

quarta-feira, 11 de janeiro de 2012

CES 2012: Toshiba prepara o lançamento de TVs 3D sem uso de óculos

         
Toshiba
O primeiro dia da Consumer Electronics Shows 2012 (CES), uma das maiores feiras de eletrônicos do mundo, já nos traz várias novidades no mundo da tecnologia. Um dos bons anúncios é da Toshiba, que lançou uma linha de TVs 3D que dispensam o uso de óculos especiais para assistir ao conteúdo tridimensional.

           De acordo com o site CNET, o produto, batizado de 55LZ2, utiliza uma tecnologia que separa até nove ângulos diferentes da imagem, mostrando visões separadas tanto para o olho direito quanto o esquerdo -, de modo que o vídeo 3D possa ser visto de diferentes pontos pelo espectador. O cérebro, então, reconstrói o mundo de terceira dimensão a partir de duas imagens captadas por minúsculas lentes contidas no aparelho, semelhantes às do portátil Nintendo 3DS.

           Para chegar a esse resultado, a TV faz um rastreamento de rosto do usuário para detectar sua posição e, assim, definir um melhor controle da imagem.

           A primeira leva do dispositivo deve ingressar no mercado dos EUA já no primeiro trimestre deste ano. Contudo, não foram revelados dados adicionais, como tamanhos de tela e resolução.

           Vale lembrar que a Toshiba é pioneira nesse tipo de recurso, que está disponível em países como Alemanha e Japão, em um modelo de 55 polegadas com 4 K de resolução (3.840 x 2.160), para a programação convencional, e de 1.280 x 720 para a função 3D. Segundo a companhia, o aparelho custa em torno dos US$ 10 mil dólares (cerca de R$ 18,5 mil reais).

terça-feira, 10 de janeiro de 2012

CES 2012: LG tem TVs OLED, 4K e controle remoto com controle de voz

Empresa anunciou linha de TVs para 2012 com tela OLED de 55 polegadas, TV 4K de 84 polegadas e controle que permite conversar com aparelho.


LG 84 polegadas
          A LG tem uma extensa linha de TVs para serem lançadas em 2012. Na sua conferência para a imprensa na abertura da CES 2012, a empresa mostrou algumas das novidades que prepara para o mercado, detalhando a TV OLED de 55 polegadas e a TV de 84 polegadas com tecnologia 4K, anunciadas semana passada. Ela também mostrou um novo controle remoto com comandos de voz.

          O principal produto foi a EM9600 OLED TV, a maior tela OLED do mundo, de acordo com a empresa. A TV, com 55 polegadas, também é bastante fina: ela tem 4 mm de espessura, capacidade 3D e deve chegar ao mercado no segundo semestre de 2012 - a empresa não deu informações sobre o preço.

          Já a 84LM9600, com 84 polegadas, será a maior TV LCD nos Estados Unidos e chegará ao mercado até o meio do ano. Ela terá a tecnologia 4K, que permite resoluções 4x superiores às TVs Full HD (ela chega a 3.840x2.160) e também terá capacidade 3D.

          A LG afirma que, durante o ano de 2012, 50% da sua linha de TVs será de Smart TVs com tecnologia 3D. A empresa afirma que melhorou a conversão de 2D para 3D e desenvolveu óculos especiais mais leves e confortáveis para os seus aparelhos.

          Outra grande novidade no setor de TVs é o novo Magic Remote. O controle desenvolvido pela empresa tem reconhecimento de voz - ou seja, você poderá enfim conversar com a sua TV. Ela poderá ser conectada a periféricos que aumentam suas capacidades, como um sensor de gestos, por exemplo. O Magic Remote acompanhará alguns modelos de TV que serão lançados pela empresa durante 2012. A LG não divulgou preço e disponibilidade do dispositivo separado das TVs.

          Outra tecnologia que a empresa mostrará durante a feira é o Dual Play, disponível para sua linha de TVs 3D e feita especialmente para jogos. Com a tecnologia e com os óculos especiais Dual Play, dois jogadores podem jogar um game multiplayer ao mesmo tempo, e cada um verá uma tela diferente. É uma tecnologia similar a uma mostrada pela Sony em 2011, mas sem a limitação do aparelho da empresa japonesa - ela funciona com alguns jogos específicos do PS3.

          A empresa também terá para o público a tecnologia Smart Share Plus, que será integrada às suas TVs e permite, via conexão Wi-Fi, passar o que está sendo visto na TV para dispositivos móveis.

Fonte: OD.

Bateria de ar-lítio: carros elétricos com autonomia de 800 km

Ansiedade de motorista

          Um dos maiores entraves à popularização dos veículos elétricos é a chamada "ansiedade da autonomia".
          Os motoristas parecem morrer de medo de que a carga da bateria não consiga levá-los até seu destino ou trazê-los de volta para casa.
          Agora, cientistas da IBM afirmam ter resolvido um problema fundamental que poderá levar à criação de uma bateria capaz de dar a um carro elétrico uma autonomia de 800 quilômetros - o dobro da autonomia da maioria dos carros a gasolina ou etanol.
          As melhores baterias disponíveis atualmente são do tipo íons de lítio, que são boas para telefones celulares, razoavelmente boas para notebooks, mas insuficientes para veículos elétricos, que não conseguem superar os 200 km de autonomia.

Bateria de ar-lítio

          Um novo tipo de bateria, chamada bateria de ar-lítio, é muito mais interessante porque sua densidade teórica de energia é 1.000 vezes maior do que as baterias de íons de lítio, o que a coloca praticamente em condições de igualdade com a gasolina.
          Em vez de usar óxidos metálicos no eletrodo positivo, as baterias de ar-lítio usam carbono, que é mais leve e mais barato, e reage com o oxigênio do ar ambiente para produzir uma corrente elétrica.
          Mas há um problema: as instabilidades químicas limitam a vida útil das baterias de ar-lítio, que suportam poucos ciclos de carga e descarga - algo impraticável para os veículos elétricos.
          Agora, Winfried Wilcke e seus colegas dos laboratórios da IBM descobriram a causa dessa rápida degradação: o oxigênio do ar reage não apenas com o eletrodo de carbono, mas também com o eletrólito, a solução condutora que transporta os íons de lítio entre os eletrodos.

Bateria de ar-lítio dá autonomia de 800 km a carros elétricos
A bateria ar-lítio tem um potencial teórico mais de 1.000 vezes superior às baterias mais modernas. [Imagem: Winfried Wilcke/IBM]

          Essa reação indesejada deteriora o eletrólito, danificando a bateria.

Eletrólito promissor

          Os pesquisadores usaram então um supercomputador para modelar essas reações químicas, em busca de eletrólitos alternativos, que não fossem danificados pela reação com o oxigênio.
          "Nós agora descobrimos um [novo eletrólito] que parece muito promissor," contou Wilcke.
           A pesquisa ainda não foi publicada, e os pesquisadores se recusam a dar mais detalhes sobre o novo composto, embora contem que o material funcionou como previsto nos modelos computadorizados "em vários protótipos em escala de laboratório".
           Segundo Wilcke, a expectativa é que um protótipo em escala real esteja pronto até 2013.
          Mas ainda há um grande desafio antes que as baterias de ar-lítio possam cumprir todas as suas promessas: como lidar com a umidade do ar ambiente, já que o lítio pega fogo espontaneamente quando imerso em água.