O site GSMArena colocou os três novos Xperia da Sony - T, TX e V - frente a frente com os Androids mais poderosos do mercado para um teste de poder de fogo de seus processadores. Os modelos japoneses enfrentaram ninguém menos que Samsung Galaxy S3, HTC One X, LG Optimus 4X, Meizu MX 4 e Motorola Atrix HD, e não fizeram feio diante da concorrência.
teste de velocidade de processamento, a vitória dos modelos Xperia - que são dual-core - se deu com larga vantagem sobre os melhores aparelhos do mercado, que são equipados em sua maioria com processadores quad-core. Para justificar o resultado, porém, o site informa que este tipo de teste utiliza somente dois núcleos do processador, mesmo naqueles com quatro.
Já no teste de processamento gráfico, onde os aparelhos são levados ao limite com jogos e vídeos mais pesados, os resultados mostraram que os três Xperia também estão bem servidos em matéria de processamento visual. Apenas o Galaxy S3 e o Meizu MX4 conseguiram se aproximar nos números finais.
Por fim, foi realizado o teste de perfomance geral - prova que mede o desempenho dos smartphones como um todo -, que é considerado o mais completo. E os números finais também apontam para a superioridade dos processadores Snapdragon que equipam os Xperia. Nem mesmo o Galaxy S3, com seu Exynos quad-core, conseguiu superar os rivais da Sony. Um resultado impressionante.
É importante ressaltar que os Xperia da Sony utilizam processadores dual-core, mas com a nova arquitetura Krait da Qualcomm, que parece fazer diferença no processamento. Mesmo os modelos com processadores de quatro núcleos, como Galaxy S3 - considerado o melhor smartphone do mundo -, HTC One X e Meizu M4 não foram páreo para os novos modelos da Sony na maioria dos testes.
Mostrando postagens com marcador Tecnologia. Mostrar todas as postagens
Mostrando postagens com marcador Tecnologia. Mostrar todas as postagens
sábado, 8 de setembro de 2012
sexta-feira, 7 de setembro de 2012
A evolução dos controles dos consoles de video game
Houveram muitas especulações que a Nintendo teria copiado o Design do controle Xbox 360...
Porem estou aqui para mostrar que isso não e verdade... eis a evolução dos controles dos consoles de vídeo game e eles descendem de projetos diferentes...
Sabe porque o Design do N64 foi base para o Controle Dual Shock da Sony e fora que o controle do Xbox descende do controle do sega dreamcast...
Wii U Controller Pro Wii U e baseado no controle do Game Cube com o SNES... O Kinect descende da Eyetoy e do SEGA Activator como podemos ver na imagem acima...ambos na verdade foram os embriões para o projeto..
Obs: Só quis demonstrar a verdade e mostrar de onde vem o controle dos nossos consoles atuais... No passado quando a Nintendo começou a fazer consoles pegou o design de outra empresa e aprimorou... A SEGA tambem fez isso, a Microsoft e a Sony... Não e errado aprimorar o design deixando mais anatômico..
Wii U Controller Pro Wii U e baseado no controle do Game Cube com o SNES... O Kinect descende da Eyetoy e do SEGA Activator como podemos ver na imagem acima...ambos na verdade foram os embriões para o projeto..
Obs: Só quis demonstrar a verdade e mostrar de onde vem o controle dos nossos consoles atuais... No passado quando a Nintendo começou a fazer consoles pegou o design de outra empresa e aprimorou... A SEGA tambem fez isso, a Microsoft e a Sony... Não e errado aprimorar o design deixando mais anatômico..
quinta-feira, 6 de setembro de 2012
Galaxy S3 tira iPhone 4S do posto de líder de vendas
Pela primeira vez desde o seu lançamento, o iPhone 4S caiu de posição no ranking dos celulares mais vendidos dos Estados Unidos. Segundo um levantamento realizado pela Canaccord Genuity, o smartphone da Apple perdeu a liderança para o seu maior rival, o Samsung Galaxy S3.
O aparelho da Samsung ultrapassou o iPhone 4S nas vendas de três das quatro principais operadoras americanas: T-Mobile, Sprint e Verizon. Segundo um dos analistas da Canaccord, esta foi a primeira vez, desde seu lançamento, que o iPhone 4S não figurou como líder do mercado norte-americano.
O analista responsável pelo levantamento ainda afirmou que, apesar da qualidade do Galaxy S3, a queda de posição da Apple pode ter ocorrido pela expectativa dos consumidores pelo iPhone 5. O lançamento do novo aparelho da Apple acontecerá na próxima semana, no dia 12 de setembro, e com ela a companhia da maçã deve voltar à primeira colocação no ranking.
Lembrando que, antes de se tornar o celular mais vendido dos Estados Unidos, o Galaxy S3 já havia sido eleito por uma premiação européia como o "melhor smartphone do mundo".
O aparelho da Samsung ultrapassou o iPhone 4S nas vendas de três das quatro principais operadoras americanas: T-Mobile, Sprint e Verizon. Segundo um dos analistas da Canaccord, esta foi a primeira vez, desde seu lançamento, que o iPhone 4S não figurou como líder do mercado norte-americano.
O analista responsável pelo levantamento ainda afirmou que, apesar da qualidade do Galaxy S3, a queda de posição da Apple pode ter ocorrido pela expectativa dos consumidores pelo iPhone 5. O lançamento do novo aparelho da Apple acontecerá na próxima semana, no dia 12 de setembro, e com ela a companhia da maçã deve voltar à primeira colocação no ranking.
Lembrando que, antes de se tornar o celular mais vendido dos Estados Unidos, o Galaxy S3 já havia sido eleito por uma premiação européia como o "melhor smartphone do mundo".
Asus Lança Computador Rog Tytan Cg8890
O novo computador ROG TYTAN CG8890 da ASUS pode ser considerado a materialização do sonho de vários entusiastas em jogos. Ele é equipado com um processador Intel Core i7-3960X usando refrigeração líquida, uma placa de vídeo NVIDIA GeForce GTX 690 que suporta até quatro monitores, duas unidades SSD SATA-600 de 128 GB configuradas no modo RAID 0 e uma placa de som ASUS Xonar DX (relação sinal/ruído de 116 dB)...
O ROG TYTAN CG8890 tem um botão chamado "Turbo Gear" que permite ao usuário aumentar dinamicamente o clock do processador sem precisar reiniciar o micro. Com um simples toque no botão o CG8890 automaticamente configura o processador para trabalhar em três diferentes modos:
Modo de inicialização: processador rodando a 3,8 GHz
Modo Turbo Gear: processador rodando a 4 GHz
Modo Turbo Gear extreme: processador rodando a 4,2 GHz
Infelizmente a ASUS não informou o preço do computador.
O ROG TYTAN CG8890 tem um botão chamado "Turbo Gear" que permite ao usuário aumentar dinamicamente o clock do processador sem precisar reiniciar o micro. Com um simples toque no botão o CG8890 automaticamente configura o processador para trabalhar em três diferentes modos:
Modo de inicialização: processador rodando a 3,8 GHz
Modo Turbo Gear: processador rodando a 4 GHz
Modo Turbo Gear extreme: processador rodando a 4,2 GHz
Infelizmente a ASUS não informou o preço do computador.
A primeira televisão 4K da Sony chegará no mercado custando incríveis 25 mil dólares
A Sony finalmente revelou informações sobre a sua primeira televisão com resolução 4K, a nova tecnologia que deverá ser padrão nos próximos cinco anos. O preço e a data de lançamento foram revelados, mas o que chama atenção é o custo para ter essa belezinha de 84 polegadas em casa: 25 mil dólares.
Você não leu errado não, a primeira televisão 4K da Sony, que também será a primeira no mundo, custará absurdos 25 mil dólares. A televisão terá uma resolução total de 3840 x 2160 pixels, quatro vezes mais que as atuais 1080p, tela de LCD, falantes integrados e 84 polegadas.
Não está convencido? A televisão ainda possui o SimulView 3D, que liga o dono à Sony Entertainment Network, que dará acesso a videos e programas de televisão. Está doido para comprar a sua? Prepare-se para juntar os 25 mil dólares em poucos meses, pois ela chegará em novembro nas lojas da empresa.
Agora resta saber o que teremos para ver em 4K?
Você não leu errado não, a primeira televisão 4K da Sony, que também será a primeira no mundo, custará absurdos 25 mil dólares. A televisão terá uma resolução total de 3840 x 2160 pixels, quatro vezes mais que as atuais 1080p, tela de LCD, falantes integrados e 84 polegadas.
Não está convencido? A televisão ainda possui o SimulView 3D, que liga o dono à Sony Entertainment Network, que dará acesso a videos e programas de televisão. Está doido para comprar a sua? Prepare-se para juntar os 25 mil dólares em poucos meses, pois ela chegará em novembro nas lojas da empresa.
Agora resta saber o que teremos para ver em 4K?
Intel lança o processador Core i7-3940XM Extreme Edition
Novo modelo chega para substituir o Core i7-3920XM
A Intel lançou recentemente um novo processador quad-core da sua linha Core i7 Extreme Edition para portáteis, o Core i7-3940XM Extreme Edition.
O novo processador chega para substituir o atual Core i7-3920XM, possui 2 MB de cache L3 por núcleo, 256KB de cache L2 por núcleo e também possui multiplicador destravado.
Além disso, o processador possui clock de 3GHz (até 3.9GHz em Turbo Boost), TDP (thermal design power) de 55 watts, GPU Intel HD 4000 integrada e custa US$ 1.096.
A Intel lançou recentemente um novo processador quad-core da sua linha Core i7 Extreme Edition para portáteis, o Core i7-3940XM Extreme Edition.
O novo processador chega para substituir o atual Core i7-3920XM, possui 2 MB de cache L3 por núcleo, 256KB de cache L2 por núcleo e também possui multiplicador destravado.
Além disso, o processador possui clock de 3GHz (até 3.9GHz em Turbo Boost), TDP (thermal design power) de 55 watts, GPU Intel HD 4000 integrada e custa US$ 1.096.
God of War Collection, ICO e Shadow of the Collossus agora podem ser jogados pelo Uso Remoto do Vita
A partir de hoje, atualizações feitas pela Sony para os jogos God of War Collection (que contém os dois primeiros títulos da franquia remasterizados) e ICO and Shadow of the Colossus Collection permitem que esses games sejam jogados por meio da função Uso Remoto do PlayStation Vita.
Desse modo, as duas coletâneas HD podem ser aproveitas por meio do portátil, mesmo longe de seu PlayStation 3.
Para isso, é necessário registrar o seu Vita no seu PlayStation 3.
A partir daí, basta acessar a função uso remoto nos dois consoles e jogar o game no Vita com a ajuda de uma conexão Wi-Fi. A nova funcionalidade é compatível com versões digitais e físicas dos dois games, sendo necessária apenas a instalação gratuita de seus últimos patches.
Desse modo, as duas coletâneas HD podem ser aproveitas por meio do portátil, mesmo longe de seu PlayStation 3.
Para isso, é necessário registrar o seu Vita no seu PlayStation 3.
A partir daí, basta acessar a função uso remoto nos dois consoles e jogar o game no Vita com a ajuda de uma conexão Wi-Fi. A nova funcionalidade é compatível com versões digitais e físicas dos dois games, sendo necessária apenas a instalação gratuita de seus últimos patches.
Nvidia Está Aumentando A Compatibilidade De Seus Produtos Com O Linux
Companhia prometeu o lançamento de uma atualização que permite usar a tecnologia Optimus na plataforma livre.
Embora o relacionamento entre a NVIDIA e Linus Torvalds não seja muito grande, a fabricante de GPUs está trabalhando em formas de aprimorar a compatibilidade de seus produtos com o Linux. Segundo a empresa, a intenção é permitir que o sistema operacional trabalhe com a tecnologia Optimus, responsável por diminuir a energia consumida por computadores portáteis.
A técnica inventada pela fabricante permite que um dispositivo alterne entre o uso de uma GPU integrada e uma placa de vídeo dedicada conforme a situação apresentada. Dessa forma, é possível prolongar o tempo de vida útil de uma bateria, especialmente quando são realizadas atividades pouco exigentes, como a digitação de textos ou a navegação pela internet.
Até o momento, não há indícios de quando o suporte à tecnologia Optimus deve chegar ao Linux. Porém, o anúncio feito pela NVIDIA é prova de que isso não deve demorar a acontecer, e pode indicar um aumento na frequência do lançamento de futuros drivers baseados no sistema operacional livre.
Embora o relacionamento entre a NVIDIA e Linus Torvalds não seja muito grande, a fabricante de GPUs está trabalhando em formas de aprimorar a compatibilidade de seus produtos com o Linux. Segundo a empresa, a intenção é permitir que o sistema operacional trabalhe com a tecnologia Optimus, responsável por diminuir a energia consumida por computadores portáteis.
A técnica inventada pela fabricante permite que um dispositivo alterne entre o uso de uma GPU integrada e uma placa de vídeo dedicada conforme a situação apresentada. Dessa forma, é possível prolongar o tempo de vida útil de uma bateria, especialmente quando são realizadas atividades pouco exigentes, como a digitação de textos ou a navegação pela internet.
Até o momento, não há indícios de quando o suporte à tecnologia Optimus deve chegar ao Linux. Porém, o anúncio feito pela NVIDIA é prova de que isso não deve demorar a acontecer, e pode indicar um aumento na frequência do lançamento de futuros drivers baseados no sistema operacional livre.
terça-feira, 10 de julho de 2012
Windows 8 vs Windows 7: Quem é o mais rápido?
Sempre que a Microsoft desenvolve um novo sistema operacional, uma das principais dúvidas dos usuários é se o novo sistema é mais rápido do que o anterior.
Para tirar esta dúvida, o site PCMag realizou alguns testes de desempenho com o Windows 7 e Windows 8 (ambos 64 bits).
Os sistemas operacionais foram testados em um laptop Toshiba Portégé R835-P88 equipado com processador Intel Core i5 (2.5GHz), 6 GB de memória RAM, disco rígido com 500 GB de capacidade e vídeo integrado Intel HD 3000.
Confira os resultados:
Como podemos notar, o Windows 8 se saiu melhor em grande parte dos testes. O que mais chamou a atenção foi o tempo de inicialização de apenas 17 segundos no laptop com HD tradicional. Se fosse um SSD, esse tempo poderia ser ainda menor.
Além disso, os resultados também mostraram que a Microsoft trabalhou duro para melhorar o desempenho do Internet Explorer no Windows 8. Os resultados dos testes com o Sunspider e Google V8 mostram uma grande melhora nos tempos de carregamento e processamento das páginas.
Para tirar esta dúvida, o site PCMag realizou alguns testes de desempenho com o Windows 7 e Windows 8 (ambos 64 bits).
Os sistemas operacionais foram testados em um laptop Toshiba Portégé R835-P88 equipado com processador Intel Core i5 (2.5GHz), 6 GB de memória RAM, disco rígido com 500 GB de capacidade e vídeo integrado Intel HD 3000.
Confira os resultados:
Como podemos notar, o Windows 8 se saiu melhor em grande parte dos testes. O que mais chamou a atenção foi o tempo de inicialização de apenas 17 segundos no laptop com HD tradicional. Se fosse um SSD, esse tempo poderia ser ainda menor.
Além disso, os resultados também mostraram que a Microsoft trabalhou duro para melhorar o desempenho do Internet Explorer no Windows 8. Os resultados dos testes com o Sunspider e Google V8 mostram uma grande melhora nos tempos de carregamento e processamento das páginas.
domingo, 8 de julho de 2012
Mini iPad poderá ser produzido no Brasil, diz fonte a site japonês
Acompanhando os crescentes rumores de que a Apple se prepara para lançar um mini iPad até o final deste ano, fala-se agora que a versão menor do dispositivo será montada no Brasil, por um parceiro da fabricante Foxconn. As informações são do site Apple Insider.
Uma fonte chinesa disse ao site japonês MacOtakara que a versão menor do iPad, que já teria tido protótipo montado e testado na China, seria efetivamente produzida em território brasileiro, onde já são fabricados alguns modelos de dispositivos da Apple. A mesma fonte também afirmou que o lançamento do mini iPad acontecerá no mês de setembro, para impulsionar ainda mais vendas antes das festas de final de ano.
O novo tamanho de 7,85 polegadas é consenso entre os rumores, entretanto há quem diga que o mini iPad será mais parecido com um iPod Nano de terceira geração do que com o Nexus 7, mini recentemente lançado pelo Google. Especula-se que mini tablet da Apple terá espessura mais fina que o Kindle Fire, tablet da Amazon.
Também circulam histórias de que já existe uma lista de operadoras de telefonia escolhidas para receber o novo dispositivo, que teria conexão 3G.
A fonte do site japonês ainda diz que é verdadeiro o boato de que uma nova geração do iPhone seria lançada em setembro.
Uma fonte chinesa disse ao site japonês MacOtakara que a versão menor do iPad, que já teria tido protótipo montado e testado na China, seria efetivamente produzida em território brasileiro, onde já são fabricados alguns modelos de dispositivos da Apple. A mesma fonte também afirmou que o lançamento do mini iPad acontecerá no mês de setembro, para impulsionar ainda mais vendas antes das festas de final de ano.
O novo tamanho de 7,85 polegadas é consenso entre os rumores, entretanto há quem diga que o mini iPad será mais parecido com um iPod Nano de terceira geração do que com o Nexus 7, mini recentemente lançado pelo Google. Especula-se que mini tablet da Apple terá espessura mais fina que o Kindle Fire, tablet da Amazon.
Também circulam histórias de que já existe uma lista de operadoras de telefonia escolhidas para receber o novo dispositivo, que teria conexão 3G.
A fonte do site japonês ainda diz que é verdadeiro o boato de que uma nova geração do iPhone seria lançada em setembro.
sábado, 7 de julho de 2012
Windows 8 Pro por apenas R$29,00
É isso mesmo , se você adquiriu ou adquirir um computador com Windows 7 entre os dias 2 de Junho de 2012 e 31 de Janeiro de 2013 poderá realizar o upgrade para o Windows 8 por apenas R$29! Segue as informações do próprio site da Microsoft:
Compre o computador que você precisa hoje e atualize depois
Compre um computador com Windows 7Home Basic, Home Premium, Professional ou Ultimate entre 2 de junho de 2012 e 31 de janeiro de 2013. * (Use nossa ferramenta para encontrar seu computador.)
Registre-se na promoção em windowsupgradeoffer.com até 28 de fevereiro de 2013.
Nós lhe enviaremos um email com seu código da promoção e as instruções de compra assim que o Windows 8 Pro estiver disponível.
Baixe e instale o Windows 8 Pro em um computador compatível baseado no Windows usando o Assistente de Atualização do Windows.
Além disso, a oferta inclui 90 dias de suporte técnico gratuito da Microsoft.
* Oferta válida para novos computadores pré-instalados com Windows 7 Home Basic, Home Premium, Professional ou Ultimate e adquiridos entre 2 de junho de 2012 e 31 de janeiro de 2013. Para saber detalhes, visite windowsupgradeoffer.com.
** Tarifas telefônicas ou outras tarifas de acesso poderão ser aplicáveis.
Compre o computador que você precisa hoje e atualize depois
Compre um computador com Windows 7Home Basic, Home Premium, Professional ou Ultimate entre 2 de junho de 2012 e 31 de janeiro de 2013. * (Use nossa ferramenta para encontrar seu computador.)
Registre-se na promoção em windowsupgradeoffer.com até 28 de fevereiro de 2013.
Nós lhe enviaremos um email com seu código da promoção e as instruções de compra assim que o Windows 8 Pro estiver disponível.
Baixe e instale o Windows 8 Pro em um computador compatível baseado no Windows usando o Assistente de Atualização do Windows.
Além disso, a oferta inclui 90 dias de suporte técnico gratuito da Microsoft.
* Oferta válida para novos computadores pré-instalados com Windows 7 Home Basic, Home Premium, Professional ou Ultimate e adquiridos entre 2 de junho de 2012 e 31 de janeiro de 2013. Para saber detalhes, visite windowsupgradeoffer.com.
** Tarifas telefônicas ou outras tarifas de acesso poderão ser aplicáveis.
segunda-feira, 9 de abril de 2012
Nokia afirma que processadores multi-core desperdiçam a bateria dos smartphones
Empresa acredita que mais núcleos não significam, necessariamente, dispositivos melhores.

Na tentativa de tornar os smartphones cada vez melhore e mais potentes, companhias como Apple e Samsung investem em aparelhos com processador dual-core ou quad-core para que aplicativos melhores possam ter um desempenho aperfeiçoado. Entretanto, Stephen Elop, diretor executivo da Nokia acredita que essa talvez não seja uma boa ideia.
Em entrevista ao Yangcheng Evening News, Elop foi taxativo. "Processadores multi core gastam mais bateria e não são úteis para o consumidor na maior parte do tempo", destacou. Para provar que está com a razão, a companhia lançou um desafio na China para mostrar que mesmo um aparelho cm processador de um núcleo pode realizar tarefas simples na mesma velocidade que um produto multi core.
Segundo ele o resultado foi que em nenhum momento os smartphones da empresa perderam para os modelos equipados com Android ou iOS. Com isso, a companhia não quer dizer que os produtos com processador multi core são desnecessários, mas que na maior parte do tempo eles não representam um diferencial para o uso no cotidiano do consumidor.

Na tentativa de tornar os smartphones cada vez melhore e mais potentes, companhias como Apple e Samsung investem em aparelhos com processador dual-core ou quad-core para que aplicativos melhores possam ter um desempenho aperfeiçoado. Entretanto, Stephen Elop, diretor executivo da Nokia acredita que essa talvez não seja uma boa ideia.
Em entrevista ao Yangcheng Evening News, Elop foi taxativo. "Processadores multi core gastam mais bateria e não são úteis para o consumidor na maior parte do tempo", destacou. Para provar que está com a razão, a companhia lançou um desafio na China para mostrar que mesmo um aparelho cm processador de um núcleo pode realizar tarefas simples na mesma velocidade que um produto multi core.
Segundo ele o resultado foi que em nenhum momento os smartphones da empresa perderam para os modelos equipados com Android ou iOS. Com isso, a companhia não quer dizer que os produtos com processador multi core são desnecessários, mas que na maior parte do tempo eles não representam um diferencial para o uso no cotidiano do consumidor.
Intel vai lançar tablet StudyBook para o mercado educativo

A Intel vai lançar um tablet, denominado StudyBook, e que se destina ao mercado educativo. Este tablet de 10 polegadas fará uso de dois sistemas operativos assim como de um processador Medfield da empresa, e será lançado em mercados emergentes, incluindo a China e o Brasil, no segundo semestre deste ano. É ainda apontado um preço que deverá rondar os 228 euros.
De acordo com o site Digitimes, as fabricantes Elitegroup Computer Systems e Malata, serão as primeiras empresas a produzir este tablet da Intel. Embora existam poucos detalhes sobre as especificações, o Windows e o Android são os sistemas operativos mais prováveis deste dispositivo dual-OS.
Esta não é a primeira vez que a Intel lança um dispositivo para o mercado educativo, pois já anteriormente tinha lançado o projecto Classmate PC em mercados emergentes.
Jobs realmente odiava o Android, diz biógrafo de Steve Jobs
Autor do livro contradiz o que Larry Page afirmou outrora. Jobs queria de fato destruir o Android.

Na quarta-feira, em entrevista ao Royal Institution, Walter Isaacson, autor da biografia de Steve Jobs, disse que o antigo CEO da Apple realmente odiava o Android porque o sistema copiou literalmente tudo do iPod e dos demais dispositivos da companhia. Segundo a notícia do site CNET, Jobs ficou ainda mais enfurecido quando o Android começou a ultrapassar a Apple.
Isaacson contradiz o que foi dito pelo CEO da Google nesta semana. O biógrafo salienta que Jobs afirmou claramente: "Vou destruir o Android, porque ele é um produto roubado. Desejo criar uma guerra termonuclear contra o sistema".
Na prática, parece que toda a sede de vingança de Jobs vai por água abaixo. Tim Cook, atual CEO da Apple, não quer ver essa guerra acontecer. O chefe da empresa pretende resolver as coisas de maneira pacífica e vê muitas opções para fazer as pazes com a Samsung e outras empresas.

Na quarta-feira, em entrevista ao Royal Institution, Walter Isaacson, autor da biografia de Steve Jobs, disse que o antigo CEO da Apple realmente odiava o Android porque o sistema copiou literalmente tudo do iPod e dos demais dispositivos da companhia. Segundo a notícia do site CNET, Jobs ficou ainda mais enfurecido quando o Android começou a ultrapassar a Apple.
Isaacson contradiz o que foi dito pelo CEO da Google nesta semana. O biógrafo salienta que Jobs afirmou claramente: "Vou destruir o Android, porque ele é um produto roubado. Desejo criar uma guerra termonuclear contra o sistema".
Na prática, parece que toda a sede de vingança de Jobs vai por água abaixo. Tim Cook, atual CEO da Apple, não quer ver essa guerra acontecer. O chefe da empresa pretende resolver as coisas de maneira pacífica e vê muitas opções para fazer as pazes com a Samsung e outras empresas.
domingo, 12 de fevereiro de 2012
Entenda Como Funcionam as Memórias Flash; O Futuro está aqui

Hoje em dia, pendrives, cartões de memória dos mais variados tipos, smartphones, players de mídia, como o famoso iPod, câmeras com armazenamento interno, dentre outros exemplos, são artigos demasiadamente comuns, quase banais para os consumidores. Quebrou, compra outro ali no shopping, rapidinho.
De fato, estes eletrônicos chegaram para ficar e têm o seu lugar ao sol garantido no concorrido mercado da tecnologia. Porém, nenhum deles seria possível sem o advento da memória Flash. Sem essa invenção, desenvolvida nos saudosos anos 80 pela Toshiba, talvez o nicho de portáteis estaria muito atrasado. Não teríamos iPhone, Galaxy Nexus, iPad, Ultrabooks, câmeras digitais, etc. Talvez até tivéssemos, mas seriam muito mais caros e menos eficientes, já que provavelmente ainda usariam memórias DRAM ou SRAM.
Pois bem, hoje pretendemos esclarecer um pouco como funcionam estas memórias que possibilitaram tantos avanços, seus tipos e tecnologias, bem como outras curiosidades. Espero que goste. Vamos lá.
Arquitetura
Embora existam dois tipos de memória Flash, a arquitetura interna delas é bem semelhante. Cada célula de memória segue basicamente o mesmo padrão, com dois transistores que representam o "Control Gate", que é usado para ativar a célula e fazer a leitura dos dados, e o "Floating Gate", que é onde são armazenadas as informações.
O Floating Gate fica exatamente entre duas camadas de óxido de silício, que por sua vez são carregadas negativamente. Isso impede que os elétrons armazenados no Floating Gate "escapem". Por isso que as memórias Flash têm a capacidade de armazenar dados sem a necessidade de alimentação elétrica por vários anos, até mesmo uma década. Veja uma representação de sua estrutura:
Arquitetura de uma célula de memória Flash
Este desing é muito eficaz, pois simplifica muito a construção destas memórias. Visto que não é preciso alimentação elétrica ou mesmo periodicamente ficar dando um refresh nos dados, como nas antigas memórias SRAM e DRAM, é possível fazer grandes quantidades num pequeno espaço, e o principal, sem muitos custos.
Um processo de programação grava os dados no Floating Gate, já que eles não passam de tensões elétricas. Isso acontece quando a corrente elétrica flui do "emissor" para o "coletor" e é aplicada uma tensão maior, de 12 volts, no Control Gate. Esta alta tensão serve para puxar os elétrons que estão fluindo do "emissor" para o "coletor", para o Floating Gate, e uma vez lá, eles estarão presos para sempre, devido às duas camadas de óxido de silício! MUAHAHAHAHA!!! Assim, é só programar a célula e pronto, os dados poderão ser lidos inúmeras vezes por um longo período de tempo. Coisa linda de se ver, você não acha?
Para regravar dados na célula, é preciso primeiro apagar os já existentes. Isso é feito aplicando-se uma corrente elétrica que flui do "emissor" para o Control Gate, essa corrente "limpa" o Floating Gate, eliminando qualquer carga elétrica ali armazenada. Isso faz com que a célula retorne ao seu estado original e então passe pelo mesmo processo explicado no parágrafo acima, de gravação de dados. A regravação só pode ser feita um número finito de vezes, de 10 a 100 mil vezes. Daí aquele mito de que os SSDs têm uma vida útil curta, mas como você viu neste artigo, isso é puro mito, pois você leva muito tempo para alcançar o limite.
Vírus brasileiro faz tática "chupa cabra" de bancos evoluir para máquinas de cartão

Você já deve ter ouvido falar num golpe clássico de caixas eletrônicos, o "chupa cabra": o ladrão substitui o bocal em que você coloca o cartão no banco e ele copia seus dados. Mais tarde, o ladrão coleta tudo e faz a festa. Pois bem, isso é trabalhoso demais. Por que não adaptar um vírus e colocá-lo nas maquininhas de cartão de crédito que todo estabelecimento usa? É isso que um novo e perigoso vírus, criado no Brasil, faz.
A existência vírus foi divulgada pela Kaspersky, e a forma como ele funciona dá medo: apesar de ser uma adaptação do que os "chupa cabras" faziam, ele não requer nenhuma modificação física nas máquinas de pagamento. Segundo o G1:
O software malicioso era instalado no computador, onde a máquina está conectada pela porta USB ou serial. Quando o cartão é lido pela máquina e a senha é digitada, os dados são enviados pelo computador via USB. O vírus captura esses dados e os envia para o criminoso, permitindo que o cartão seja clonado.
Felizmente, o vírus só conseguiu fazer o serviço em máquinas antigas ? apesar de a Kaspersky não especificar quão antigas. Segundo a consultoria de segurança, as versões mais modernas têm sistemas de proteção adicionais. E podemos ficar ainda mais aliviados, já que a Kaspersky diz que as empresas fornecedoras das máquinas antigas já atualizaram os softwares dos equipamentos, o que em tese breca a proliferação da praga. Mas é bom ficar de olho bem aberto: quatro versões distintas da praga foram encontradas e os russos que manjam de segurança dizem que trata-se de um tipo de ataque em "franco crescimento" no mundo. Deixem meu cartão em paz, por favor
sábado, 11 de fevereiro de 2012
Novamente, o recorde mundial de overclocking é batido na Campus Party
O brasileiro Ronaldo Bussali fez história na Campus Party 2012. Pelo quinto ano seguido, o overclocking foi um dos destaques da feira de tecnologia, realizada em São Paulo, e Bussali acabou sendo o grande nome desta área no evento. Demorou, mas após quase duas horas de trabalho duro, ele bateu o recorde atual de overclock do mundo, com uma frequência passando de 16,4000 Hz.

Para quebrar o recorde mundial na categoria single CPU, onde um único processador é forçado a condições extremas, Ronaldo suou. Atual recordista sul-americano, ele bateu os números de todo o planeta em frequência com uma máquina equipada com um processador AMD Phenom 2×4975 no ano passado. Neste ano, o trabalho foi feito com um processador Intel Core i7 3960X "overclockado" a 5600MHz, além de 8GB de memória RAM.
"O overclock é a arte de aumentar a velocidade de um processador para que ele entregue uma performance muito superior a original. Qualquer trabalho ou ação fica mais rápido depois de um overclock" - disse Buassali.
A missão, no entanto, não foi fácil. Bussali teve que se esforçar muito para estabilizar o sistema com duas placas de vídeo ao mesmo tempo e precisou desligar uma delas. O desafio, então, tornou-se fazer o overclock em uma só placa VGA. E deu certo. Ele alcançou o segundo lugar no ranking mundial de overclockers ao rodar o 3D Mark 11 em uma máquina com uma placa de vídeo AMD Radeon HD 7970 "overclockada" a 1635MHz.
Um aumento bastante considerável em relação ao clock padrão de 925MHz , atingindo 14.603 pontos. Segundo ele, este segundo lugar é como se fosse o primeiro, já que o líder do ranking é funcionário da ASUS e trabalha com produtos modificados para conseguir alcançar as suas estatísticas.

Para quebrar o recorde mundial na categoria single CPU, onde um único processador é forçado a condições extremas, Ronaldo suou. Atual recordista sul-americano, ele bateu os números de todo o planeta em frequência com uma máquina equipada com um processador AMD Phenom 2×4975 no ano passado. Neste ano, o trabalho foi feito com um processador Intel Core i7 3960X "overclockado" a 5600MHz, além de 8GB de memória RAM.
"O overclock é a arte de aumentar a velocidade de um processador para que ele entregue uma performance muito superior a original. Qualquer trabalho ou ação fica mais rápido depois de um overclock" - disse Buassali.
A missão, no entanto, não foi fácil. Bussali teve que se esforçar muito para estabilizar o sistema com duas placas de vídeo ao mesmo tempo e precisou desligar uma delas. O desafio, então, tornou-se fazer o overclock em uma só placa VGA. E deu certo. Ele alcançou o segundo lugar no ranking mundial de overclockers ao rodar o 3D Mark 11 em uma máquina com uma placa de vídeo AMD Radeon HD 7970 "overclockada" a 1635MHz.
Um aumento bastante considerável em relação ao clock padrão de 925MHz , atingindo 14.603 pontos. Segundo ele, este segundo lugar é como se fosse o primeiro, já que o líder do ranking é funcionário da ASUS e trabalha com produtos modificados para conseguir alcançar as suas estatísticas.
segunda-feira, 6 de fevereiro de 2012
AMD lançará processador específico para tablets com o Windows 8
O Windows 8 está sendo desenvolvido para funcionar tanto em computadores PC e notebooks quanto em tablets. A AMD está querendo investir na plataforma de tablets e anunciou um processador para concorrer ao Intel nos tablets, e mais especificamente para funcionar com o Windows 8.
Chamado de Hondo, o novo processador foi anunciado em um evento anual da AMD e será uma APU, que é mais ou menos como um híbrido de CPU e GPU, tudo isso no mesmo chip. O AMD Hondo terá baixo consumo de energia, será de 40 nm e já estará disponível neste ano, mais provavelmente no final dele, mesmo não havendo nenhum tablet desenvolvido para o novo sistema operacional ainda? Apesar de que Lisa Su, diretora de produtos globais da AMD, confirmou que o Windows 8 será visto em tablets com processadores AMD já em 2012.

A empresa também anunciou novos chips gráficos que serão compatíveis com o DirectX 11, processadores de baixa voltagem para desktops e prometeu novos processadores de 4 a 16 núcleos para servidores.
Agora é torcer para que esse processador seja bem desenvolvido e não seja o problema que o "poderoso" processador Bulldozer de oito núcleos foi para a empresa. A AMD fechou o ano de 2011 com problemas, chegando até a demitir 10% dos empregados.
Chamado de Hondo, o novo processador foi anunciado em um evento anual da AMD e será uma APU, que é mais ou menos como um híbrido de CPU e GPU, tudo isso no mesmo chip. O AMD Hondo terá baixo consumo de energia, será de 40 nm e já estará disponível neste ano, mais provavelmente no final dele, mesmo não havendo nenhum tablet desenvolvido para o novo sistema operacional ainda? Apesar de que Lisa Su, diretora de produtos globais da AMD, confirmou que o Windows 8 será visto em tablets com processadores AMD já em 2012.

A empresa também anunciou novos chips gráficos que serão compatíveis com o DirectX 11, processadores de baixa voltagem para desktops e prometeu novos processadores de 4 a 16 núcleos para servidores.
Agora é torcer para que esse processador seja bem desenvolvido e não seja o problema que o "poderoso" processador Bulldozer de oito núcleos foi para a empresa. A AMD fechou o ano de 2011 com problemas, chegando até a demitir 10% dos empregados.
terça-feira, 29 de novembro de 2011
Entenda como funciona sua placa de Vídeo
Introdução
As placas de vídeo elas são usadas para gerar imagens que aparecem no seu monitor. Hoje em dia existem vários modelos para várias funcionalidades diferentes.
O que é uma GPU

A GPU (Graphics Processing Unit - Unidade de Processamento Gráfico), que também é chamada de chip gráfico, ela é responsavel por processar as imagens que são exibidas no monitor.
Tratando de GPU's existem uma grande quantidade de modelos disponível no mercado, algumas delas mais potentes, desenvolvidas especialmente para processamento de complexos gráficos 3D (para execução de jogos ou produção de filmes, por exemplo), até as mais simples, fabricadas com foco no mercado de computadores de baixo custo.
Existem muitos fabricantes de GPU's
mas as mais conhecidas são Nvidia, ATI e Intel mas as duas primeiras são as mais sofisticadas.
Mas vocês devem estar pensando, já vi varias marcas de Placas de vídeo como Asus, GigaByte, Zotac, Zogis entre outras, mas essas fabricas são responsáveis em criar as placas e não GPU's elas só vão determinar qual GPU, Memória de vídeo e conector usar.Por outro lado, é importante frisar também que GPUs podem estar embutidas diretamente em placas-mãe de computadores, sendo popularmente chamadas de "placas de vídeo onboard" neste casos.
Características de uma GPU
A GPU surgiu para "aliviar" o processador principal do computador (CPU) da pesada tarefa de gerar imagens. Por isso, é capaz de lidar com um grande volume de cálculos matemáticos e geométricos, condição trivial para o processamento de imagens 3D (utilizadas em jogos, exames médicos computadorizados, entre outros).
Para que as imagens possam ser geradas, a GPU trabalha executando uma sequência de etapas, que envolvem elaboração de elementos geométricos, aplicação de cores, inserção de efeitos e assim por diante. Essa sequência, de maneira bastante resumida, consiste no recebimento pela GPU de um conjunto de vértices (o ponto de encontro de dois lados de um ângulo); no processamento dessas informações para que elas obtenham contexto geométrico; na aplicação de efeitos, cores e afins; e na transformação disso tudo em elementos formados por pixels (um pixel é um ponto que representa a menor parte de uma imagem), processo conhecido com rasterização. O passo seguinte é o envio dessas informações à memória de vídeo (frame buffer) para que então o conteúdo final possa ser exibido na tela.
As GPUs podem contar com vários recursos para a execução dessas etapas, entre eles:
- Pixel Shader: shader é um conjunto de instruções utilizado para o processamento de efeitos de renderização de imagens. Pixel Shader, portanto, é um programa que trabalha com a geração de efeitos com base em pixels. Esse recurso é amplamente utilizado em imagens 3D (de jogos, por exemplo) para gerar efeitos de iluminação, reflexo, sombreamento, etc;
- Vertex Shader: semelhante ao Pixel Shader, só que trabalha com vértices em vez de pixels. Assim sendo, Vertex Shader consiste em um programa que trabalha com estruturas formadas por vértices, lidando, portanto, como figuras geométricas. Esse recurso é utilizado para a modelagem dos objetos a serem exibidos;
- Render Output Unit (ROP): basicamente, manipula os dados armazenados na memória de vídeo para que eles se "transformem" no conjunto de pixels que formará as imagens a serem exibidas na tela. Cabe a essas unidades a aplicação de filtros, efeitos de profundidade, entre outros;
- Texture Mapping Unit (TMU): trata-se de um tipo de componente capaz de rotacionar e redimensionar bitmaps (basicamente, imagens formadas por conjuntos de pixels) para aplicação de uma textura sob uma superfície.
Esses recursos são utilizados pelas GPUs em componentes cujas quantidades variam de modelo para modelo. Você viu acima, por exemplo, que há unidades para Vertex Shaders e unidades para Pixel Shaders. A princípio e dependendo da aplicação, esse esquema se mostra vantajoso. No entanto, pode haver situações onde unidades de um ou outro faltem, gerando um desequilíbrio que prejudica o desempenho. Para lidar com isso, vários chips gráficos mais atuais utilizam stream processors, isto é, unidades que podem assumir tanto a função de vertex Shaders quanto de Pixel Shaders, de acordo com a necessidade da aplicação.
Em geral, é possível saber detalhes que descrevem a utilização desses e de outros recursos na GPU de sua placa de vídeo no manual desta ou no site do fabricante. Também é possível fazer uso de programas que fornecem essas informações, tal como o gratuito GPU-Z, para Windows.
Clock da GPU
O que é isso? Ora, se a GPU é um tipo de processador, então trabalha dentro de uma determinada frequência, isto é, de um clock. De maneira geral, o clock é um sinal de sincronização. Quando os dispositivos do computador recebem o sinal de executar suas atividades, dá-se a esse acontecimento o nome de "pulso de clock". Em cada pulso, os dispositivos executam suas tarefas, param e vão para o próximo ciclo de clock.
A medição do clock é feita em hertz (Hz), a unidade padrão de medidas de frequência, que indica o número de oscilações ou ciclos que ocorre dentro de uma determinada medida de tempo, no caso, segundos. Assim, quando um dispositivo trabalha à 900 Hz, por exemplo, significa que é capaz de lidar com 900 operações de ciclos de clock por segundo. Repare que, para fins práticos, a palavra kilohertz (KHz) é utilizada para indicar 1000 Hz, assim como o termo megahertz (MHz) é usado para indicar 1000 KHz (ou 1 milhão de hertz). De igual forma, gigahertz (GHz) é a denominação usada quando se tem 1000 MHz, e assim por diante. Com isso, se uma GPU tem, por exemplo, uma freqüência de 900 MHz, significa que pode trabalhar com 900 milhões de ciclos por segundo (essa explicação foi tirada deste artigo sobre processadores).
Assim sendo, quanto maior a frequência de uma GPU, melhor é seu o desempenho, pelo menos teoricamente, já que essa questão depende da combinação de uma série de fatores, como quantidade de memória e velocidade do barramento, por exemplo. Isso indica que clock é uma característica importante, todavia, o usuário não precisa se preocupar tanto com ela, mesmo porque, em placas de vídeo mais recentes, determinados componentes podem trabalhar com frequências diferentes da utilizada pela GPU em si, como as unidades responsáveis pelo processamento de shaders, por exemplo.
GDDR - memória de vídeo
Outro item de extrema importância em uma placa de vídeo é a memória. A velocidade e quantidade desta pode influenciar significantemente no desempenho do dispositivo. Esse tipo de componente não difere muito das memórias RAM que são tipicamente utilizadas em PCs, sendo inclusive relativamente comum encontrar placas que utilizam chips de memória de tecnologias DDR, DDR2 e DDR3. No entanto, placas mais avançadas e atuais contam com um tipo de memória específica para aplicações gráficas: memórias GDDR (Graphics Double Data Rate).
As memórias GDDR são semelhantes aos tipos de memória DDR, mas são especificadas de maneira independente. Basicamente, o que muda entre essas tecnologias são características como voltagem e frequência. Até o fechamento deste artigo no InfoWester era possível encontrar cinco tipos de memórias GDDR: GDDR1 (ou apenas GDDR), GDDR2, GDDR3, GDDR4 e GDDR5.
Trabalhando com tensão de 2,5 V e frequência de até 500 MHz, a memória GDDR1 (que é praticamente o padrão DDR) foi até que foi bastante utilizada, mas logo perdeu a preferência para memórias GDDR3 (ao menos nas placas mais avançadas). O tipo GDDR2 teve pouca utilização, sendo empregado quase que exclusivamente nas linhas GeForce FX 5700 Ultra e GeForce FX 5800 da NVIDIA, pois embora trabalhe com frequências de até 500 MHz, sua tensão é de 2,5 V, resultando em um grande problema: calor excessivo.
As memórias GDDR3 surgiram como uma solução para essa questão porque trabalham com tensão de 1,8 V (podendo em alguns casos trabalhar também com 2 V) e aliam isso com maior velocidade, pois trabalham com 4 transferências de dados por ciclo de clock (contra duas dos padrões anteriores). Sua frequência, em geral, é de 900 MHz, mas pode chegar a 1 GHz. Tecnicamente, são semelhantes às memórias DDR2.
Memórias GDDR4, por sua vez, são parecidas com memórias DDR3, lidam com 8 transferências por ciclo de clock e utilizam tensão de apenas 1,5 V. Além disso, empregam tecnologias como DBI (Data Bus Inversion) e Multi-Preamble para diminuir o "delay", isto é, o tempo de espera existente na transmissão de dados. No entanto, sua frequência permanece, em média, na casa dos 500 MHz, devido a sua "suscetibilidade" a problemas de ruído (interferências). Por esse motivo, essa tecnologia de memória GDDR tem aceitação baixa no mercado.
Em relação às memórias GDDR5, esse tipo suporta frequências semelhantes e até ligeiramente maiores que as taxas utilizadas pelo padrão GDDR3, porém trabalha com 8 transferências por ciclo de clock, aumentando significantemente seu desempenho. Além disso, também conta com tecnologias como DBI e Multi-Preamble, sem contar a existência de mecanismos que oferecem melhor proteção contra erros.
As memórias GDDR3 e GDDR5 são as mais utilizadas no mercado, sendo esta última comumente encontrada em placas de vídeo mais avançadas da ATI.
E quanto de memória minha placa de vídeo deve ter? Se você está se fazendo esta pergunta, saiba que, ao contrário do que muita gente pensa, nem sempre mais é melhor. Isso porque determinadas aplicações (jogos, principalmente) podem lidar com até certa quantidade de memória. Após isso, a memória restante não é utilizada.
O ideal é procurar placas que ofereçam recursos compatíveis com as necessidades atuais, inclusive em relação à memória. No momento em que este artigo era escrito, era bastante comum encontrar placas com 512 MB e modelos mais avançados com essa quantidade em 1 GB. De modo geral, quanto mais avançada for a GPU, mais memória deve ser utilizada para não comprometer o desempenho.
Mas note que não é de muita valia ter uma quantidade razoável de memória e, ao mesmo tempo, um barramento de memória baixo. Barramento (bus), neste caso, corresponde às trilhas de comunicação que permitem a transferência de dados entre a memória e a GPU. Quanto maior o barramento, mais dados podem ser transferidos por vez. Placas de baixo custo utilizam barramentos que permitem transferência de, no máximo, 128 bits por vez. No fechamento deste texto, placas mais sofisticadas trabalhavam com pelo menos 256 bits, já sendo possível encontrar modelos "top de linha" com bus de 512 bits.
Em placas-mãe que contam com chip gráfico (onboard), a memória de vídeo é, na verdade, uma parte da memória RAM do computador. Na grande maioria dos casos, o usuário pode escolher a quantidade de memória disponível para esse fim no setup do BIOS. Alguns modelos de placas-mãe também incluem memória de vídeo embutido, mas são menos comum.
Para conseguir disponibilizar placas de vídeo mais baratas, fabricantes também lançaram modelos que, mesmo não sendo integrados à placa-mãe, utilizam memória de vídeo própria e também parte da memória RAM da máquina. Duas tecnologias para isso são a TurboCache, da NVIDIA e HyperMemory, da ATI. Se você se preocupa com o desempenho de seu computador, deve evitar esse tipo de dispositivo.
Finalizando
Com os dados presente nesse post você terá como escolher a sua placa de vídeo.
Se você quer uma placa de vídeo para jogar jogos leves, ver vídeos, coisas casuais que não possa exagerar muito processamento uma placa de baixo custo será mais que suficiente!

Antes de encerrar, uma "curiosidade importante": de certo modo, CPUs e GPUs são dispositivos bastante semelhantes, mas como estes últimos lidam constantemente com imagens em 3D, são mais preparados para lidar com processamento paralelo. Acontece que essa capacidade não é útil só em jogos ou em geração de gráficos 3D. Há uma série de outras aplicações que podem se beneficiar disso.
Arquitetura de uma placa
A indústria criou tecnologias específicas para facilitar o uso das GPUs mais recentes em atividades não relacionadas diretamente ao processamento gráfico. Duas delas são a OpenCL e a CUDA. A primeira é ligada à entidade que mantém o padrão OpenGL. A segunda foi desenvolvida pela NVIDIA para funcionar com seus chips e se destaca por permitir o uso de instruções em linguagem C, embora adaptações também permitam o uso de Java, Python e outras. De acordo com a NVIDIA, a tecnologia tem sido utilizada em pesquisas científicas e ferramentas de análise do mercado financeiro, por exemplo.
As placas de vídeo elas são usadas para gerar imagens que aparecem no seu monitor. Hoje em dia existem vários modelos para várias funcionalidades diferentes.
O que é uma GPU

A GPU (Graphics Processing Unit - Unidade de Processamento Gráfico), que também é chamada de chip gráfico, ela é responsavel por processar as imagens que são exibidas no monitor.
Tratando de GPU's existem uma grande quantidade de modelos disponível no mercado, algumas delas mais potentes, desenvolvidas especialmente para processamento de complexos gráficos 3D (para execução de jogos ou produção de filmes, por exemplo), até as mais simples, fabricadas com foco no mercado de computadores de baixo custo.
Existem muitos fabricantes de GPU's
mas as mais conhecidas são Nvidia, ATI e Intel mas as duas primeiras são as mais sofisticadas.
Mas vocês devem estar pensando, já vi varias marcas de Placas de vídeo como Asus, GigaByte, Zotac, Zogis entre outras, mas essas fabricas são responsáveis em criar as placas e não GPU's elas só vão determinar qual GPU, Memória de vídeo e conector usar.Por outro lado, é importante frisar também que GPUs podem estar embutidas diretamente em placas-mãe de computadores, sendo popularmente chamadas de "placas de vídeo onboard" neste casos.
Características de uma GPU
A GPU surgiu para "aliviar" o processador principal do computador (CPU) da pesada tarefa de gerar imagens. Por isso, é capaz de lidar com um grande volume de cálculos matemáticos e geométricos, condição trivial para o processamento de imagens 3D (utilizadas em jogos, exames médicos computadorizados, entre outros).
Para que as imagens possam ser geradas, a GPU trabalha executando uma sequência de etapas, que envolvem elaboração de elementos geométricos, aplicação de cores, inserção de efeitos e assim por diante. Essa sequência, de maneira bastante resumida, consiste no recebimento pela GPU de um conjunto de vértices (o ponto de encontro de dois lados de um ângulo); no processamento dessas informações para que elas obtenham contexto geométrico; na aplicação de efeitos, cores e afins; e na transformação disso tudo em elementos formados por pixels (um pixel é um ponto que representa a menor parte de uma imagem), processo conhecido com rasterização. O passo seguinte é o envio dessas informações à memória de vídeo (frame buffer) para que então o conteúdo final possa ser exibido na tela.
As GPUs podem contar com vários recursos para a execução dessas etapas, entre eles:
- Pixel Shader: shader é um conjunto de instruções utilizado para o processamento de efeitos de renderização de imagens. Pixel Shader, portanto, é um programa que trabalha com a geração de efeitos com base em pixels. Esse recurso é amplamente utilizado em imagens 3D (de jogos, por exemplo) para gerar efeitos de iluminação, reflexo, sombreamento, etc;
- Vertex Shader: semelhante ao Pixel Shader, só que trabalha com vértices em vez de pixels. Assim sendo, Vertex Shader consiste em um programa que trabalha com estruturas formadas por vértices, lidando, portanto, como figuras geométricas. Esse recurso é utilizado para a modelagem dos objetos a serem exibidos;
- Render Output Unit (ROP): basicamente, manipula os dados armazenados na memória de vídeo para que eles se "transformem" no conjunto de pixels que formará as imagens a serem exibidas na tela. Cabe a essas unidades a aplicação de filtros, efeitos de profundidade, entre outros;
- Texture Mapping Unit (TMU): trata-se de um tipo de componente capaz de rotacionar e redimensionar bitmaps (basicamente, imagens formadas por conjuntos de pixels) para aplicação de uma textura sob uma superfície.
Esses recursos são utilizados pelas GPUs em componentes cujas quantidades variam de modelo para modelo. Você viu acima, por exemplo, que há unidades para Vertex Shaders e unidades para Pixel Shaders. A princípio e dependendo da aplicação, esse esquema se mostra vantajoso. No entanto, pode haver situações onde unidades de um ou outro faltem, gerando um desequilíbrio que prejudica o desempenho. Para lidar com isso, vários chips gráficos mais atuais utilizam stream processors, isto é, unidades que podem assumir tanto a função de vertex Shaders quanto de Pixel Shaders, de acordo com a necessidade da aplicação.
Em geral, é possível saber detalhes que descrevem a utilização desses e de outros recursos na GPU de sua placa de vídeo no manual desta ou no site do fabricante. Também é possível fazer uso de programas que fornecem essas informações, tal como o gratuito GPU-Z, para Windows.
Clock da GPU
O que é isso? Ora, se a GPU é um tipo de processador, então trabalha dentro de uma determinada frequência, isto é, de um clock. De maneira geral, o clock é um sinal de sincronização. Quando os dispositivos do computador recebem o sinal de executar suas atividades, dá-se a esse acontecimento o nome de "pulso de clock". Em cada pulso, os dispositivos executam suas tarefas, param e vão para o próximo ciclo de clock.
A medição do clock é feita em hertz (Hz), a unidade padrão de medidas de frequência, que indica o número de oscilações ou ciclos que ocorre dentro de uma determinada medida de tempo, no caso, segundos. Assim, quando um dispositivo trabalha à 900 Hz, por exemplo, significa que é capaz de lidar com 900 operações de ciclos de clock por segundo. Repare que, para fins práticos, a palavra kilohertz (KHz) é utilizada para indicar 1000 Hz, assim como o termo megahertz (MHz) é usado para indicar 1000 KHz (ou 1 milhão de hertz). De igual forma, gigahertz (GHz) é a denominação usada quando se tem 1000 MHz, e assim por diante. Com isso, se uma GPU tem, por exemplo, uma freqüência de 900 MHz, significa que pode trabalhar com 900 milhões de ciclos por segundo (essa explicação foi tirada deste artigo sobre processadores).
Assim sendo, quanto maior a frequência de uma GPU, melhor é seu o desempenho, pelo menos teoricamente, já que essa questão depende da combinação de uma série de fatores, como quantidade de memória e velocidade do barramento, por exemplo. Isso indica que clock é uma característica importante, todavia, o usuário não precisa se preocupar tanto com ela, mesmo porque, em placas de vídeo mais recentes, determinados componentes podem trabalhar com frequências diferentes da utilizada pela GPU em si, como as unidades responsáveis pelo processamento de shaders, por exemplo.
GDDR - memória de vídeo
Outro item de extrema importância em uma placa de vídeo é a memória. A velocidade e quantidade desta pode influenciar significantemente no desempenho do dispositivo. Esse tipo de componente não difere muito das memórias RAM que são tipicamente utilizadas em PCs, sendo inclusive relativamente comum encontrar placas que utilizam chips de memória de tecnologias DDR, DDR2 e DDR3. No entanto, placas mais avançadas e atuais contam com um tipo de memória específica para aplicações gráficas: memórias GDDR (Graphics Double Data Rate).
As memórias GDDR são semelhantes aos tipos de memória DDR, mas são especificadas de maneira independente. Basicamente, o que muda entre essas tecnologias são características como voltagem e frequência. Até o fechamento deste artigo no InfoWester era possível encontrar cinco tipos de memórias GDDR: GDDR1 (ou apenas GDDR), GDDR2, GDDR3, GDDR4 e GDDR5.
Trabalhando com tensão de 2,5 V e frequência de até 500 MHz, a memória GDDR1 (que é praticamente o padrão DDR) foi até que foi bastante utilizada, mas logo perdeu a preferência para memórias GDDR3 (ao menos nas placas mais avançadas). O tipo GDDR2 teve pouca utilização, sendo empregado quase que exclusivamente nas linhas GeForce FX 5700 Ultra e GeForce FX 5800 da NVIDIA, pois embora trabalhe com frequências de até 500 MHz, sua tensão é de 2,5 V, resultando em um grande problema: calor excessivo.
As memórias GDDR3 surgiram como uma solução para essa questão porque trabalham com tensão de 1,8 V (podendo em alguns casos trabalhar também com 2 V) e aliam isso com maior velocidade, pois trabalham com 4 transferências de dados por ciclo de clock (contra duas dos padrões anteriores). Sua frequência, em geral, é de 900 MHz, mas pode chegar a 1 GHz. Tecnicamente, são semelhantes às memórias DDR2.
Memórias GDDR4, por sua vez, são parecidas com memórias DDR3, lidam com 8 transferências por ciclo de clock e utilizam tensão de apenas 1,5 V. Além disso, empregam tecnologias como DBI (Data Bus Inversion) e Multi-Preamble para diminuir o "delay", isto é, o tempo de espera existente na transmissão de dados. No entanto, sua frequência permanece, em média, na casa dos 500 MHz, devido a sua "suscetibilidade" a problemas de ruído (interferências). Por esse motivo, essa tecnologia de memória GDDR tem aceitação baixa no mercado.
Em relação às memórias GDDR5, esse tipo suporta frequências semelhantes e até ligeiramente maiores que as taxas utilizadas pelo padrão GDDR3, porém trabalha com 8 transferências por ciclo de clock, aumentando significantemente seu desempenho. Além disso, também conta com tecnologias como DBI e Multi-Preamble, sem contar a existência de mecanismos que oferecem melhor proteção contra erros.
As memórias GDDR3 e GDDR5 são as mais utilizadas no mercado, sendo esta última comumente encontrada em placas de vídeo mais avançadas da ATI.
E quanto de memória minha placa de vídeo deve ter? Se você está se fazendo esta pergunta, saiba que, ao contrário do que muita gente pensa, nem sempre mais é melhor. Isso porque determinadas aplicações (jogos, principalmente) podem lidar com até certa quantidade de memória. Após isso, a memória restante não é utilizada.
O ideal é procurar placas que ofereçam recursos compatíveis com as necessidades atuais, inclusive em relação à memória. No momento em que este artigo era escrito, era bastante comum encontrar placas com 512 MB e modelos mais avançados com essa quantidade em 1 GB. De modo geral, quanto mais avançada for a GPU, mais memória deve ser utilizada para não comprometer o desempenho.
Mas note que não é de muita valia ter uma quantidade razoável de memória e, ao mesmo tempo, um barramento de memória baixo. Barramento (bus), neste caso, corresponde às trilhas de comunicação que permitem a transferência de dados entre a memória e a GPU. Quanto maior o barramento, mais dados podem ser transferidos por vez. Placas de baixo custo utilizam barramentos que permitem transferência de, no máximo, 128 bits por vez. No fechamento deste texto, placas mais sofisticadas trabalhavam com pelo menos 256 bits, já sendo possível encontrar modelos "top de linha" com bus de 512 bits.
Em placas-mãe que contam com chip gráfico (onboard), a memória de vídeo é, na verdade, uma parte da memória RAM do computador. Na grande maioria dos casos, o usuário pode escolher a quantidade de memória disponível para esse fim no setup do BIOS. Alguns modelos de placas-mãe também incluem memória de vídeo embutido, mas são menos comum.
Para conseguir disponibilizar placas de vídeo mais baratas, fabricantes também lançaram modelos que, mesmo não sendo integrados à placa-mãe, utilizam memória de vídeo própria e também parte da memória RAM da máquina. Duas tecnologias para isso são a TurboCache, da NVIDIA e HyperMemory, da ATI. Se você se preocupa com o desempenho de seu computador, deve evitar esse tipo de dispositivo.
Finalizando
Com os dados presente nesse post você terá como escolher a sua placa de vídeo.
Se você quer uma placa de vídeo para jogar jogos leves, ver vídeos, coisas casuais que não possa exagerar muito processamento uma placa de baixo custo será mais que suficiente!

Antes de encerrar, uma "curiosidade importante": de certo modo, CPUs e GPUs são dispositivos bastante semelhantes, mas como estes últimos lidam constantemente com imagens em 3D, são mais preparados para lidar com processamento paralelo. Acontece que essa capacidade não é útil só em jogos ou em geração de gráficos 3D. Há uma série de outras aplicações que podem se beneficiar disso.
Arquitetura de uma placa
A indústria criou tecnologias específicas para facilitar o uso das GPUs mais recentes em atividades não relacionadas diretamente ao processamento gráfico. Duas delas são a OpenCL e a CUDA. A primeira é ligada à entidade que mantém o padrão OpenGL. A segunda foi desenvolvida pela NVIDIA para funcionar com seus chips e se destaca por permitir o uso de instruções em linguagem C, embora adaptações também permitam o uso de Java, Python e outras. De acordo com a NVIDIA, a tecnologia tem sido utilizada em pesquisas científicas e ferramentas de análise do mercado financeiro, por exemplo.
Nova tecnologia pode ser capaz de limpar o sangue de substâncias ilícitas
Sistema de limpeza utilizando partículas nano magnéticas pode revolucionar o tratamento de problemas sanguíneos.

Imagem microscópica mostra partícula de carbono utilizada no estudo. (Fonte da imagem: Inge Herrmann)
Pesquisadores em Zurich, na Suíça, estão desenvolvendo nano partículas magnéticas que podem ser capazes de retirar substâncias nocivas do sangue. A tecnologia pode ser um grande avanço no tratamento de pessoas que sofrem com o vício de drogas, infecções no sangue e certos cânceres.
De acordo com um estudo publicado em fevereiro desse ano na revista Nephrology Dialysis and Transplantation, os pesquisadores foram capazes de remover 75% do digoxin, um remédio cardíaco que pode se tornar fatal se tomado em grande dose, em uma única infiltração no sangue. Depois de uma hora e meia de limpeza sanguínea, esse valor subiu para 90%.
O potencial de uso dessa tecnologia suíça é enorme. Um dos pesquisadores inclusive afirma que pode ser possível desenvolver os nanomagnéticos para parearem com células de leucemia e retirá-las do corpo, o que poderia curar uma das piores formas de câncer, o sanguíneo.
Contudo, as reais capacidades da técnica ainda irão demandar mais algum tempo de estudos e testes, principalmente para garantir que não há efeitos colaterais no processo.

Imagem microscópica mostra partícula de carbono utilizada no estudo. (Fonte da imagem: Inge Herrmann)
Pesquisadores em Zurich, na Suíça, estão desenvolvendo nano partículas magnéticas que podem ser capazes de retirar substâncias nocivas do sangue. A tecnologia pode ser um grande avanço no tratamento de pessoas que sofrem com o vício de drogas, infecções no sangue e certos cânceres.
De acordo com um estudo publicado em fevereiro desse ano na revista Nephrology Dialysis and Transplantation, os pesquisadores foram capazes de remover 75% do digoxin, um remédio cardíaco que pode se tornar fatal se tomado em grande dose, em uma única infiltração no sangue. Depois de uma hora e meia de limpeza sanguínea, esse valor subiu para 90%.
O potencial de uso dessa tecnologia suíça é enorme. Um dos pesquisadores inclusive afirma que pode ser possível desenvolver os nanomagnéticos para parearem com células de leucemia e retirá-las do corpo, o que poderia curar uma das piores formas de câncer, o sanguíneo.
Contudo, as reais capacidades da técnica ainda irão demandar mais algum tempo de estudos e testes, principalmente para garantir que não há efeitos colaterais no processo.
Assinar:
Comentários (Atom)














