Esse artigo teve a grande colaboração de Filipe Braga, mais conhecido como SubZero (Site Adrenaline), que destaca-se pela quantidade de notícias postadas diariamente e pela relevância das mesmas. Esse é o resumo perfeito para Filipe, um cearense extremamente simpático formado em Ciências da Computação e apaixonado por computadores e tecnologia em geral.
Placa de vídeo
Antes de começarmos o VGA Chart com as informações das empresas e das placas, além dos dados técnicos pertinentes ao artigo, vamos a uma breve introdução sobre “placas de vídeo”, a fim de esclarecer para os mais leigos no assunto a sua função.
Como o processador, a placa de vídeo vem se tornando um dos principais componentes de um computador, o que afeta diretamente o preço final, desempenho da máquina e funcionalidades que ela terá.
A placa de vídeo tem como principal função gerenciar o que será, e como será, apresentado na tela do computador, relacionado à parte gráfica mais especificamente. Isso quer dizer que uma placa de vídeo é a principal responsável pela qualidade da imagem e pelo bom desempenho do que for mostrado aos olhos do usuário.
Não são todas as aplicações que necessitam uma placa de vídeo potente, na verdade a maioria delas não exige uma placa diferenciada. Inclusive, a grande maioria dos computadores vendidos hoje em dia possui chip gráfico integrado à placa mãe, que é capaz de executar as principais funções relacionadas a vídeo, como visualização de filmes, rodar alguns jogos mais simples etc.
Já uma placa de vídeo off-board ou add-on (termos utilizados para uma placa de vídeo que se conecta sobre a placa mãe através dos slots PCI-Express ou AGP), possui mais capacidade do que uma integrada à placa mãe. Isso quer dizer que ela conseguirá rodar jogos com qualidade muito superior aos modelos integrados, sendo esse seu principal atrativo. Além disso, atualmente, esse componente vem avançando e assumindo outras funções, como controle de física, gerenciamento de renderizações até então feitas pelo processador, e por aí vai. Com isso, a placa de vídeo se torna tão importante quanto o processador em muitas aplicações, e não mais apenas em jogos como acontecia há pouco tempo atrás.
O mercado de placas de vídeo é dominado por duas empresas, NVIDIA e ATI, essa última, uma divisão da AMD. A seguir, iremos falar um pouco de cada uma dessas empresas.
Nvidia
Fundada em 1993 por Jen-Hsun Huang e Chris Malachowsky, a NVIDIA, sediada em Santa Clara, Califórnia - EUA, é uma das empresas mais respeitadas do ramo de informática, especialmente no ramo que envolve produtos gráficos.
O foco inicial da NVIDIA, que fez todo seu nome e ajudou a erguer seu império, são seus chips gráficos para placas de vídeo. Nos últimos anos, a empresa tem diversificado bastante, principalmente em produtos integradores, como chipsets, e ultimamente, vem mostrando que vai apostar alto em produtos para a telefonia móvel (se é que podemos chamar esse ramo de telefonia, afinal ele vai muito além disso). Também tem mostrado produtos mais compactos que envolvem multimídia, além de chipsets para placas mãe, mercado que ela tem uma boa experiência e ótima aceitação.
Em 2000, quando comprou a 3DFx, sua principal concorrente na época, e que poucos anos antes era tida como a grande empresa do ramo de placas de vídeo, ninguém imaginava que a NVIDIA viria a se tornar uma das maiores empresas do mundo e que ditaria muitas das "regras" desse mercado. Entre suas outras grandes aquisições estão a ULI Electronics em 2005, empresa especializada no desenvolvimento de chipsets para mainboards, e mais recentemente, em fevereiro de 2008, a AGEIA Technologies, pioneira no desenvolvimento de hardware para controle físico, que hoje está integrado às placas da linha GeForce.
Quando a AMD comprou a ATI em dezembro de 2006, muito foi questionado do poder de fogo da NVIDIA para brigar de igual para igual com essa gigante que agora detinha alguns dos principais produtos do ramo da informática. Porém, a nomeação de Jen-Hsun Huang como "homem do ano de 2007" pela revista Forbes, possivelmente a “revista” mais respeitada do gênero, mostrou que a NVIDIA não é uma empresa qualquer, mas "administrada" por gente do mais alto gabarito, que dá a ela uma expectativa de vidda longa, não apenas fazendo número no mercado, mas o conquistando e ajudando a evoluir como um todo.
Seu primeiro chip gráfico, o NV1, lançado em 1995, ajudou muito no avanço da empresa, que, dois anos depois, trouxe o RIVA 128 e, em seguida, o RIVA TNT. Isso colocou a empresa em pé de igualdade com a 3DFx, que, na época, se destacava com a série Voodoo. O grande trunfo da NVIDIA e que vem se destacando até hoje como líder em vendas é a série GeForce, lançada em 1999 através do modelo GeForce 256 (NV10). Atualmente, a série GeForce está em sua décima geração e ganhará, no início de 2010, mais uma, baseada na arquitetura Fermi, com promessa de ser um produto revolucionário.
Tecnologias por trás das GeForces
CUDA
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).
Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.
Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.
De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de “cores”/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Desta forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.
No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)
Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis
.
PhysX
Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física é uma tecnologia que já vem de alguns anos.
Lançado inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU(Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.
Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.
Muito bem, mas o que vem a ser exatamente tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.
A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.
Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.
É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.
O PhysX é responsável, dentre outras funções, por processar as seguintes tarefas em um game:
• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.
Ironias a parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsável para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.
Na teoria, uma placa da ATI até pode realizar os cálculos da parte física sem possuir o PhysX, mas, na prática, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prática do jogo.
3D Vision (óculos 3D)
Lançado no início do ano durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.
Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).
Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).
Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.
Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.
Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.
Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:
• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.
• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.
• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.
• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.
• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.
SLI
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving)!, que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.
Sendo assim, a tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é a mesma: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.
Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.
Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:
• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada, a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Este é o modo padrão usado pela configuração SLI usando duas placas de vídeo.
• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em seqüência - uma trabalhando com os frames ímpares e outra ficando responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.
• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.
• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.
Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.
Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso de VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.
PureVideo
Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Desta forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.
O PureVideo possui os seguintes recursos:
• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;
• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;
• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;
Badaboom
Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rápida e eficiente.
Outro benefício é que ao deixar a CPU livre, o usuário poderá realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a máquina fica praticamente inoperante para outras tarefas.
Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuário necessitará apenas escolher a origem, ajustar as configurações e definir o destino.
Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuário poderá definir ainda uma série de opções de saídas, como Xbox 360, PS3, PSP e HTPCs.
ATI
A ATI Technologies, fundada em 1985 por Lee Ka Lau, Benny Lau e Kwok Yuen Ho, tem sua sede em Markham, Ontário – Canadá. Está entre as pioneiras quando o assunto é hardware gráfico para computadores, sendo que, inicialmente, começou a comercializar seus produtos de forma OEM, especialmente para IBM e Commodore. Em 1987, a empresa lançou sua primeira linha independente, precisamente os modelos EGA Wonder e VGA Wonder.
Por ser mais “velha” que sua principal concorrente, o número de produtos pouco conhecidos pela maioria dos atuais consumidores é grande, dentre eles o chip March8, lançado em 1991 - primeiro da empresa capaz de processar gráficos sem a ajuda do CPU. Em 1992, lançou o March32, com maior banda de memória e aceleração gráfica. Em 1994, ainda colocou no mercado o March64, chip que seria utilizado no Rage3D, um dos grandes sucessos da empresa.
Em 1996, aconteceu um dos lançamentos que marcaram a ATI: a série All-in-Wonder, primeiro produto do mercado a combinar um chip de aceleração gráfica e um sintonizador de TV. Ele possibilitava ver TV na tela do computador, recurso hoje bem mais simples, mas não comum em um mesmo produto.
Em 2000, empresa lançou um dos seus principais produtos, que tem sua continuidade até os dias de hoje. Estamos falando da linha RADEON, uma das maiores marcas do mundo no meio do mercado de informática, atualmente em sua nona geração com a série Radeon 5000, recém lançada.
Outro ponto que marcou a história da empresa aconteceu em dezembro de 2006, quando a AMD - uma das maiores fabricantes de processadores do mundo - adquiriu a ATI Technologies, tornando-se uma das principais forças do mercado, única a desenvolver processador e chips para placas de vídeo de alto desempenho para computador.
Tecnologias por trás das Radeons
Stream Technology
Se a NVIDIA tem o CUDA, a ATI tem o Stream Technology, sua solução focada no conceito de GPGPU, que “transforma” o chip 3D em uma espécie de processador, ou, pelo menos, utiliza a GPU para executar tarefas de uso geral, sem ficar apenas restrita ao mundo dos jogos 3D.
Talvez alguém pergunte: Por que a tecnologia GPGPU é importante? É muito simples: ela aumenta a velocidade de muitos tipos de tarefas realizadas no dia a dia das pessoas, ao utilizar em conjunto a GPU e a CPU (em alguns casos dispensando o próprio processador) para uso geral de diversos tipos de cálculos complexos.
Tanto o ATI Stream quanto o CUDA concentram-se na utilização de centenas/milhares de “mini processadores” (ou stream/shaders processors) presentes na GPU de forma paralela para permitir que todo o sistema lide com aplicações de computação intensiva.
A tecnologia foi oficialmente disponibilizada em dezembro de 2008, com a chegada do driver de vídeo Catalyst 8.12, que “destravou” a capacidade do processamento ATI Stream em milhões de Radeons existentes no mercado.
Abaixo há algumas características da função GPGPU:
• Permitir novas aplicações em novas arquiteturas;
• Usufruir da arquitetura multicore das GPUs para o paralelismo dos processos;
• Transição de função fixa para pipelines programáveis.
Eyefinity
Apresentado no dia 10 de setembro no porta aviões (e museu) USS Hornet, a tecnologia abriu um leque de possibilidades para os desenvolvedores e jogadores, ao permitir o uso simultâneo de até seis monitores por VGA da geração Evergreen, gerando uma imensa tela de 8192x8192 pixels. Vale ressaltar que, de modo geral, as novas Radeons estarão “limitadas” a 3 LCDs. A exceção fica, é claro, para os modelos especiais capazes de se conectar a seis monitores.
Conforme pode ser visto abaixo, as possibilidades para a tecnologia são inúmeras, permitindo o uso de imagens independentes, simultâneas ou um misto das duas. É possível, por exemplo, o uso de três monitores para formar uma única imagem panorâmica, com o quarto independente; quatro telas simultâneas formando um grande painel e mais duas independes da primeira e entre si; e por aí vai.
Para tanto, faz-se necessário o uso de até duas saídas DVI, HDMI ou VGA combinadas com saídas DisplayPort, para se conseguir compartilhar os seis monitores.
Para quem não se convenceu do poder do Eyefinity, a ATI demonstrou, durante o lançamento da tecnologia no mês passado, uma configuração composta por quatro placas Radeons de nova geração, em que estavam conectados 24 monitores de LCD!
Os benefícios não serão apenas no campo dos jogos. Profissionais de artes gráficas, designers, arquitetos, analistas financeiros, dentre uma imensa gama de áreas poderão tirar proveito do Eyefinity como forma de aumentar a sua produtividade no trabalho.
Crossfire
O CrossFire (também chamado de CrossFireX) está para a ATI assim como o SLI está para NVIDIA, ou seja, trata-se da tecnologia que permite um maior poder de processamento computacional (seja ele gráfico ou não), através o uso simultâneo de mais de uma VGA.
Se a NVIDIA foi buscar “inspiração” no passado para desenvolver o atual Scalable Link Interface, com a ATI não foi diferente. A companhia fez seu primeiro “ensaio” de uso compartilhado de GPUs em 1999, quando apresentou ao mundo a Rage Fury MAXX, VGA que possuía dois chips Rage 128 no mesmo PCB. Nascia ali o “pai” das atuais Radeons X2. Na época, a placa utilizou a técnica AFR (já descrita no tópico do SLI) para equilibrar a carga do sistema. Apesar do feito, a Rage Fury MAXX não foi capaz de superar a GeForce 256.
A placa dual GPU da ATI não durou muito tempo no mercado. Parte do fracasso deu-se pela ausência de bons drivers para a época (que ficaram restritos apenas ao Windows 98), bem como da limitação da interface AGP, que limitava o “poder de fogo” da placa.
O CrossFire utiliza algumas técnicas para a renderização das imagens, conforme pode ser visto abaixo:
• Scissor: Similar ao modo SFR (Split Frame Rendering) presente no SLI, com o diferencial de possuir um modo de balanceamento de carga dinâmica de renderização. Isso é importante principalmente para o uso de placas com diferentes tipos de chips, pois impede que a placa mais rápida fique esperando pela finalização do processamento da GPU mais lenta, livrando-a do gargalo. Desta forma, a VGA mais poderosa ficará com uma carga de trabalho maior do que a placa com menor “poder de fogo”.
• SuperTile: Neste método, a tela é dividida em vários quadrados pequenos, cada um medindo 32x32 pixels, e as VGAs ficam responsáveis pela renderização de parte dos quadrados disponíveis. O balanceamento de carga dinâmica está também disponível, novamente para eliminar eventuais gargalos. Assim, a GPU mais poderosa receberá uma maior quantidade dos “quadrados” em relação à mais “fraca”.
• AFR: Este modo é idêntico ao utilizado no SLI, ou seja, enquanto uma VGA está renderizando o frame atual, outra está processando o frame seguinte.
• Super AA: Assim como ocorre com as GeForces, nas Radeons o modo Super AA serve para aumentar a qualidade das imagens, reduzindo o chamado “efeito serrilhado”. Isso é possível graças à utilização de um maior patamar do filtro antialiasing.
Atualmente, a tecnologia encontra-se na sua terceira geração. A primeira, chamada apenas de CrossFire, tinha uma séria limitação que impediu a sua massificação: a necessidade de se adquirir uma placa especial, chamada CrossFire Edition. Esta funcionava como placa “mestre”, normalmente mais cara que o modelo convencional, principalmente por apresentar um chip extra (compositing engine), que servia para unir as imagens renderizadas pela placa “escrava” com as imagens processadas pela “mestre”, jogando o resultado para a tela.
Com a chegada da segunda geração, a CrossFire Native, a figura da placa “pai” deixou de existir, uma vez que toda Radeon vinha de “fábrica” equipada com o tal chip “compositing engine” embutido no die da GPU. Outra novidade presente na nova geração foi a troca do uso dos cabos especiais de ligação entre as duas VGA pelas pontes de comunicação aos moldes do SLI.
Por fim, a terceira e atual geração. Chamada CrossFireX, a tecnologia basicamente é a mesma da passada, com a possibilidade de se conectar mais de duas VGAs (na verdade até quatro) e uma pequena alteração no modo como as pontes de comunicação são conectadas.
Assim como ocorre com o SLI, é necessário o uso de uma placa mãe especialmente desenhada para o CrossFireX com pelo menos dois conectores PCI Express X16.
Avivo
Similar ao PureVideo da NVIDIA, o Avivo é o recurso que otimiza a qualidade das imagens e acelera a decodificação e transcodificação de vídeos, ao substituir o processador pelo chip gráfico. Com a CPU “livre”, o usuário pode utilizar o computador para exercer outras atividades.
Durante o processo, o Avivo amplifica o sinal da fonte, ajustando automaticamente o brilho e o contraste. Além disso, implementa um poderoso transformador de 12 bits que reduz a perda de dados durante a conversão. Utiliza ainda os recursos de filtro de movimento adaptativo 3D, controle automático de cor, controle automático de ganho, redução de ruído via hardware e tecnologias de ponta de realce, para uma melhor qualidade na reprodução de vídeos.
Na decodificação, a GPU suporta decodificação via hardware de vídeos H.264, VC-1, WMV9 e MPEG-2 para reduzir a utilização da CPU. O Avivo suporta vetor adaptativo de entrelaçamento e escalonamento de vídeo, para reduzir o serrilhado, e pontilhamento espacial / temporal, permitindo uma qualidade de cor de 10 bits em mostras de 8 bits e 6 bits durante a primeira fase do processo.
A tecnologia ganhou uma versão mais moderna, chamada ATI Avivo HD, que disponibiliza um padrão superior na qualidade das imagens (em alta definição) e traz várias melhorias, como é o caso do controlador de áudio integrado HDMI de 5.1 canais surround, criptografia de chave dupla HDCP integrada para cada porta DVI, chip Xilleon overscan para TV e Avivo Video Converter.
No entanto, a maior parte do hardware de decodificação é fornecido pelo Unified Video Decoder (UVD) e pelo Advanced Video Processor (AVP), que suportam descodificação de hardware H.264/AVC e VC-1.
O AVP recupera o vídeo da memória; alça o escalonamento, desentrelaça e corrige a cor, para depois gravá-lo de volta à memória. O Advanced Video Processor usa também transformação de 12 bits para reduzir a perda de dados durante a conversão.
Tecnologias padrões do mercado
DirectX 10/10.1
Apesar da grande vedete do mercado seja o DirectX 11, a grande maioria das placas modernas (e jogos) atuais estão limitadas ao DirectX 10 e sua atualização 10.1, como é o caso, respectivamente, das GeForces série 200, 9000 e 8000 e das Radeons da série 4000.
Como o futuro (ou se preferirem, já o presente) pertence ao DirectX 11, não iremos abordar aqui com tanta ênfase e detalhes sobre esta geração da API gráfica da Microsoft.
Mas afinal, o que é o "famoso" DirectX ?! Trata-se de uma API multimídia (Application Programming Interface ou Interface de Programação de Aplicativos - conjunto de rotinas e padrões estabelecidos por um software para a utilização das suas funcionalidades) que oferece uma interface padrão para interagir com elementos gráficos, placas de som e dispositivos de entrada, entre outros. Sem este conjunto padrão de APIs, o programador precisaria escrever um código diferente para cada combinação de elementos gráficos e placas de som, e para cada tipo de teclado, mouse e joystick. A primeira versão do DirectX, chamado na época de "GameSDK", foi lançada pela Microsoft em 1995.
O DirectX 10.1 manteve, de forma geral, a mesma estrutura base e o modo de programação da versão 10, muito embora tenha introduzido várias melhorias. É o caso das instruções dos shaders para vértices, geometria e pixels (vertex, geometry e pixel shaders), graças à atualização para o Shader Model 4.1, bem como o uso de operações com pontos flutuantes de 32 bits (ao invés de 16 bits) e a obrigatoriedade ao filtro de antialiasing FSAA em 4x.
De um modo geral, as novidades advindas com o DirectX 10.1 podem ser divididas em quatro categorias:
• novas capacidades para sombreamento e texturização dos gráficos;
• aprimoramento do filtro anti-aliasing;
• acesso aos dados de forma mais flexível;
• rigor no cumprimento das especificações para uma melhor compatibilidade nas aplicações.
Esses quatro pontos possibilitaram a criação de novas técnicas para o aprimoramento da qualidade das imagens, como a Iluminação Global em Tempo Real (real-time global illumination), por exemplo, que definiu a direção futura da interatividade dos gráficos 3D.
De forma simples, a Iluminação Global é a técnica de renderização que combina os benefícios do mapeamento de luz / sombra com iluminação indireta, com suporte praticamente a ilimitadas fontes de luzes dinâmicas, reflexões realistas e sombras suaves. Com o DirectX 10.1, os desenvolvedores podem usar matrizes de mapas de cubos indexados e shaders de geometria para aplicar a iluminação global eficientemente em tempo real, mesmo com milhares de objetos fisicamente modelados em um cenário complexo e interativo.
Confiram, abaixo, as diferenças das imagens com e sem a técnica:
Renderização sem Iluminação Global
As áreas que estão fora da área da lâmpada do teto sofrem de falta direta de luz, havendo uma “penumbra” uniforme, mesmo em objetos semi-transparentes.
Renderização com Iluminação Global
A luz é refletida pelas superfícies, onde as luzes coloridas são transferidas de uma superfície para outra. Observe como a cor da parede vermelha e verde (não visível) reflete sobre outras áreas na cena. Outro ponto interessante é a cáustica projetada na parede vermelha da luz que atravessa a esfera de vidro.
DirectX 11
Embora atualmente apenas as novas Radeons da geração Evergreen (séries 5900, 5800 e 5700) tragam compatibilidade para a nova versão da API gráfica da Microsoft, o ano de 2010 promete ser bastante agitado no mundo dos games. Com o advento da geração Fermi (GT300) da NVIDIA, a qual trará suporte ao DirectX 11, mais estúdios se sentirão confiantes em adotar o novo padrão, passando assim a disponibilizar títulos compatíveis com a nova API.
O DirectX 11 promete facilitar e agilizar o processo de desenvolvimento dos jogos, além de trazer novas tecnologias ou mesmo melhorias nas atuais, aprimorando assim ainda mais a qualidade nos gráficos.
As novidades presentes no DX11 são:
• DirectCompute 11
• Hardware Tessellation
• High Definition Ambient Occlusion
• Shader Model 5.0
• Depth of Field
• Renderização Multi-threaded (Multi-threading)
DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trás do termo GPGPU (que transforma a placa de vídeo em um processador).
Order Independent Transparency - OIT
Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing); Order Independent Transparency - OIT (técnica de sobreposição de objetos, aperfeiçoando o efeito de semitransparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro); renderização de sombras, da física e da inteligência artificial.
Abaixo há uma imagem na qual é possível comprovar a eficiência da técnica OIT. À esquerda está a foto com a técnica, em contraste com a direita, que mostra o processo Simple Alpha Blending (SAB) presente no DX10. Além da diferença de qualidade, há ganho de performance com o uso do DirectCompute 11. Enquanto o SAB necessita de 64 passagens para a renderização, com o OIT, é preciso uma única leitura.
Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.
Embora a ATI tenha implementado a tecnologia Tessellation já nas Radeons HD série 2000, somente agora tal funcionalidade será utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.
De forma simplista, trata-se da tecnologia que adiciona em tempo real mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/supefície em pedaços menores, acrescentando polígonos mais simples (de fácil execução).
Em outras palavras, ao invés da GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation “quebra” o mesmo em partes menores de forma a tornar a tarefa mais simples e rápida.
Assim, os desenvolvedores estão “impedidos” de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos, será muito mais simples e rápido, sem contar que permitirá que os programadores criem texturas e maiores detalhes aos mesmos (como a deformação dinâmica), resultando em um maior realismo ao jogo.
Nas fotos abaixo é possível perceber com nitidez a diferença na qualidade da imagem quando é utilizada a tecnologia.
High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).
Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, sendo uma texturização eficiente e de alta qualidade para a iluminação HDR. Já a BC7 oferece compressões de 3:1 com o padrão de cores RGB ou ou 4:1 para Alpha.
Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.
Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.
Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo para dar um aspecto cinemático às imagens.
O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.
Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, está na eficiência no processamento, resultando em uma melhor performance.
Embora existam pouquíssimos jogos desenvolvidos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção está sendo feita de forma mais acelerada em relação à versão 10. Por enquanto, eis a lista de games que apresentam compatibilidade com a nova API gráfica da Microsoft:
• BattleForge (lançado)
• S.T.A.L.K.E.R. Call of Pripyat (lançado)
• DiRT 2 (1º de dezembro 2009)
• Battlefield: Bad Company 2 (Primeiro trimestre de 2010)
• Aliens vs. Predator (Primeiro trimestre de 2010)
• The Lord of the Rings Online: Siege of Mirkwood (Primeiro trimestre de 2010)
• Dungeons and Dragons Online: Eberron Unlimited (2010)
• Genghis Khan MMO (2010)
• Além das engines gráficas Frostbite 2 e Unigine e Vision Engine
Confiram abaixo o vídeo Unigine "Heaven" DX11 benchmark em uma Radeon HD 5870.
OpenCL
O OpenCL (Open Computing Language ou Linguagem de Computação Aberta) é a primeira linguagem de programação multiplataforma livre do mercado.
Voltada para a programação paralela de sistemas heterogêneos, o OpenCL pode ser utilizado em uma ampla gama de dispositivos, tais como em computadores pessoais, servidores, consoles, dispositivos portáteis, dentre outros, sejam em CPUs ou GPUs. Uma de seus grandes trunfos está na otimização na velocidade e capacidade de resposta para um amplo espectro de aplicações em diversas categorias do mercado, como em jogos e entretenimento, softwares científicos e médicos.
A linguagem foi inicialmente desenvolvida pela Apple, que detém os direitos sobre a marca e que produziu uma proposta inicial em colaboração com a AMD/ATi, Intel e NVIDIA. Quem regula o padrão OpenCL é o Khronos Compute Working Group, formado pelas fabricantes de CPU, GPU, processadores incorporados e software houses, como é o caso de empresas como 3DLABS, Activision Blizzard, AMD, Apple, ARM, Broadcom, Electronic Arts, Ericsson, Freescale, Fujitsu, GE, IBM, Intel, Imagination Technologies, Motorola, Nokia, NVIDIA, Qualcomm, Samsung, S3, ST Microelectronics, Texas Instruments e Toshiba, só para citar algumas.
No caso específico das placas de vídeo, o OpenCL trouxe um grande avanço para o segmento, uma vez que conseguiu tirar proveito do alto poder da computação paralela presente nas centenas/milhares unidades de processamento de uma GPU. Outra vantagem é que não se faz mais necessário que os programadores dominem linguagens de programação específicas para cada tipo de plataforma e/ou hardware, uma vez que a linguagem tornou-se padrão no meio.
Também chamado de linguagem GPGPU, o OpenCL é a alma por trás das tecnologias CUDA da NVIDIA e Stream da ATi.
OpenGL
O OpenGL é a API gráfica mais amplamente adotada para a geração de gráficos 2D e 3D da indústria, trazendo milhares de aplicativos para uma ampla variedade de plataformas de computador. Assim, permite que os desenvolvedores de software para PC, estação de trabalho e hardware criem aplicações gráficas atraentes com alto desempenho em mercados como o CAD, criação de conteúdo, energia, entretenimento, desenvolvimento de jogos, produção, assistência médica e realidade virtual.
Atualmente administrada pela Khronos Compute Working Group, o OGL foi desenvolvido inicialmente pela Silicon Graphics Inc. e possui 250 comandos e funções, que fornecem acesso a praticamente todos os recursos do hardware de vídeo. A API dá suporte a iluminação, colorização, mapeamento de textura, transparência, animação, entre muitos outros efeitos especiais.
Apesar de todos os recursos, a cada nova geração (atualmente na versão 3.2), o OpenGL (também conhecido como OGL) vem sendo menos utilizado na indústria dos jogos eletrônicos. Sem querer entrar nos méritos (que daria uma tese de Doutorado), o fato é que grande parte do declínio no uso da API em games esteja relacionada ao avanço de sua maior rival: o Direct3D da Microsoft, presente no DirectX e amplamente usado atualmente nos jogos.
Para ver o final dessa matéria, acesse o site
Adrenaline.