Det finns en bra chans att det kraftfullaste chipet i din dator, i raka beräkningsvillkor, finns på ditt grafikkort. Så, hur blev grafiken så kraftfull, vad är grafikkort bra för just nu och hur på jorden väljer du från det förvirrande utbudet av 3D-chipset som erbjuds?

En liten historia

Ursprunget för dagens 3D-monster kan spåras tillbaka till gamla 2D-kort som är utformade för att förbättra datorns upplösning och färgfidelitet. De allra allra första korten hade specifikationer som verkar omöjligt blygsamma enligt dagens standarder.

De första riktigt moderna grafikbehandlingsenheterna kom fram år 2001. Nvidias GeForce 3 och Radeon 8500 från ATI var världens första GPU för att stödja så kallade programmerbara shaders som utformades för att möjliggöra mer realistisk belysning inom grafiska 3D-simuleringar. Sedan dess har inget annat företag lyckats hålla fast vid de båda varumärkenas obevekliga takt (även om ATI köptes av AMD 2006).

Tidigt programmerbara marker kan vanligtvis applicera sina skuggningseffekter till bara fyra pixlar per driftscykel. Sedan dess har GPU: er blivit allt starkare, programmerbara och mest av allt parallell. AMDs Radeon HD 4800 packar exempelvis en skrämmande 800 shader-enheter (även känd som strömprocessorer i en nod till deras alltmer programmerbara natur).

Nuvarande kort spelar också enorma minnesbuffertar så stora som 1 GB, vilket gör det möjligt för dem att köra extremt högupplösningsdisplayer och säkerhetskopieras av massiv bandbredd tack vare PCI Express-gränssnittet i sitt senaste 2.0-format. Slutligen är den allra senaste utvecklingen inom grafikteknik stöd för flera kort som delar återgivningsbelastningen.

Men dagens GPU packar inte bara smärtsamt kraftfulla 3D-pixelpumpmotorer. De stöder också 2D-videokodningsacceleration för moderna HD-video codecs som H.264 och VC-1, som används på Blu-ray-filmskivor.

Så visade grafikkort där de är idag. Men vad gör det senaste chipset ticka?

3D-rendering

Detta är biggy, 3D-rendering är grafikkortets raison d'etre. Med lanseringen av Windows Vista introducerade Microsoft den 10: e iterationen av DirectX Graphics API. DX10 API är nu väl etablerat och helt kompatibla kort är extremt överkomliga. Det finns ingen anledning att kompromissa med DirectX-support.

Oavsett om det är pixel, vertex och geometri shaders, eller stöd för högkvalitativ anti-aliasing och hög dynamisk intervall belysning, är de närvarande i alla DX10 GPU: er. Vad du behöver oroa dig för är dock att du ger ojämn hästkrafter och nedanför är allt du behöver veta för att döma en chips prestanda.

Pixel genomströmning

I stort sett är det texturen och gör utdataenheter (ROP) som definierar antalet pixlar som ett grafikkort kan spyta ut varje cykel. Och kom ihåg att ett 920 x 1200 pixel galler på en typisk 24-tums bildskärm fungerar över två miljoner pixlar. För smidigt spel behöver du uppdatera det minst 30 gånger i sekundet. Med andra ord, över 60 miljoner pixlar per sekund.

Nvidias bästa chip, £ 300 + GeForce GTX 280 har ett enormt 32-starkt utbud av ROP och inte mindre än 80 texturprovtagning och adressenheter. AMDs bästa, Radeon HD 4800-serien, har 16 ROPs och 40 texturer, fakta återspeglas i prissättning som sparkar upp runt £ 180.

Mellankortskort som Nvidias GeForce 9600-serie och Radeon HD 4600 från AMD, har vanligtvis minskat betydligt ROP- och texturaggregatantal.

Shader behandling

Det här är den verkliga beräkningsgrunden, där de skimrande, glänsande visuella effekterna som dominerar de senaste spelen behandlas. Intressant, AMDs relativt prisvärda Radeon HD 4800 packar 800 shaders till Nvidia GTX 280s 240 enheter.

Dock är inte alla shaders lika och det är värt att notera att Nvidias GPU normalt skryter med mycket högre shader-driftfrekvenser än konkurrerande AMD-chips. Återigen drabbar mellanspetschips typiskt en minskad skuggning i ett försök att minska chipstorlek och kostnad.