Gafflar precis för en ny rigg med en snabb processor ombord? Då har Nvidia några mycket dåliga nyheter för dig. Din dator är obscenely obalanserad tack vare en överprissatt, underpresterande CPU - förmodligen med Intel.

Det är bara den senaste salvoen i det växande ordkriget mellan Nvidia och Intel i år. Men vad kommer Nvidia till? Tala med TechRadar tidigare i veckan, skisserade Nvidias VP för Content Relations Roy Taylor en utvecklingsstrategi för att utnyttja Nvidia grafikknologi för att accelerera ett brett spektrum av PC-applikationer. Mycket snart kommer världen att upptäcka hur patetiska konventionella processorer verkligen är.

Om Taylor är korrekt kommer initiativet att leverera en enorm, aldrig tidigare skådad ökning i PC-prestanda. Vi pratar inte de 2x eller 3x-förstärkningar som prestanda som PC-industrin levererar regelbundet. Det kan lova så mycket som 20x eller till och med 100x prestanda för dagens flerkärniga processorer. Yikes.

CUDA kommer

Den grundläggande förutsättningen är användningen av Nvidias CUDA-programmeringsplattform (självt relaterad till C-programmeringsspråket) för att låsa upp den alltmer programmerbara arkitekturen i de senaste grafikkortet.

På papper är det extremt trovärdigt. När det gäller rå parallell beräkningseffekt sätter 3D-chips CPU: er i skam. Ett bra nyligen exempel är det nya rumstorta, högdensitets-datorkluster som installerats av Reading University.

Konstruerad för att hantera den omöjligt komplexa uppgiften med klimatmodellering, väger den i minst 20 TeraFlops. Det låter imponerande tills du inser att bara ett enda exempel på Nvidias nästa stora GPU, som beror på sommaren, kunde leverera så mycket 1TFlop. Så, några fyravägs Nvidia GPU-noder kommer snart att erbjuda samma raka beräkningskraft som en superdator som byggts med hjälp av många CPU-baserade rack.

GPU för allmän användning

En liten bit närmare hemmet, en av de tidiga applikationerna Nvidia främjar som en demonstration av den allmänna användningen av GPU: erna är ett videokodningssystem som kallas Elemental HD.

Nedmontering av en vanlig HD-film för en iPod med en vanlig PC-processor kan ta upp till åtta timmar eller mer, även med en anständig dual-core Intel-chip. Nvidia säger att samma jobb kan göras på drygt 20 minuter på en 8800-serien Nvidia grafikkort.

"När du tittar på frågan huruvida du ska omvandla video på en GPU eller CPU, när du överväger det i prestanda per prenumeration, är det för närvarande obskenligt fel fel", säger Taylor..

Och lösningen är enkel nog. Spendera inte mer pengar totalt sett. Bara spendera lite mindre pengar på din Intel-CPU och lite mer på din Nvidia GPU.

Hårdvara PhysX

Dessutom säger Taylor att planer för att stödja den nyligen förvärvade PhysX-fysik-simuleringsmotorn på Nvidias GPU: er kommer snart att lanseras. Före slutet av maj beräknas totalt åtta spel med GPU-baserad PhysX meddelas. 30 till 40 sådana titlar kommer att finnas tillgängliga denna gång nästa år.

Så det är det då. Spelet är för CPU och Intel lika? Inte så snabbt. Till att börja med finns det en bra anledning till att CPU: er inte levererar den raka beräknade kraften hos moderna GPU: er.

CPU-kärnor är stora, komplexa djur, utformade för att vända sina händer till nästan vilken uppgift som helst och göra en anständig knytnäve av det samtidigt som de inte utmärker sig i något område. GPU: er, även de senaste och programmerbara exemplen, är fortfarande mycket mindre flexibla. När de är bra är de bra. När de inte är det, kommer de helt enkelt inte att göra jobbet alls.

"För närvarande är generella GPU-applikationer visserligen mycket höga. Men allt fler frågar varför är vetenskapliga forskningsindustrier, inklusive medicin och klimatmodellering, använder GPU: er, säger Taylor..

Svaret är det oslagbara prestanda för bang-for-buck som GPU levererar. Taylor räknar med att Nvidia har ett stort antal partners med konsumentnivåansökningar som är viktiga för sin GPU-teknik. Flera beror på att bli avslöjade senare i sommar.

Väntar spel

Fram till dess är det emellertid omöjligt att säga om fördelarna kommer att bli lika spektakulära som Nvidia påstår. På samma sätt måste vi vänta och se hur smidigt allt fungerar. Den enda icke-3D-konsumentansökan för GPUer som hittills har testats på marknaden hittills är videoavkodningsassistans. Och det har varit en tydlig hit och miss affär.

Men även om Nvidia kan leverera tillförlitlig, transparent hårdvaruacceleration för ett brett utbud av applikationer med sina GPU-enheter, kommer det fortfarande att ha en enorm kamp på händerna från Intel.

Intels spännande nya GPU, som kallas Larrabee, beror i slutet av 2009 eller början av 2010. Bortsett från det faktum att det kommer att baseras på en rad nedgraderade X86-processorkärnor, är lite känt om dess detaljerade arkitektur. Men som Intels första seriösa försök att konkurrera på GPU-marknaden är det en spelbyteprodukt.

För Taylor, förstås, Larrabee-projektet bara bekräftar att GPU är där åtgärden är. “Varför finns Larrabee? Varför kommer Intel för oss? De kommer för oss eftersom de kan se prestandafördelen hos våra GPU: er,” Taylor säger.

Han har nog rätt. Det blir en fascinerande tävling.