Lägger till intelligens för att påskynda nätverksprestanda
NyheterOm du lägger till fler och snabbare generella processorer till routrar kan switchar och annan nätverksutrustning förbättra prestandan men lägger till systemkostnader och kraven på strömmen, samtidigt som det inte är lätt att ta upp latens, en viktig orsak till prestandaproblem i nätverk.
Däremot minimerar smart kisel eller eliminerar prestandakoleringspunkter genom att minska latensen för specifika bearbetningsuppgifter.
Under 2013 och senare kommer designingenjörer i allt större utsträckning att distribuera smart kisel för att uppnå fördelarna med sin storleksordning högre prestanda och större effektivitet i kostnad och kraft.
Företagsnätverk
Tidigare var Moores lag tillräcklig för att hålla trit med ökande arbets- och nätverksarbete. Hårdvara och programvara utvecklas i stor utsträckning i lås: När processorns prestanda ökar kan mer sofistikerade funktioner läggas till i programvaran.
Dessa parallella förbättringar gjorde det möjligt att skapa mer abstraherad programvara, vilket möjliggör mycket högre funktionalitet att byggas snabbare och med mindre programmeringsansträngning.
Idag gör dessa abstraktionslager dock det svårt att utföra mer komplexa uppgifter med tillräcklig prestanda.
Allmänna processorer, oavsett kärnantal och klockfrekvens, är för långsamma för funktioner som klassificering, kryptografisk säkerhet och trafikhantering som måste fungera djupt inuti varje paket. Dessutom måste dessa specialfunktioner utföras sekventiellt, vilket begränsar möjligheten att bearbeta dem parallellt i flera kärnor.
Däremot är dessa och andra specialiserade typer av bearbetning perfekta tillämpningar för smart kisel, och det är allt vanligare att flera intelligenta accelerationsmotorer är integrerade med flera kärnor i specialiserade kommunikationsprocessorer System-on-Chip (SoC).
Antalet funktionsspecifika accelerationsmotorer som finns tillgängliga fortsätter att växa, och krympande geometrier gör det nu möjligt att integrera fler motorer på en enda SoC.
Det är även möjligt att integrera en systemleverantörs unika immateriella rättigheter som en anpassad accelerationsmotor inom en SoC. Tillsammans gör dessa framsteg det möjligt att ersätta flera SoCs med en enda SoC för att möjliggöra snabbare, mindre, mer energieffektiva nätverksarkitekturer.
Lagringsnät
Den största flaskhalsen i datacentrar idag orsakas av de fem ordningarna av storleksskillnad i I / O-latens mellan huvudminne i servrar (100 nanosekunder) och traditionella hårddiskar (10 millisekunder).
Uppkoppling till externa lagringsnätverk (SAN) och nätverksbunden lagring (NAS) är ännu högre på grund av de intervenerande nätverks- och prestationsbegränsningarna som uppstår när en enda resursservice flera, samtidiga förfrågningar i följd i djupa köer.
Cachning av innehåll till minne på en server eller i SAN på en Dynamisk RAM-minne (DRAM) är en beprövad teknik för att minska latensen och därigenom förbättra prestandan på applikationsnivå.
Men idag, eftersom mängden minne som är möjligt i en server eller cachemaskin (uppmätt i gigabyte) endast är en liten del av kapaciteten på ens en diskett (uppmätt i terabyte), är prestandaförbättringarna som kan uppnås genom traditionell caching inte tillräckliga för att hantera dataflyggen.
Förskott i NAND-flashminne och flashlagringsprocessorer, kombinerat med mer intelligenta cachningsalgoritmer, bryter igenom den traditionella caching-skalbarbarhetsbarriären för att göra caching ett effektivt, kraftfullt och kostnadseffektivt sätt att påskynda applikationsprestandan framåt.
Solid State-lagring är idealisk för caching eftersom det ger mycket lägre latens än hårddiskar med jämförbar kapacitet. Förutom att leverera högre tillämpningsprestanda möjliggör cachning virtuella servrar att utföra mer arbete, kostnadseffektivt, med samma antal programvarulicenser.
Solid State-lagring ger vanligtvis högsta prestanda när flashcachen placeras direkt i servern på PCIe®-bussen. Intelligent caching-programvara används för att placera heta eller oftast tillgängliga data i lagringsutrymme med låg latens.
De heta data är tillgängliga snabbt och bestämt under alla arbetsbelastningar eftersom det inte finns någon extern anslutning, inget mellanliggande nätverk till en SAN eller NAS och ingen möjlighet till därmed sammanhängande trafikstockningar och förseningar.
Spännande för dem som är ansvariga för att hantera eller analysera massiva datainflöden, stöder vissa flashcache-accelerationskort nu flera terabytes av solid state-lagring, vilket möjliggör lagring av hela databaser eller andra dataset som heta data.
Mobila nätverk
Trafikvolymen i mobilnät fördubblas varje år, främst driven av explosionen av videoprogram. Bandbredden per användare ökar också med en storleksordning från cirka 100 Mb / s i 3G-nät till 1 Gb / s i 4G LTE-avancerade nätverk, vilket i sin tur leder till tillkomsten av ännu mer grafik -intensiva, bandbredd-hungrig applikationer.
Basstationer måste snabbt utvecklas för att hantera stigande nätverksbelastningar. I infrastrukturen används flera radiosändningar nu i molnliknande distribuerade antennsystem och nätverkstopologierna flattar ut.
Operatörerna planerar att leverera avancerad servicekvalitet med platsbaserade tjänster och applikationsmedveten fakturering. Precis som i företaget är det allt mer möjligt att hantera dessa komplexa realtidsuppgifter genom att lägga till accelerationsmotorer inbyggda i smart kisel.
För att leverera högre 4G-datahastigheter till ett växande antal mobila enheter behöver accessnätverk fler och mindre celler och detta driver behovet av utplacering av SOC i basstationer.
Att minska komponentantalet med SoCs har en annan viktig fördel: lägre strömförbrukning. Från kanten till kärnan är strömförbrukningen nu en kritisk faktor i alla nätverksinfrastrukturer.
Företagsnätverk, datacenterlagringsarkitekturer och mobilnätinfrastruktur är mitt i snabb och komplex förändring. Det bästa och möjligen enda sättet att effektivt och kostnadseffektivt ta itu med dessa förändringar och utnyttja möjligheterna till datafelgen är genom att anta smarta kisellösningar som utvecklas i många former för att möta utmaningarna i nästa generations nätverk.
- Greg Huff är Chief Technology Officer vid LSI. I den här egenskapen är han ansvarig för att forma den framtida tillväxtstrategin för LSI-produkter inom lagrings- och nätverksmarknaden