Eftersom företag ser ut att öka prestanda och flexibilitet i sina centrala IT- och data tillgångar och effektivisera utgifterna i en OPEX-modell, hur utvecklas de från fysiska till hybrid och virtuella datacenter miljöer och omfamna molnorienterade arkitekturer som gradvis är mer webbskaliga och mjukvarudefinierad?

Legacy IT-arkitektur följer vanligen en aggregeringsmodell. Lager av infrastruktur konsoliderar trafik från kanten av nätverket till ett kärndatacenter som är värd för bearbetningen och skickar sedan resultaten tillbaka ner i kedjan till serviceanvändaren. Trafiken är väldigt "nord-syd" orienterad.

Den massiva infrastrukturen hos molntjänstleverantörer som AWS, Microsoft Azure, Google och Facebook följer vanligtvis en mycket smalare topologi som är mycket mer skalbar och hanterbar. Programmen är spridda över kluster av servrar som huvudsakligen är i ett enda lager och därmed är trafiken långt mer "East-West" orienterad.

Dessa molnbaserade datacenterarkitekturer är mycket elastiska och skalbara, vilket enkelt möjliggör att mer beräkning och lagringsresurser läggs till eller tas bort från en arbetsbelastning utan betydande nätverksändringar.

De har vanligen en omfattande användning av virtualisering för att maximera beräkning / lagring och minimera kraven på kraft och kylning, vilket även gör att man kan utnyttja provisioning och konfigurationsautomatisering samt självadministration. Allt detta innebär snabbare och smidigare leverans av nya tjänster till företagets slutanvändare.

Cloud-baserade datacentraler drar också nytta av den omfattande användningen av hårdvaru- och open source-operativsystem, vilket är mycket annorlunda än de dyra enskilda leverantörens integrerade apparater som ofta finns i företagsdatacenter.

Genom att utnyttja samma teknikprinciper kan företagen skriva om ekonomin i sin IT-infrastruktur och flytta till en hyperkonvergerad, mjukvarudefinierad webbscale datacenterplattform med extraordinär flexibilitet och lyhördhet för att hjälpa dem att främja innovation i sin IT-avdelning och placera deras affärer med en distinkt konkurrensfördel.

Huvudpunkten med infrastrukturövergång är emellertid att det måste ske inom ramen för en ansökan. Enterprise IT-avdelningar kan inte bara anta att en horisontellt skalad infrastruktur helt och hållet kommer att matcha sina krav.

Program som baseras på ett relationsdatabashanteringssystem kan lättare skala genom att öka CPU-hastigheten eller mängden cache (vertikal skalning) medan en webinriktad applikation kan skala bättre genom att flera servrar läggs till (horisontell skalering).

De flesta företags IT-avdelningar har redan experimenterat med eller distribuerat serverns virtualisering. Möjligheten är att utvidga virtualiseringsbegreppet genom hela IT-infrastrukturen, och omfattar helt och hållet lagring och nätverk för att leverera ett virtuellt datacenter som är så flexibelt att det kan ordnas i block av beräkning, lagring och nätverk.

Applikationer behöver inte längre ha egen dedikerad och anpassad infrastruktur. Istället är infrastrukturen vanlig i hela, men varje applikation tilldelas lämplig mängd resurser för att leverera önskad prestanda.

Den resulterande homogena företagsinfrastrukturen möjliggör större volymbesparingar och dramatiskt förbättrat resursutnyttjande och fastighetsminskning - vilket minskar kraven på kraft och kylning.

Och eftersom det är samma infrastruktur kan uppetiden uppnås på ett mer kostnadseffektivt sätt på grund av hög tillgänglighet som tillhandahålls genom att flytta arbetsbelastningar på virtuella maskiner på en annan fysisk server.

Medan applikationer ofta byggdes på dedikerad och dyra redundant hårdvara, kan nu backupservrar delas mellan olika applikationer i "N + 1" mode.

Men virtualisering är inte helt utan någon nackdel. I vissa företag skapar den enkla servervirtualiseringen "sprawl" eftersom det bara är för lätt att snurra upp en annan server (till exempel för att ta bort en applikationsflaskhals) och sedan glömma det när den omedelbara trängseln har försvunnit. Detsamma kan hända med virtuell lagring.

Det verkliga fallet med server- och lagringsvirtualisering ligger i nätverksdirigering. Att flytta arbetsbelastningar runt en virtuell maskinarkitektur spridda över flera rack med servrar kan vara "mind boggling" när det gäller routing.

Viktigt övervägande måste ges till nätverksprestanda och detta driver marknaden för "Software Defined Networking" (SDN) och "Network Function Virtualization" (NFV).

Genom att ge flexibilitet, skalbarhet och smidighet till företagets IKT-infrastruktur gäller övergången av applikationer till en virtuell och konvergerad nätverksmiljö för datalagring, men även automatisering av provisioning, övervakning, hantering och rapportering..

Med alla applikationer som körs i en virtuell miljö på en homogen infrastruktur kommer en omedelbar fördel att vara den minskning av adminterminaler som behövs för stödändamål, vilket innebär att målet om en "enda ruta av glas" närmare verkligheten.

Eftersom företag försöker få flexibilitet och smidighet i ett offentligt moln via en helt virtuell IT-infrastruktur som består av både offentliga och privata molnmiljöer, kommer IT-avdelningen att omvandla så mycket som datacentret.

I stället för att konsumera så mycket tid och ansträngning som tillgodoser infrastrukturbehoven kommer de att bli mer fokuserade på utvärdering, urval och leverans av tjänster till gagn för sina användare.

För mer information eller en diskussion om detta ämne, besök Big Technology hos IP EXPO Europe på stand CC3. Registrera dig för IP EXPO nu!

  • Jason Dance är VD för Big Technology UK
  • Kolla in de bästa dedikerade servrarna