Nu när 2013 går tillbaka i backspegeln är det nog en bra tid att kartlägga några av de saker som vi sannolikt kommer att se i företagslagringsvärlden när vi går vidare in i år.

Vi pratar med Kieran Harty, CTO och medgrundare på Tintri, om några av de mest pressande teman och utmaningarna när vi går in 2014.

TechRadar Pro: Vilken påverkan kommer att få blixten på marknaden 2014?

KH: Det är väldigt lite tvivel om att blixten kommer att göra allvarliga inbrott och intelligent programvara kommer att bli viktigare på lagringsmarknaden 2014. De flesta av våra kunder kommer att utnyttja fördelarna med blixtprestanda på ett ekonomiskt sätt via hybridlagringssystem.

Fokus kommer att sträcka sig bortom flash-hårdvara till intelligent programvara ovanpå blixten för att driva sömlös integration med virtualiserings- och applikationslagren, vilket gör det möjligt för administratörer att fokusera på hantering av VM och applikationsdata i stället för bara lagring.

TRP: Kommer VDI till slut att lyfta av?

KH: Även om Virtual Desktop Infrastructure (VDI) har pratats om i många år har bara omkring 10 procent av stationära datorer virtualiserats hittills. Tillgången till kostnadseffektiv lagring och större antagande av mobila enheter kommer att bidra till att öka denna siffra och VDI-genomförandet kommer att accelereras 2014, särskilt i vertikaler som Financial Services, Healthcare, Government and Education.

TRP: Att molna eller inte till molnet?

KH: Medan mycket uppmärksamhet har ägnats åt offentliga molntjänster från Amazon, Google och Microsoft har privata moln (dedikerade moln på kundwebbplatser eller hos tjänsteleverantörer) ökat snabbt i bakgrunden.

För många företag är ett privat moln nästa fas av antagandet av virtualisering, vilket ger en miljö som ger extra flexibilitet, självbetjäning och rapportering. Till skillnad från offentliga molnmiljöer som Amazon Web Services behöver program inte omskrivas för att hantera fel. Privat molntagande förväntas också accelerera i produktions- och utvecklings- / testmiljöer.

TRP: Vad kan kunderna göra 2014 för att vara effektivare med sina lagringsresurser?

KH: Med ökad konsolidering av fysisk infrastruktur och flyttningen till virtualiserade miljöer delar flera applikationer samma server-, lagrings- och nätverksresurser. Men dela resurser kan leda till dåliga eller oförutsägbara servicenivåer för enskilda applikationer.

Medan hypervisorn tillhandahåller effektiva QoS-mekanismer för beräkning, blir övertagandet av överlagring för att approximera QoS för lagring och nätverkande ett problem för berörda kunder att de slösar bort resurser. Som ett resultat kommer företagskunder och tjänsteleverantörer att lägga ett stort fokus på QoS-mekanismer för lagring och nätverk i år.

TRP: Vad kan vi förvänta oss av lagring och nätverk i 2014?

KH: Med effektiviteten av databehandling som förbättras med en storleksordning, vilket gör att virtuella maskiner hanteras mycket enklare än fysiska maskiner, kommer antalet virtualiserade arbetsbelastningar att stiga till mer än 70 procent 2014. Medan lagring och nätverksarbete inte har sett samma fördelar som beräkningen förändras situationen.

De stora drivrutinerna för IT kommer att förbättra lagringseffektiviteten, förenkla lagringshanteringen för virtualiserade miljöer och förbättra automatiseringen av datahantering. Ansökningscentrerad lagring hjälper till att minska Capex och administrationskostnaderna avsevärt. I nätverksvärlden kommer programvarudefinierat nätverk (SDN) - begreppsmässigt lik applikationscentrerad lagring - att fungera parallellt för att öka effektiviteten och minska komplexiteten.

TRP: Hur kommer virtualisering utmaning lagring 2014?

KH: Virtualisering har ett problem. Det drivs före den underliggande datacenterinfrastrukturen, och nu försöker industrin att anpassa sig. Många företag vi pratar med har aggressiva planer på att virtualisera nästan alla sina servrar inom det närmaste året eller två, men äldre lagring gör det till ett allt dyrare och komplext förslag. Företagen vill gå all-in på virtualisering, men till vilken kostnad?

Eftersom arbetsbelastningen har förändrats behöver traditionell datacenterinfrastruktur anpassa sig och bli mer anpassad till de nya kraven. Dagens lagringssystem för allmänt bruk bygger på decennier gamla arkitekturer, fysiska servrar och applikationer virtualiseras och mekaniska hårddiskar ersätts av SSD.

I / O-mönstren förändras avsevärt och blir också dolda av virtualisering. Allmänna lagringssystem är baserade på LUN eller volymer, som är dåliga för VM. Detta skapar tre grundläggande, sammanhängande problem med överprovision, komplexitet och prestationshantering.

TRP: Varför ska organisationer bli VM-Aware? Och vad innebär det?

KH: Virtualisering kräver en annan form av lagring. Det behöver lagring som förstår IO-mönster i en virtuell miljö och hanterar automatiskt tjänstens kvalitet (QoS) för varje VM, inte LUN eller volym. Vid drift på en VM-nivå gör det också möjligt att hantera datahantering hela vägen ner till en specifik applikation. Det här definierar VM-Aware-lagring.

Det finns olika sätt att närma sig problemet med varierande grader av "VM-Awareness." VMware förstår problemen med äldre lagring och arbetar för att göra befintlig lagring av allmänna ändamål mer VM-Aware, men i slutändan kommer detta att vara en långsam inkrementell process som lägger till ytterligare lager av abstraktion, komplexitet och ineffektivitet till decennier gamla lagringsarkitekturer utformade före advent av virtuella maskiner och flash lagringsteknik. Vi tror att det bästa sättet att stödja virtualisering är från grunden - låt programvaran definiera lagringen.