På ungefär fem år kommer blixt och DRAM att bli för små för vad vi vill göra med datorer.

Precis som CPU-enheter måste ha mer kärnor än att bara springa fortare eftersom du inte kan få tillräckligt med elektroner i allt mindre transistorer för att på ett tillförlitligt sätt lagra dem och nollor som utgör data, kommer vi att nå en punkt där vi kan " t pack minne i något tätare.

Kapaciteten går fortfarande upp. Terabyte SSDs finns i butikerna, Samsung staplar flashchips vertikalt, och även den lilla eXtended-kapacitetsversionen av SD-kort kommer att gå upp till 2TB, men de kommer att få samma problem att de inte längre kan ställa in mer information till samma utrymme.

Framtidens lagring kan se ut som denna krets med 17 memristors

Nästa generations minneteknik syftar till att åtgärda det. Du kan ha hundratals gigabyte eller till och med några få terabytes snabbt minne i din surfplatta eller telefon, det glömmer inte vad som var i det när du stänger av enheten.

"Det har funnits ungefär ett dussin möjliga tekniker [i utveckling]," säger Intels Jim Pappas "och om minst en av dem lyckas kommer det att vara den enskilt största förändringen i datorarkitekturen som har hänt under årtionden. Det handlar om tusen gånger snabbare än NAND flash och cirka en miljon gånger snabbare än en hårddisk. " Det betyder att det kan fungera som minne och lagring (utan att sakta ner ditt system så som det gör när du måste byta information från snabbt minne till långsammare lagring).

"Vad betyder det när ditt lagringssystem är lika snabbt som systemminne eller ditt minne är lika stort som hela din lagring?" Pappas frågar. För en sak måste du tänka mycket annorlunda om vad ditt operativsystem gör med minnet, för att det aldrig går bort.

OS-återverkningar

Spencer Shepler är en filsystemexpert hos Microsoft som tittar på vad långvarigt minne betyder. Det är mer än bara att se till att kärnan vet att information i minnet pekar runt eller till och med låter minneshanteraren göra direkta länkar till filer som lever i minnet hela tiden så att de kan nås som de skulle vara om de var på en disk.

Du kanske också vill hämta mycket mindre av en fil samtidigt. bara några bytes information ut ur en 4GB-fil. "Vi pratar om att få tillgång till mycket små delsegment, små datablock." Applikationer måste skrivas för att hantera den typen av granulär åtkomst istället för att förvänta sig att de kommer att få en hel fil på en gång.

Hur mycket snabbare är nästa generations lagring förväntad att vara? Över fyra gånger snabbare än de senaste, snabbaste SSD-erna

Operativsystemet kan göra indexering mycket oftare, eftersom det kan göra det i minnet utan att sakta ner dig genom att behöva gå fram och tillbaka till disken för att titta på filer. Du kan ha en databas som loggar in varje transaktion du gör, men körs så snabbt som om du inte hade loggat på, eftersom loggen går i ihärdigt minne. Videoredigering skulle gynna särskilt, tror Shepler. "Du flyttar stora mängder data och det är mycket snabbare."

Men om ditt minne aldrig går bort, vad betyder det att göra en säkerhetskopia? Hur kontrollerar du dataintegriteten när ditt system startas om delar av det alltid är på? Vad händer om du tar bort minne från en server och lägger det i ett annat system; vill du att informationen ska röra sig som en disk gör eller går bort som minne idag? Kanske finns det filer, som lösenordsinloggningar eller kontoutdrag du tittar på online, som du inte vill ha lagrat i ihärdigt minne, kan en angripare få tillgång till. Och om du inte kan starta om för att uppdatera en drivrutin eller bli av med ett virus som laddas i minnet, hur hanterar du underhåll och säkerhet??