Det är alltid fantastiskt att se omväxlingshastigheten för toppläckan i den årliga rankningen av Top500-superdatorer. Japans K-dator, som för närvarande är fjärde och kommer utan tvekan att sjunka längre, var i första ståndpunkt så nyligen som i juni 2011.

I tre år har det blivit outdone av Kinas Tianhe 2, nästan fem gånger kraftigare. Prestationsvinsterna i toppen har varit ganska "raka" sedan 1990-talet, så förändringar som detta borde inte vara en stor överraskning.

BÅGSKYTT

Lanserad i mars 2014, kommer jag också vara angelägen att se var Edinburgh Universitys nya ARCHER-superdator, störst i Storbritannien, kommer att fungera. Jag undrar också hur länge det kommer att vara innan Exascale prestanda barriären är trasig.

Under de senaste åren har syftet [och funderaren] för varje maskin delats mellan akademi, forskning, regering och privat industri. Top100 domineras generellt av akademier och forskningsbaserade maskiner, det vill säga de organisationer med stora budgetar och ännu större ambitioner. När vi flyttar ut från top100 dominerar de privata industrin baserade maskiner de återstående 400 inmatningarna. Det är en trend som jag tror vi kommer att se fortsätta i juni och framtida listor.

Linux är kung

Från ett tekniskt perspektiv har Windows operativsystemet kommit och gått så snabbt. Linux är det dominerande operativsystemet och detta kommer definitivt att återspeglas - och dess ståndpunkt kommer att stärkas. Ny mjukvara utvecklas för att göra det allt lättare för användarna att få tillgång till superdatorer utan att verkligen komma i kontakt med Linux.

Jag har sett ett Linux-system, vilket i förenklade termer gör det möjligt för användare att välja och skicka ett jobb till sin superdator med hjälp av en rullgardinsmeny. Jag tror att det är dessa framsteg som i hög grad hämmat mycket bredare antagande av Windows i superdatorindustrin.

Intels Phi

Jag är också upphetsad av ankomsten av Intels Phi-accelerator på listan. Att arbeta med Phi är relativt rakt framåt och kan vara detsamma som att programmera en Core i7 (eller liknande) processor som de flesta inom teknisk databehandling har på sina skrivbord, så det finns inget behov av att lära sig något nytt API. Det är enkelt att programmera och verktygen är tillgängliga - om en utvecklare nu kodar är det samma kod och samma expertis.

Jag skulle balansera allt detta genom att säga medan Phi är relativt lätt att programmera, att få bästa prestanda är svårt - det tar 10 minuter att lära sig och 10.000 timmar att behärska! Att få det allra bästa från Phi kommer att ta mycket lång tid.

Ändå gör Phi redan en inverkan. Den är i bruk fem gånger på den nuvarande listan, inklusive toppunktet och jag förväntar mig att detta kommer att fortsätta i juni. När du kombinerar den här trenden med Intels växande inverkan på chipmarknaden tycker jag att det är rättvist att säga att Intel går mot total dominering av supercomputing.

Standardkluster

Mina sista tankar skulle vara att placera "standardkluster" på listan - det här är de typer av maskiner vi bygger på OCF för kunder, i stor utsträckning med hjälp av x86-serverteknik. Den högst placerade maskinen i den nuvarande listan [och jag är inte säker på att detta kommer att förändras mycket i juni] är 10: e. Den använder IBMs iDataPlex-serverteknik.

Det är trevligt att se att en av dessa maskiner gör topp10 eftersom de verkligen är arbetshästen för många forskningsintensiva organisationer. De är lätta att arbeta med, lätta att uppgradera, lätt att omregistrera programkod för att fungera effektivt på systemet och lämpar sig för att stödja många användare och applikationer.

  • Andrew Dean är HPC: s affärsutvecklingschef för OCF sedan 2007.