“Artificiell intelligens” är för närvarande det hetaste buzzwordet i tech. Och med goda skäl - efter årtionden av forskning och utveckling har de senaste åren sett ett antal tekniker som tidigare varit bevarade av science fiction långsamt förvandlas till vetenskapsfakta.

AI-tekniker är redan en djup del av våra liv: AI bestämmer våra sökresultat, översätter våra röster till meningsfulla instruktioner för datorer och kan även hjälpa till att sortera våra gurkor (mer om det senare). Under de närmaste åren använder vi AI för att köra bilarna, svara på våra kundserviceförfrågningar och, otaliga andra saker.

Men hur kom vi hit? Var kom denna kraftfulla ny teknik från? Här är tio av de stora milstolpar som ledde oss till dessa spännande tider.

Få den "stora idén"

Konceptet AI kom inte plötsligt fram - det är föremål för en djup filosofisk debatt som fortfarande rasar idag: Kan en maskin verkligen tänka som en människa? Kan en maskin vara mänsklig? En av de första människorna att tänka på var René Descartes, långt tillbaka 1637, i en bok kallad Diskurs på metoden. Förunderligt, givet att en gång i tiden skulle ha blivit en imponerbar futuristisk, hade Descartes faktiskt sammanfattade några av de avgörande frågorna och utmaningarna som teknikerna skulle behöva övervinna:

“Om det fanns maskiner som borde likna våra kroppar och imiterade våra handlingar så nära som möjligt för alla praktiska ändamål, borde vi fortfarande ha två mycket säkra medel för att erkänna att de inte var riktiga män.”

Ett porträtt av René Descartes

Han fortsätter att förklara att maskiner enligt hans uppfattning aldrig skulle kunna använda ord eller “sätta ihop tecken” till “förklara våra tankar för andra”, och det även om vi kunde tänka oss en sådan maskin, “det är inte tänkbart att en sådan maskin skulle producera olika ordningsordningar för att ge ett lämpligt meningsfullt svar på vad som sägs i dess närvaro, som de dumaste männen kan göra.”

Han fortsätter nu med att beskriva den stora utmaningen nu: skapa en generaliserad AI istället för något snävt fokuserat - och hur begränsningarna av nuvarande AI skulle avslöja hur maskinen är definitivt inte en människa:

“Även om vissa maskiner kan göra vissa saker, liksom vi gör dem, eller kanske ännu bättre, skulle de oundvikligen misslyckas i andra, vilket skulle avslöja att de agerar inte från förståelse, utan bara från deras organs disposition.”

Så nu, tack vare Descartes, när det gäller AI, har vi utmaningen.

The Imitation Game

Det andra stora filosofiska riktmärket kom med tillstånd av datavetenskaplig pionjär Alan Turing. År 1950 beskrev han först det som blev känt som The Turing Test, och vad han kallade som “The Imitation Game” - ett test för mätning när vi äntligen kan förklara att maskiner kan vara intelligenta.

Hans test var enkelt: om en domare inte kan skilja mellan en människa och en maskin (säg genom en text-bara interaktion med båda), kan maskinen lura domaren för att tro att de är den som är mänsklig?

Alan Turing, brittisk datapionjärare

Under tiden blev Turing en underbar förutsägelse om framtiden för beräkningen - och han ansåg att det i slutet av 1900-talet skulle ha blivit testat. Han sa:

“Jag tror att det på ungefär femtio år kommer att vara möjligt att programmera datorer med en lagringskapacitet på ca [1 GB] för att få dem att spela imitationsspelet så bra att en genomsnittlig frågeställare inte kommer att ha mer än 70 procent chans att göra rätt identifiering efter fem minuters ifrågasättning ... Jag tror att i slutet av seklet har användningen av ord och allmän utbildad åsikt ändrats så mycket att man kommer att kunna tala om maskiner tänker utan att förvänta sig att bli motsägelse.”

Tyvärr är hans förutsägelse lite för tidig, som när vi börjar se några riktigt imponerande AI nu, tillbaka 2000 var tekniken mycket mer primitiv. Men hej, åtminstone skulle han ha varit imponerad av hårddiskens kapacitet - som i genomsnitt var omkring 10 GB vid sekelskiftet.

Det första neurala nätverket

“Neuralt nätverk” är det fina namnet som forskare ger till försök och fel, det centrala begreppet som unpinning modern AI. I huvudsak när det gäller att träna en AI, är det bästa sättet att göra systemet gissat, få feedback och gissa igen - ständigt skiftar sannolikheterna att det kommer att komma till rätt svar.

En bild som skapats av ett Google Neural Network.

Vad är helt fantastiskt då är att det första neurala nätverket faktiskt skapades vägen tillbaka år 1951. Called “SNARC” - den stokastiska neurala analoga förstärkningsdatorn - den skapades av Marvin Minsky och Dean Edmonds och var inte tillverkad av mikrochips och transistorer utan av vakuumrör, motorer och kopplingar.

Utmaningen för denna maskin? Att hjälpa en virtuell råtta lösa ett labyrintpussel. Systemet skulle skicka instruktioner för att navigera i labyrinten och varje gång effekterna av dess åtgärder skulle matas tillbaka till systemet - vakuumrören användes för att lagra resultaten. Detta innebar att maskinen kunde lära sig och flytta sannolikheterna - vilket ledde till en större chans att göra det genom labyrinten.

Det är i grunden en väldigt, enkel, enkel version av samma process som Google använder för att identifiera objekt i foton idag.

Den första självkörande bilen

När vi tänker på självkörande bilar, tänker vi på något som Googles Waymo-projekt - men otroligt väldigt tillbaka 1995 lyckades Mercedes-Benz driva en modifierad S-klass, mestadels autonomt hela vägen från München till Köpenhamn.

En ny Mercedes S-klass

Enligt AutoEvolution gjordes 1043 milsträckan genom att effektivt stoppa en superdator i stöveln. Bilen innehöll 60 transputerbrädor, som vid den tiden var toppmoderna när det gällde parallell databehandling, vilket innebar att det kunde behandla en hel del kör data snabbt - en viktig del av att göra självkörande bilar tillräckligt mottagliga.

Tydligen uppnådde bilen hastigheter upp till 115mph, och var faktiskt ganska lik autonoma bilar idag, eftersom den kunde ta över och läsa vägskyltar. Men om vi erbjöds en resa? Umm ... Vi insistera du får gå först.

Byter till statistik

Även om neurala nätverk hade funnits som koncept för en tid (se ovan!), Var det inte förrän i slutet av 1980-talet när det fanns ett stort skifte bland AI-forskare från en “regler baserade” tillvägagångssätt till en i stället baserad på statistik - eller maskininlärning. Det betyder att istället för att försöka bygga system som efterliknar intelligens genom att försöka gudomställa de regler som människor arbetar med, istället ta en trial-and-error-tillvägagångssätt och justera sannolikheterna baserat på feedback är ett mycket bättre sätt att lära ut maskiner att tänka. Det här är en stor sak - eftersom det är detta koncept som underbygger de fantastiska saker som AI kan göra idag.

Gil Press på Forbes hävdar att den här omkopplaren var härledd 1988, då IBMs TJ Watson Research Center publicerade ett papper som heter “En statistisk metod för språköversättning”, som specifikt talar om att använda maskininlärning för att göra exakt vad Google Translate fungerar idag.

IBM har uppenbarligen matat in sina system 2,2 miljoner par meningar på franska och engelska för att träna systemet - och meningarna var alla tagna från transkript från det kanadensiska parlamentet, som publicerar sina poster på båda språk - vilket låter som mycket men det är ingenting jämfört med till Google har hela internet till sitt förfogande - vilket förklarar varför Google Translate är så snyggt bra idag.

Deep Blue beats Garry Kasparov

Trots att fokuseringen skedde på statistiska modeller var reglerbaserade modeller fortfarande i bruk - och 1997 var IBM ansvarig för kanske den mest berömda schackkampen hela tiden, eftersom det är Deep Blue-datorskyddat världsschackmästare Garry Kasparov - vilket visar hur kraftfullt maskiner kan vara.

Boten var faktiskt en rematch: 1996 spenderade Kasparov Deep Blue 4-2. Det var först 1997 som fick maskinerna överhand, vann två av de sex matcherna direkt och slogs Kasparov i tre.

Deep Blues intelligens var i viss utsträckning illusorisk - IBM självt ansåg att sin maskin inte använder artificiell intelligens. I stället använder Deep Blue en kombination av brute force processing - bearbetar tusentals möjliga drag varje sekund. IBM matade systemet med data på tusentals tidigare spel, och varje gång styrelsen ändras med varje film, skulle Deep Blue inte lära sig något nytt, men det skulle istället se upp hur tidigare stormästare reagerade i samma situationer. “Han spelar spöken av farmoriska förflutna,” som IBM säger det.

Huruvida det här verkligen räknas som AI eller inte, det är tydligt att det definitivt var en betydande milstolpe, och en som uppmärksammades inte bara på datornas beräkningsförmåga, men också till fältet som helhet. Sedan ansiktet med Kasparov har besting av mänskliga spelare på spel blivit ett viktigt, populistiskt sätt att benchmarking maskinintelligens - som vi såg igen 2011 då IBMs Watson-system handlade troligt två av spelutställningen Jeopardys bästa spelare.

Siri spikar språket

Naturlig språkbehandling har länge varit en helig artificiell intelligens - och avgörande om vi någonsin kommer att ha en värld där humanoid robotar finns, eller där vi kan skälla order på våra enheter som i Star Trek.

Och det var därför Siri, som byggdes med hjälp av ovan nämnda statistiska metoder, var så imponerande. Skapad av SRI International och till och med lanserad som en separat app på iOS App Store, blev den snabbt förvärvad av Apple själv och djupintegrerad i IOS: Idag är det en av de mest högprofilerade frukterna av maskininlärning, liksom det tillsammans med likvärdiga produkter från Google (assistenten), Microsoft (Cortana) och naturligtvis Amazonas Alexa har förändrat hur vi interagerar med våra enheter på ett sätt som skulle ha verkade omöjligt några år tidigare.

Idag tar vi det för givet - men du behöver bara fråga någon som någonsin försökt använda en röst till textansökan före 2010 för att uppskatta hur långt vi har kommit.

ImageNet-utmaningen

Liksom röstigenkänning är bildigenkänning en annan stor utmaning som AI hjälper till att slå. År 2015 slöt forskare för första gången att maskiner - i det här fallet två konkurrerande system från Google och Microsoft - var bättre att identifiera objekt i bilder än människor var i över 1000 kategorier.

Dessa “Djup lärning” system lyckades slå på ImageNet Challenge - tänk något som Turing Test, men för bildigenkänning - och de kommer att vara grundläggande om bildigenkänning någonsin kommer att skala utöver mänskliga förmågor.

Ansökningar om bildigenkänning är givetvis många - men ett roligt exempel som Google gillar att skryta om när man marknadsför sin TensorFlow-maskininlärningsplattform, sorterar gurkor: Genom att använda datasyn behöver en jordbrukare inte anställa människor för att bestämma om grönsaker är redo för middagsbordet - maskinerna kan bestämma sig automatiskt, efter träning på tidigare data.

GPU: er gör AI ekonomiskt

En av de stora anledningarna AI är nu så stor sak, för det är bara under de senaste åren att kostnaden för att knyta så mycket data har blivit prisvärt.

Enligt Fortune var det bara under slutet av 2000-talet att forskare insåg att grafiska bearbetningsenheter (GPU), som hade utvecklats för 3D-grafik och spel, var 20-50 gånger bättre vid djup inlärningsberäkning än traditionella processorer. Och när människor insåg det här ökade mängden tillgänglig datorkraft kraftigt, vilket möjliggjorde molnet AI-plattformar som driver utallige AI-applikationer idag.

Så tack, spelare. Dina föräldrar och makar kanske inte uppskattar att du spenderar så mycket tid på att spela videospel - men AI-forskare gör det säkert.

AlphaGo och AlphaGoZero erövra allt

I mars 2016 uppnåddes en annan milstolpe, eftersom Googles AlphaGo-programvara lyckades bäst Lee Sedol, en topprankad spelare i brädspelet Go, i ett eko av Garry Kasparovs historiska match.

Det som gjorde det viktigt var inte bara att Go är ett ännu mer matematiskt komplicerat spel än Chess, men att det utbildades med en kombination av mänskliga och AI-motståndare. Google vann fyra av fem matcher genom att ha använt 1920 processorer och 280 GPU: er.

Kanske ännu viktigare är nyheter från förra året - när en senare version av programmet, AlphaGo Zero. I stället för att använda några tidigare data, som AlphaGo och Deep Blue hade för att lära sig spelet spelade det bara tusentals matcher mot sig själv - och efter tre dagars träning kunde man slå den versionen av AlphaGo som slog Lee Sedol 100 spel till noll. Vem behöver lära en maskin att vara smart, när en maskin kan lära sig sig själv?

  • Techradar s AI-veckan kommer till dig i anslutning till ära.