Kanske är det alla Terminator-filmer, sci-fi-romaner och post-apokalyptiska videospel, men det är bara vettigt att vara försiktig med superintelligent artificiell intelligens, rätt?

För det bästa av alla, två stora företag inom AI har sammankallats för att arbeta för att hålla maskiner från att hantera problem felaktigt - eller oförutsägbart.

OpenAI, en grupp grundad av techno-entreprenören Elon Musk och Google DeepMind, går laget bakom den nyregistrerade Go Champ, AlphaGo, för att hitta sätt att se till att AI löser problem till mänskliga önskvärda standarder.

Medan det ännu är snabbare att låta en AI lösa problem på egen hand, upptäckte partnerskapet att människor måste gå in för att lägga till begränsningar om begränsningar för att träna AI för att hantera en uppgift som förväntat.

Mindre fusk, färre Skynets

I ett papper publicerat av DeepMind och OpenAI-personal fann de två företagen att mänsklig intervention är avgörande för att informera AI när ett jobb utförs både optimalt och korrekt - det vill säga inte att fuska eller klippa hörn för att få de snabbaste resultaten.

Om man berätta för en robot att scramble ett ägg kan det till exempel resultera i att det bara slammar ett ägg på en stekpanna och kallar det ett jobb (tekniskt) bra gjort. Ytterligare belöningar måste läggas till för att försäkra sig om att ägget är kokt jämnt, kryddat ordentligt, fritt från skalskär, inte bränt och så vidare.

Som du kan gissa kan det vara en stor del av arbetet att ställa in reella belöningsfunktioner för AI. Forskarna anser emellertid ansträngningarna att en etisk skyldighet går framåt, speciellt eftersom AIs blir mer kraftfulla och kan öka ansvaret.

Det finns fortfarande mycket arbete kvar, men om inget annat kan du vara trött på att AIs högsta forskare arbetar för att se till att robotar inte går igång - eller åtminstone inte förstör frukost.

Via Wired

  • Hur en AI uppnådde ett perfekt Pac-Man-poäng