Forskare varnar för att AI kan vända sig självkörande bilar, droner till vapen
NyheterI vår ödmjuka åsikt ska AI omfamnas, inte räddas. De flesta människor associerar denna teknik med HAL eller Skynet, men de potentiella positiva fördelarna med AI verkar uppväga rädslan för att våra skapelser får känslor och förstör oss alla.
I sannhet är AI bara lika välvillig eller ondskan som mänskliga avsikter gör det.
En 101-sidig rapport med titeln The Malicious Use of Artificial Intelligence från forskare vid Yale, Oxford, Cambridge och OpenAI betonar att den verkliga faran med denna teknik kan komma från hackare som använder skadlig kod för att rikta sårbarheter i AI-automatiserade system, vilket ger människor större kapacitet att orsaka fysisk eller politisk skada.
Släpptes onsdag och första som omfattas av CNBC, betonar denna rapport “dubbla användningsområden” AI: s natur: automatiserade program som byggts med de bästa avsikterna kan vridas till skadlig teknik. Vad ska vi frukta mest? “[AI] övervakningsverktyg kan användas för att fånga terrorister eller förtrycka vanliga medborgare,” var ett exempel som gavs av rapporten, eller kommersiella dronor för livsmedelsbutik levereras vapen.
Ett annat skisserat scenario involverade självkörande bilar. De varnar för att hackare skulle kunna förändra sig “några pixlar” av ett AI: s koncept om ett stoppskylt, en liten nog förändring som människor kanske inte märker skillnaden, men kan orsaka en hel bilpark på ett företags server för att börja ignorera säkerhetslagar.
Författarna organiserade potentiella säkerhetshot i digitala, fysiska och politiska kategorier:
- AI används redan för att studera kodade sårbarheter och extrapolera vilka nya som kan vara för att bots ska utnyttjas. I framtiden kan AIs ge bots mänskliga surfningsvanor, vilket gör DoS-attacker omöjliga att försvara sig mot
- Automatisering kunde “utrusta lågkvalificerade individer med tidigare högkvalificerade attackmöjligheter”; i teorin kunde en person utföra en “mini-svärm” av droner som använder ett koordinerande AI-skript
- Politiska konsekvenser kan innefatta “deepfake” Tekniken används för att utmana en politisk ledarens rykte eller automatisera den information och trolling som Ryssland för närvarande tillämpar för att påverka framtida val.
Förutse värsta scenarier
Dessa exempel, som skrämmande som de är, förblir mest hypotetiska, och rapporten är inte avsedd att innebära att artificiella intelligenser borde förbjudas som inneboende farliga.
I stället betonar författarnas författare att vissa åtgärdspunkter bör tas i bruk av regeringar och företag nu, medan industrin fortfarande stiger.
Policymakers i världsregeringar, säger de, bör börja studera tekniken och arbeta med experter på området för att effektivt reglera AI-skapandet och användningen. AI devs måste emellertid självreglera, alltid förutse de värsta möjliga konsekvenserna av deras teknik och varningsmedlemmar om dem i förväg.
Rapporten uppmanar också AI-utvecklare att samarbeta med säkerhetsexperter inom andra områden som cybersecurity, och se om principer som håller dessa teknologier säkra kan också användas för att skydda AI.
Den fullständiga rapporten går i mycket mer detalj än vad vi kan sammanfatta här. Men kärnan är att AI är ett kraftfullt verktyg, och som med vilken ny teknik som helst, måste regeringar och intressenter i sin utveckling studera det för att se till att det inte utnyttjas för fientliga ändamål.
- För alla de positiva applikationerna och konsekvenserna av AI, kolla in vår AI Week Hub för att se hur AI förbättrar våra liv.