Det har också lett till att jag har börjat ägna mer tid åt frågan eftersom jag ännu mer än tidigare ser AI som ett potentiellt stort hot mot allas vår framtid. Jag vill så här inledningsvis nämna att jag knappast är teknikfientlig. Tvärt om - jag älskar teknik! När det gäller konsumtion är det min klart största akilleshäl eftersom jag tycker att det är kul att testa de senaste tekniska prylarna. På grund av miljökostnaden för produktion så försöker jag ändå hålla igen. Och när det gäller AI så har jag dagar när jag kan se fantastiska fördelar när AI har utvecklats långt bortom dagens förmåga. Kanske kan sådana AI till och med lösa dagens största utmaningar som klimatkrisen? Men när jag läser och lyssnar på böcker och poddar som beskriver de potentiella hot som finns med framtidens AI så blir det uppenbart för mig att vi bör ägna denna fråga betydligt mer intresse och tid.
Även om AI först nu blivit aktuellt så finns de som väldigt tidigt lyfte hoten med tänkande maskiner. Alan Turing ses som fadern till modern databehandling. Vid andra världskriget konstruerade han en maskin som lyckades knäcka nazisternas hemliga koder. Redan 1951 skrev han: ”Det förefaller troligt att det, när väl tänkande maskiner kommit igång, inte skulle dröja länge innan våra ömkliga förmågor akterseglades. Att maskinerna skulle dö kommer inte på fråga, men de skulle kunna kommunicera inbördes för att skärpa sina sinnen. Till slut bör vi därför räkna med att de tar över kontrollen.”
"Men hur skulle AI kunna ta över kontrollen? Chat GPT skriver ju endast text!" är lätt att tänka. Och det finns ingen som påstår att dagens AI skulle ta över. Vi måste istället tänka att morgondagens AI med stor sannolikhet kommer att vara väldigt många gånger mer avancerad än dagens. AGI - Artificiell Generell Intelligens är programmerarens heliga graal. När AI når denna nivå kan den utföra alla intellektuella uppgifter lika bra eller bättre än människor. Det antas att när AGI nås så kan den programmera sig själv att utvecklas snabbare och snabbare. Vår mänskliga hjärna som utvecklats superlångsamt under miljoner år har ingen chans att hänga med om AGI uppnås. Men man kanske ändå frågar sig hur en sådan AGI skulle ta över. Redan nu är vårt samhälle otroligt digitaliserad och mycket är uppkopplat till internet, till exempel el- och vattenförsörjning (om jag minns rätt). Vi kan föreställa oss att när AI fortsätter att utvecklas under de kommande åren så kommer det att vara så pass hjälpsamt för oss att vi integrerar det i fler och fler system, som till exempel självstyrande bilar, på sjukhus och annat. Det skulle kunna bli så integrerat, oumbärligt och komplext att vi inte skulle kunna stänga av AGI om vi inte vill offra väldigt många människors liv, eftersom det vid detta lag är livsuppehållande inom flera områden. Om AGI uppnås så kan systemet självreplikera sig och sprida sig till alla områden som är uppkopplade till internet och potentiellt ta över dessa om detta gynnar AGI:ns mål.
En nyckelfråga är vad en framtida AGI skulle vilja uppnå och på vilket sätt den skulle göra det. Det kan tänkas att AGI skulle bli så avancerad att vi människor ses av dem som myror ses i förhållande till oss. Om vi människor vill bygga en motorväg så tänker knappast ingenjörerna på om det skulle råka finnas en myrstack i vägen som utplånas i bygget. Det är inte för att ingenjörerna har något emot myrorna som detta sker utan eftersom myrorna inte räknas eftersom de är hopplöst underutvecklade i förhållande till människorna (jag säger inte att detta är etiskt motiverat men dock ett vanligt tänkande). På ett liknande sätt kan det bli med AGI. Den behöver inte vara ond och ute efter att förgöra mänskligheten (eller andra djurarter). Det kan räcka med att vi konkurrerar om utrymme och resurser som en AGI anser sig behöva för att nå sitt mål. Det pågår intensiv forskning kring hur vi ska kunna programmera AI så att den faktiskt följer mänskliga mål och tar hänsyn till våra intressen. Detta som brukar kallar ”the alignment problem” visar sig dock vara en ytterst svår nöt att knäcka. En utmaning är till exempel att vi människor kan ha värderingar som krockar med varandra, så då är det oklart vad av det som ska programmeras. Ett annat problem är att mänsklig moral knappast är fulländad. Häggström nämner i det här sammanhanget det ”ofantliga lidande som djurindustrin ger upphov till” som våra samhällen i stort inte tar hänsyn till ännu.
Nu är det inte säkert att en AGI utvecklar egna mål som potentiellt skulle vara förgörande för mänskligheten. Men det kan räcka med att en riktigt avancerad AI utvecklas som används på ett dåligt sätt. Till exempel en militärmakt som uppnår, eller tar över AI, och som i ett förebyggande syfte lyckas ta över makten från andra länder med tvång så att inte de också ska nå den eftertraktade AI-utveckling och kunna slå tillbaka med detta.
Hur stora är då risker för utplåning av mänskligheten? Denna fråga är inte oväntat väldigt svår att svara på eftersom vi ofta pratar om potentiella risker vi tidigare inte utsätts för. Filosofen Toby Ord som jobbar på Future of Humanity Institute försöker i alla fall att på ett kvalificerat sätt uppskatta riskerna i boken The Precipice: Existential Risk and the Future of Humanity (2020). I den uppskattar han att risken för att mänskligheten helt utplånas under de kommande 100 åren till en på sex, vilket är 17 procent. Det är som att vi skulle spela rysk roulette med en kula i magasinet. Och om risken fortsätter att vara så här hög århundrade efter århundrade så dröjer det inte lång tid innan vi med stor sannolikhet når vårt slutkapitel som mänsklighet.
Vad är det då som hotar vår överlevnad allra mest? Högst sannolikhet tilldelar Toby Ord risken för en AI-katastrof, som får 10 %, och på andra plats kommer artificiellt skapade pandemier med sannolikhet 1 på 30, det vill säga cirka 3 %. Globalt kärnvapenkrig och global uppvärmning tilldelas vardera endast 0,1 % av Ord. Men observera att detta är risken för total utplåning. Både kärnvapen och klimatkrisen utgör enorma risker för mänskligt liv och vår civilisation men det är osannolikt att de helt utplånar allt mänskligt liv.
Hur lång tid kommer det att ta innan vi får AGI? När boken Tänkande maskiner kom ut 2021 skrev Chalmer-professorn Olle Häggström: ”kan dröja ett århundrade eller mer, eller det kan röra sig om några få decennier.” Eftersom saker och ting utvecklas så snabbt inom AI så kom han ut med en uppdaterad version av sin bok under 2023 med ett tilläggskapitel. Där skriver professorn: AGI ”ligger betydligt tidigare än den gjorde för ett par år sedan.” När han pratar med de främsta AI-experterna så är det idag många fler som pratar om att det stora AI-genombrottet kan ligga endast några år framåt.
Men är inte snacket om AI bara en enorm hype? Vi har hört det förr. I framtiden kommer vi att få flygande bilar och åka i skytteltrafik till Mars! Blev det så? Nej, knappast. Det finns både kända tänkare som inte tror att AI kommer att utvecklas till något särskilt avancerat och ytterligare några som håller med om att AGI sannolikt kommer att utvecklas men att det inte kommer att vara någon som helst risk för oss människor. I kapitlet AI-förnekeri i boken Tänkande maskiner bemöter Häggström AI-kritiker som till exempel den kända psykologen och författaren Steven Pinker. Häggström erkänner att vi inte alls vet lika mycket om AI-risken som vi gör inom klimatområdet där kunskapsunderlaget är betydligt bättre. Men bara för att vi inte har några säkra svar så betyder inte det att det är intellektuellt godtagbart att säga vad som helst påpekar Häggström. Det kan ha sin plats att se positivt på världens utveckling som Pinker gör, men om vi ser allt rosaskimrande kan det få oss att vara blinda för reella hot. Till skillnad från tidigare teknisk utveckling så har vi med största sannolikhet bara en chans på oss när det gäller AI. Vi kan inte vänta med att bry oss om säkerhetsriskerna tills AGI är ett faktum för då är det antagligen för sent att göra något åt det. Tyvärr går det inte då att bara dra ut sladden.
Om det nu finns en betydande risk för att vi kan utplånas vad finns det att göra för att undvika detta? En given åtgärd är att se till att mer resurser satsas på AI-säkerhet, forskning där man försöker hitta vägar för att framtida AI ska ta hänsyn till mänskliga (och helst även andra arters) intressen. Idag satsas endast en bråkdel av de resurser på AI-utveckling till AI-säkerhet. Det är inte acceptabelt. Det behövs också kraftfull lagstiftning som tvingar företagen att vidta säkerhetsåtgärder under utvecklandet och släppande av nya AI-program. Dagens läkemedelsföretag behöver gå igenom rigorösa tester styrt av lagar innan nya läkemedel släpps på marknaden. Detta är något som verkar fungera i stort sätt över hela världen, i både demokratier och diktaturer. Ett liknande regelverk skulle behövas för att reglera AI-företagen.
Cheferna i de största AI-företagen och världens politiker har möjlighet att påverka riskerna med AI. Men vad kan lilla jag göra åt frågan? kanske du undrar. Som med alla andra större samhällsfrågor så krävs det av oss medborgare att vi agerar. Politiker behöver känna att de har stöd av befolkningen för att våga genomföra förändringar (åtminstone de större). För detta krävs att vi i allmänheten visar att vi tycker att det här området är viktigt att agera kring. Eftersom frågan är så pass ny så är det i nuläget viktigt att vi blir fler som sätter oss in i ämnet och lyfter det så att riskerna blir debatterade runt om i vårt samhälle. Man behöver inte vara expert för att ha en åsikt i AI-frågan, lika lite som vi behöver kunna kärnfysik för att lyfta riskerna med kärnvapen eller vara klimatforskare för att engagera oss kring klimatkrisen. Detta är en allt för viktig fråga för att vi ska kunna lämna den åt experter och toppolitiker!
P.s. I den här texten har jag valt att endast beröra de AI-risker som Häggström kallar de högtflygande och inte lyft de mer jordnära riskerna som till exempel hur människor ska erhålla försörjning och meningsfull framtid när AI tar över allt fler jobb. Kanske det blir en text om detta på denna blogg vid ett senare tillfälle!
Martin rekommenderar detta att läsa och lyssna på om AI
Tänkande maskiner av Olle Häggström
Uppföljningskapitel till Tänkande maskiner från 2023 som gratis går att ladda ner
Mitt eget urval av de viktigaste bitarna från boken Tänkande maskiner
The Precipice av Tony Ord
Human Compatible av Stuart Russle
Olle Häggströms blogg om AI
Kort video om AI-framtiden
Samtal om bland annat AI med Jonas Lundström och Martin i podd och på Youtube
Podden 80 000 hours gör djuplodande intervjuer om AI som jag har lärt mig mycket av
An Open Letter from AI and Robotics Researchers
Om man hellre än att läsa vill lyssna eller titta på något om AI så tipsar jag att ta något av namnen ovan och klistra in i valfri poddplattform eller på Youtube för att titta/lyssna på samtal eller föredrag.