Med en exponentiell utveckling av AI så har en diskussion om dess potentiella faror också kommit. Jag upplever att det som mest diskuteras är saker som att AI tar våra jobb och deepfakes som kan göra att vi inte litar på vad vi ser längre. Dessa är utmaningar men är närmast obetydliga om vi ser till det större hotet vilket är mänsklighetens överlevnad.
Nu har jag läst 12 böcker om framtiden med AI och 3 böcker där AI är ett bland flera teman. Fyra av dessa böcker är optimistiska och ser inte så stora risker (Kurzweil och Hoffman) medan de andra är oroliga i olika grader. Min upplevelse är också att i de tidigare böckerna trodde man att det fanns en möjlighet att forma en superintelligent AI (ASI) så att den skulle följa mänskliga intressen och att man dessutom trodde att vi har ganska gott om tid innan superintelligens utvecklas. Ju längre tiden går så verkar experterna tro betydligt mindre på att det faktiskt går att styra en ASI och att vi har betydligt kortare tid på oss än vi tidigare trott.
För många verkar denna värld som science fiction och det är det ju faktiskt på ett sätt enligt Wikipedias definition: ”inslag grundade på vetenskapliga eller teknologiska spekulationer”. För vi pratar ju om en framtida teknologi som inte finns ännu och ingen vet vad den har i sitt sköte. Men som Chalmersprofessorn Olle Häggström poängterar så kan vi göra mer än spekulera, vi kan utforska riskerna på vetenskapliga sätt.
Men även om det känns overkligt för de allra flesta av oss att en superintelligent AI kan ta över kontrollen från mänskligheten så är det ändå en fråga som vi inte har råd att se bort från. För att vi inte ska riskera att utplånas så krävs det att vi informerar oss om denna potentiellt största risk som vi någonsin stått inför. Och när vi lärt oss något om detta så måste det till en rejäl samhällsdiskussion och aktiviteter som pekar på vad som måste ske: nämligen regleringar och en paus i utvecklingen, åtminstone till vi har uppnått något sätt att göra AI säkert (om det nu finns ett sådant).
Frågan är vad man kan göra som enskild individ i den här frågan. Förutom att informera sig själv och börja diskutera frågan så vill en föreningsmänniska som jag själv gärna att organisationer, grupper och nätverk av olika slag tar sig an denna utmaning. Redan nu så engagerar sig organisationer som Effektiv Altruism Sverige och Pause AI i frågan. Kan det också vara något för organisationer som Svenska freds- och skiljdedomsrörelsen (som redan engagerar sig mot mördarrobotar) eller kanske de olika yrkesgrupperna som är engagerade mot kärnvapen (med tanke på att en framtida AI kan bli det ultimata massförstörelsevapnet)? Även om den största utvecklingen av AI nu sker i USA så spelar det roll vad ett land som Sverige, och alla andra länder, gör. Jag hoppas att enskilda riksdagsledamöter och politiska partier ska våga ta tag i den här frågan innan det är kört.
Om ni som läser det här har tankar om vad vi kan göra för att lyfta den här frågan så hör gärna av dig till [email protected] eller till någon av organisationerna ovan.
Nedan är de AI-böcker jag läst eller lyssnat på
(Länkarna går till de recensioner jag har skrivit till respektive bok (mest på engelska) på Goodreads.)
The Age of Spiritual Machines - When Computers Exceed Human Intelligence (1998) av
Ray Kurzweil
The Singularity is Near: When Humans Transcend Biology (2005) av Ray Kurzweil
Life 3.0: Being Human in the Age of Artificial Intelligence (2017) av Max Tegmark
Human Compatible: Artificial Intelligence and the Problem of Control (2019) av Stuart Russell
Tänkande maskiner: Den artificiella intelligensens genombrott (2021) av Olle Häggström
Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World (2021) av Mo Gawdat
The Coming Wave: Technology, Power, and the Twenty-first Century's Greatest Dilemma (2023) av Mustafa Suleyman.
Uncontrollable: The Threat of Artificial Superintelligence and the Race to Save the World (2023) av Darren McKee
The Singularity Is Nearer: When We Merge with AI (2024) av Ray Kurzweil
Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI (2025) av Karen Hao.
Superagency: What Could Possibly Go Right with Our AI Future (2025) av Reid Hoffman
If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All (2025) av Eliezer Yudkowsky och Nate Soares
Böcker som delvis handlar om AI-hotet
The Precipice: Existential Risk and the Future of Humanity (2020) av Toby Ord
What We Owe the Future (2022) by William MacAskill
Nexus: A Brief History of Information Networks from the Stone Age to AI (2024) by Yuval Noah Harari
The Darwinian Trap: The Hidden Evolutionary Forces That Explain Our World (2024) by Kristian Rönn
Poddar och bloggar
Blogg av professor Olle Häggström som skriver om det senaste kring AI-hotet
80 000 hours podcast - handlar i hög grad om AI och dess hot.
Youtube
Min intervju med Olle Häggström om AI-hotet
Min intervju med Jonathan Salter om AI-hotet
Geoffrey Hinton på The Weekly Show with Jon Stewart
RSS Feed