Ett år för djuren och jorden
  • Året
  • Föredrag
    • Civil olydnad för djuren
    • Lär dig prata med köttätare
    • Varför vi älskar hundar, äter grisar och klär oss i kor
    • Att våga se
    • Tomma burar - filmen
    • How To Best Harness The Potential Of Nonviolence For Animals
    • How to work against slaughterhouses
    • Civil disobedience for the animals
    • How to talk to meat eaters
    • Animals - friends or food?
    • How to finance full-time animal rights activism
    • Empty Cages - the film
  • 2024
  • Martin
  • Förtrycket
  • Resurser
    • Tips på böcker, video och ljud
    • Att gå över till vego >
      • Gregers dagliga dussin
    • Organisationer för vegetarianism och djurrätt
    • Lär dig prata med köttätare
    • Material med Martin
  • Kontakt
  • English

Körsbärsplockning i vegandokumentärer?

1/23/2024

Comments

 
Picture
Jag har tidigare gjort reklam för den nya Netflix-dokumentären You Are What You Eat: A Twin Experiment där man får följa ett antal tvillingpar. Den ena enäggstvillingen kör vegansk mat och den andre kör blandkost under en period. Sedan jämför de hälsovärdena. Jag var medveten om att liknande dokumentärer har fått kritik för att ha varit snedvridna till förmån för veganism. Ett vanligt klagomål är att vegandokumentärer ägnar sig åt ”cherry picking” - körsbärsplockning - som enligt Wikipedia ”innebär att man i sin argumentation plockar ut enskilda fakta som stödjer ens uppfattning, medan man bortser från fakta som motsäger densamma. Detta tankefel är en form av undertryckande av bevis, och kan vara medvetet eller omedvetet.”

Om man, som jag, är djupt engagerad för djuren, är det lockande att lyfta fram de resultat som är positiva för en helt växtbaserad kost och negligera annat som inte är lika positivt. Även om avsikten måhända vara god - att stå upp för djuren - så tycker jag att det är problematiskt när detta sker. Jag tror att vi överlag får ett bättre samhälle om vi håller oss till fakta och gör vårt bästa att framställa information på ett så ärligt sätt som möjligt. Argument för att välja växtbaserat blir också så pass mycket mer trovärdiga om vi alltid har fakta och vetenskap på vår sida, till exempel när det gäller hur nyttig växtbaserad kost är.

Därför är jag tacksam för att det finns de som granskar faktan och det vetenskapliga underlaget i dokumentärer som denna. I veckan har jag sett på två videos som Youtubern Unnatural Vegan har gjort - en om den faktiska studien som ligger till grund för dokumentären - och en om dokumentären. Jag har också lyssnat på podden Hälsoveckan by Tyngre, där välutbildade personer inom kost och hälsa utvärderar den nämnda dokumentärens hälsopåståenden. Titta och lyssna gärna på någon av dessa genomgångar om ni väljer att titta på You Are What You Eat: A Twin Experiment. Efter att själv ha lyssnat på dessa recensioner så tycker jag att de har flera poänger om brister i dokumentären - som att vissa saker känns snedvridna och att resultaten kunde ha visats på ett ärligare sätt.

Om man hade framställt resultaten mer vetenskapligt kanske inte dokumentären blivit lika slagkraftig i sitt budskap. Men jag tycker att huvudresultatet från hela studien är tillräckligt starkt ändå! Som det står högst upp i studiens artikel under ”Key Findings” (min översättning): att under bara åtta veckor fick de som gick på vegankost klart förbättrat LDL (det dåliga kolesterolet), förbättrade insulinnivåer och viktminskning. Slutsats: en hälsosam vegankost ger ett signifikant skydd mot hjärt- och kärlsjukdomar och diabetet typ 2 i jämförelse med en hälsosam blandkost. Denna slutsats ifrågasatt inte av någon av de nämnda kritiska rösterna.

Dessutom lyfter dokumentären hur dåligt animalier är för miljön/klimatet och även något om hur hemskt det är för djuren. Inte detta heller ifrågasätts av de ovan. Att lyfta dessa frågor är viktigt för vår gemensamma miljö och för de miljarder djur som utnyttjas. Det är också inom dessa områden, särskilt kring djuretiken, där veganer har våra allra starkaste argument. Det tar emot för många att börja se dokumentärer om djurfabrikers hemska effekt på klimat och djur. Därför kan hälsa vara en väg in för många att börja uppmärksamma de många skador som kött och andra animalier för med sig. Därför vill jag inte helt avskriva dokumentären även om jag hade önskat att man var mer strikt i hur man la fram resultaten så att det var mer rättvist och medskicket att man får titta på den med en nypa av skepticism.

Människor med ett kritiskt förhållningssätt är viktiga, och att vi som identifierar oss som veganer också lyssnar på vad icke-veganer tycker och tänker. Men vi ska också ha klart för oss att allt som kommer ur munnen eller pennan ur vetenskapligt sinnade personer inte är att lita på. Särskilt när det gäller ett ämne som veganism och djurrätt. Att man är smart och klok inom ett eller flera områden betyder inte att man nödvändigtvis resonerar klokt inom andra. Ett exempel på detta är den kända astrofysikern, programledaren och författaren Neil deGrasse Tyson som kommer med alla möjliga märkliga påståenden om varför veganism inte är en livsfilosofi som håller. Att även en intelligent person som denna astrofysiker tänker snett kring veganism är något som Earthling Ed och Unnatural Vegan visar i sina videos. Om hur annars kloka och empatiska människor kan ha sina blinda fläckar när det gäller veganism och djurrätt är något som Pelle Strindlund visar med besked, bland annat i sin senaste bok Alla mot djuren.
Comments

​ATT SPELA RYSK ROULETTE MED VÅR GEMENSAMMA FRAMTID

1/12/2024

 
Picture
Denna bild fick jag när jag skrev in orden "Framtidens artificiella intelligens hot mot mänskligheten" i AI-generatorn Dall-E 3
​AI (Artificiell intelligens) är något som jag har varit intresserad av de senaste 25 åren. Jag har sett frågan som en liten sidohobby eller kuriosa. Det började med en fascination av böcker (som The Age of Spiritual Machines och The Singularity Is Near) av Ray Kurzweil. Han har alltid varit väldigt optimistisk när det gäller AI. Men jag minns också att jag blev orolig när jag år 2000 på mitt studentrum i Lund läste en artikel av Bill Joy i tidningen Wired om framtida faror som den teknologiska utvecklingen kan bära med sig. Men, som få har undgått vid det här laget, så har nu AI seglat upp som en ytterst aktuell fråga. Detta har skett eftersom AI nu har utvecklats så pass mycket att fler och fler ser både enorma möjligheter och stora hot.

Det har också lett till att jag har börjat ägna mer tid åt frågan eftersom jag ännu mer än tidigare ser AI som ett potentiellt stort hot mot allas vår framtid. Jag vill så här inledningsvis nämna att jag knappast är teknikfientlig. Tvärt om - jag älskar teknik! När det gäller konsumtion är det min klart största akilleshäl eftersom jag tycker att det är kul att testa de senaste tekniska prylarna. På grund av miljökostnaden för produktion så försöker jag ändå hålla igen. Och när det gäller AI så har jag dagar när jag kan se fantastiska fördelar när AI har utvecklats långt bortom dagens förmåga. Kanske kan sådana AI till och med lösa dagens största utmaningar som klimatkrisen? Men när jag läser och lyssnar på böcker och poddar som beskriver de potentiella hot som finns med framtidens AI så blir det uppenbart för mig att vi bör ägna denna fråga betydligt mer intresse och tid.

Även om AI först nu blivit aktuellt så finns de som väldigt tidigt lyfte hoten med tänkande maskiner. Alan Turing ses som fadern till modern databehandling. Vid andra världskriget konstruerade han en maskin som lyckades knäcka nazisternas hemliga koder. Redan 1951 skrev han: ”Det förefaller troligt att det, när väl tänkande maskiner kommit igång, inte skulle dröja länge innan våra ömkliga förmågor akterseglades. Att maskinerna skulle dö kommer inte på fråga, men de skulle kunna kommunicera inbördes för att skärpa sina sinnen. Till slut bör vi därför räkna med att de tar över kontrollen.”

"Men hur skulle AI kunna ta över kontrollen? Chat GPT skriver ju endast text!" är lätt att tänka. Och det finns ingen som påstår att dagens AI skulle ta över. Vi måste istället tänka att morgondagens AI med stor sannolikhet kommer att vara väldigt många gånger mer avancerad än dagens. AGI - Artificiell Generell Intelligens är programmerarens heliga graal. När AI når denna nivå kan den utföra alla intellektuella uppgifter lika bra eller bättre än människor. Det antas att när AGI nås så kan den programmera sig själv att utvecklas snabbare och snabbare. Vår mänskliga hjärna som utvecklats superlångsamt under miljoner år har ingen chans att hänga med om AGI uppnås. Men man kanske ändå frågar sig hur en sådan AGI skulle ta över. Redan nu är vårt samhälle otroligt digitaliserad och mycket är uppkopplat till internet, till exempel el- och vattenförsörjning (om jag minns rätt). Vi kan föreställa oss att när AI fortsätter att utvecklas under de kommande åren så kommer det att vara så pass hjälpsamt för oss att vi integrerar det i fler och fler system, som till exempel självstyrande bilar, på sjukhus och annat. Det skulle kunna bli så integrerat, oumbärligt och komplext att vi inte skulle kunna stänga av AGI om vi inte vill offra väldigt många människors liv, eftersom det vid detta lag är livsuppehållande inom flera områden. Om AGI uppnås så kan systemet självreplikera sig och sprida sig till alla områden som är uppkopplade till internet och potentiellt ta över dessa om detta gynnar AGI:ns mål.

En nyckelfråga är vad en framtida AGI skulle vilja uppnå och på vilket sätt den skulle göra det. Det kan tänkas att AGI skulle bli så avancerad att vi människor ses av dem som myror ses i förhållande till oss. Om vi människor vill bygga en motorväg så tänker knappast ingenjörerna på om det skulle råka finnas en myrstack i vägen som utplånas i bygget. Det är inte för att ingenjörerna har något emot myrorna som detta sker utan eftersom myrorna inte räknas eftersom de är hopplöst underutvecklade i förhållande till människorna (jag säger inte att detta är etiskt motiverat men dock ett vanligt tänkande). På ett liknande sätt kan det bli med AGI. Den behöver inte vara ond och ute efter att förgöra mänskligheten (eller andra djurarter). Det kan räcka med att vi konkurrerar om utrymme och resurser som en AGI anser sig behöva för att nå sitt mål. Det pågår intensiv forskning kring hur vi ska kunna programmera AI så att den faktiskt följer mänskliga mål och tar hänsyn till våra intressen. Detta som brukar kallar ”the alignment problem” visar sig dock vara en ytterst svår nöt att knäcka. En utmaning är till exempel att vi människor kan ha värderingar som krockar med varandra, så då är det oklart vad av det som ska programmeras. Ett annat problem är att mänsklig moral knappast är fulländad. Häggström nämner i det här sammanhanget det ”ofantliga lidande som djurindustrin ger upphov till” som våra samhällen i stort inte tar hänsyn till ännu.

Nu är det inte säkert att en AGI utvecklar egna mål som potentiellt skulle vara förgörande för mänskligheten. Men det kan räcka med att en riktigt avancerad AI utvecklas som används på ett dåligt sätt. Till exempel en militärmakt som uppnår, eller tar över AI, och som i ett förebyggande syfte lyckas ta över makten från andra länder med tvång så att inte de också ska nå den eftertraktade AI-utveckling och kunna slå tillbaka med detta.

Hur stora är då risker för utplåning av mänskligheten? Denna fråga är inte oväntat väldigt svår att svara på eftersom vi ofta pratar om potentiella risker vi tidigare inte utsätts för. Filosofen Toby Ord som jobbar på Future of Humanity Institute försöker i alla fall att på ett kvalificerat sätt uppskatta riskerna i boken The Precipice: Existential Risk and the Future of Humanity (2020). I den uppskattar han att risken för att mänskligheten helt utplånas under de kommande 100 åren till en på sex, vilket är 17 procent. Det är som att vi skulle spela rysk roulette med en kula i magasinet. Och om risken fortsätter att vara så här hög århundrade efter århundrade så dröjer det inte lång tid innan vi med stor sannolikhet når vårt slutkapitel som mänsklighet.

Vad är det då som hotar vår överlevnad allra mest? Högst sannolikhet tilldelar Toby Ord risken för en AI-katastrof, som får 10 %, och på andra plats kommer artificiellt skapade pandemier med sannolikhet 1 på 30, det vill säga cirka 3 %. Globalt kärnvapenkrig och global uppvärmning tilldelas vardera endast 0,1 % av Ord. Men observera att detta är risken för total utplåning. Både kärnvapen och klimatkrisen utgör enorma risker för mänskligt liv och vår civilisation men det är osannolikt att de helt utplånar allt mänskligt liv.

Hur lång tid kommer det att ta innan vi får AGI? När boken Tänkande maskiner kom ut 2021 skrev Chalmer-professorn Olle Häggström: ”kan dröja ett århundrade eller mer, eller det kan röra sig om några få decennier.” Eftersom saker och ting utvecklas så snabbt inom AI så kom han ut med en uppdaterad version av sin bok under 2023 med ett tilläggskapitel. Där skriver professorn: AGI ”ligger betydligt tidigare än den gjorde för ett par år sedan.” När han pratar med de främsta AI-experterna så är det idag många fler som pratar om att det stora AI-genombrottet kan ligga endast några år framåt.

Men är inte snacket om AI bara en enorm hype? Vi har hört det förr. I framtiden kommer vi att få flygande bilar och åka i skytteltrafik till Mars! Blev det så? Nej, knappast. Det finns både kända tänkare som inte tror att AI kommer att utvecklas till något särskilt avancerat och ytterligare några som håller med om att AGI sannolikt kommer att utvecklas men att det inte kommer att vara någon som helst risk för oss människor. I kapitlet AI-förnekeri i boken Tänkande maskiner bemöter Häggström AI-kritiker som till exempel den kända psykologen och författaren Steven Pinker. Häggström erkänner att vi inte alls vet lika mycket om AI-risken som vi gör inom klimatområdet där kunskapsunderlaget är betydligt bättre. Men bara för att vi inte har några säkra svar så betyder inte det att det är intellektuellt godtagbart att säga vad som helst påpekar Häggström. Det kan ha sin plats att se positivt på världens utveckling som Pinker gör, men om vi ser allt rosaskimrande kan det få oss att vara blinda för reella hot. Till skillnad från tidigare teknisk utveckling så har vi med största sannolikhet bara en chans på oss när det gäller AI. Vi kan inte vänta med att bry oss om säkerhetsriskerna tills AGI är ett faktum för då är det antagligen för sent att göra något åt det. Tyvärr går det inte då att bara dra ut sladden. 

Om det nu finns en betydande risk för att vi kan utplånas vad finns det att göra för att undvika detta? En given åtgärd är att se till att mer resurser satsas på AI-säkerhet, forskning där man försöker hitta vägar för att framtida AI ska ta hänsyn till mänskliga (och helst även andra arters) intressen. Idag satsas endast en bråkdel av de resurser på AI-utveckling till AI-säkerhet. Det är inte acceptabelt. Det behövs också kraftfull lagstiftning som tvingar företagen att vidta säkerhetsåtgärder under utvecklandet och släppande av nya AI-program. Dagens läkemedelsföretag behöver gå igenom rigorösa tester styrt av lagar innan nya läkemedel släpps på marknaden. Detta är något som verkar fungera i stort sätt över hela världen, i både demokratier och diktaturer. Ett liknande regelverk skulle behövas för att reglera AI-företagen.

Cheferna i de största AI-företagen och världens politiker har möjlighet att påverka riskerna med AI. Men vad kan lilla jag göra åt frågan? kanske du undrar. Som med alla andra större samhällsfrågor så krävs det av oss medborgare att vi agerar. Politiker behöver känna att de har stöd av befolkningen för att våga genomföra förändringar (åtminstone de större). För detta krävs att vi i allmänheten visar att vi tycker att det här området är viktigt att agera kring. Eftersom frågan är så pass ny så är det i nuläget viktigt att vi blir fler som sätter oss in i ämnet och lyfter det så att riskerna blir debatterade runt om i vårt samhälle. Man behöver inte vara expert för att ha en åsikt i AI-frågan, lika lite som vi behöver kunna kärnfysik för att lyfta riskerna med kärnvapen eller vara klimatforskare för att engagera oss kring klimatkrisen. Detta är en allt för viktig fråga för att vi ska kunna lämna den åt experter och toppolitiker!

P.s. I den här texten har jag valt att endast beröra de AI-risker som Häggström kallar de högtflygande och inte lyft de mer jordnära riskerna som till exempel hur människor ska erhålla försörjning och meningsfull framtid när AI tar över allt fler jobb. Kanske det blir en text om detta på denna blogg vid ett senare tillfälle! 

Martin rekommenderar detta att läsa och lyssna på om AI
Tänkande maskiner av Olle Häggström
Uppföljningskapitel till Tänkande maskiner från 2023 som gratis går att ladda ner
Mitt eget urval av de viktigaste bitarna från boken Tänkande maskiner

The Precipice av Tony Ord
Human Compatible av Stuart Russle
Olle Häggströms blogg om AI
Kort video om AI-framtiden
Samtal om bland annat AI med Jonas Lundström och Martin i podd och på Youtube
Podden 80 000 hours gör djuplodande intervjuer om AI som jag har lärt mig mycket av
An Open Letter from AI and Robotics Researchers
​

Om man hellre än att läsa vill lyssna eller titta på något om AI så tipsar jag att ta något av namnen ovan och klistra in i valfri poddplattform eller på Youtube för att titta/lyssna på samtal eller föredrag.
​​
Picture
Boken Tänkande maskiner som jag lärt mig mycket av

aktivismpodden

1/3/2024

 
Nu under 2024 är tionde året som jag kör projektet Ett år för djuren, tänk vad tiden går! Förra året expanderade jag projektet så att min aktivism även täcker klimatet och bytte därför namn till Ett år för djuren och jorden. När jag var student på universitetet var världens fattigdom det som engagerade mig mest. Sen blev det fredsfrågan och kampen mot vapenexport som jag ägnade mig åt under många år. Som ni hör så har det blivit engagemang i många olika etiska frågor genom åren. Detta är något som jag hoppas kommer att avspeglas i den podd som jag nu släppt!

Poddformatet är något helt nytt för mig att testa. Som många av er vet så har jag jobbat en del med video med publiceringar av videoklipp på min egen Youtube-kanal och på andras som jag arbetar med samt videos på Facebook. Jag kommer fortsatt att jobba med video men poddformatet innebär en hel del fördelar. Det främsta är att fler och fler lyssnar på innehåll när de gör andra saker, vilket stämmer in på mig själv också. Jag lyssnar ofta på olika poddar när jag går och handlar, diskar och lagar mat. En annan fördel är att det kan vara mindre motstånd för flera att prata in i en mikrofon utan att samtidigt ha en kamera riktat mot sig. 

Min tanke är att ha olika typer av innehåll i podden. Ibland kommer det att vara samtal likt Jonas Lundström och jag hade i första avsnittet. Andra gånger kommer poddlyssnarna att följa med ut på veganläger, aktioner, manifestationer och rättegångar där tanken är att man ska höra pulsen av pågående aktivism för en bättre värld. Jag vill gärna höra vilken typ av material som du skulle vilja lyssna på! Jag tar också gärna emot hjälp att sprida denna podd. Den är än så länge registrerad på Spotify och Apple. Ha nu en riktigt god fortsättning på 2024 så hörs vi! 


    Kategorier

    All
    Aktivism
    Samtal

    Arkiv

    November 2024
    August 2024
    February 2024
    January 2024
    December 2023
    December 2022
    June 2022
    January 2022
    May 2021
    April 2021
    January 2021
    April 2020
    January 2020
    December 2019
    May 2019
    March 2019
    December 2018
    August 2018
    April 2018
    January 2018
    December 2017
    November 2017
    October 2017
    September 2017
    April 2017
    March 2017
    February 2017
    January 2017
    December 2016
    October 2016
    August 2016
    July 2016
    June 2016
    May 2016
    April 2016
    March 2016
    February 2016
    January 2016
    November 2015
    September 2015
    August 2015
    July 2015
    June 2015
    May 2015
    April 2015
    March 2015
    February 2015
    January 2015
    December 2014

    RSS Feed