Innan jag dyker ner i det som rubriken utlovar vill jag först påpeka att jag framför allt ägnar min tid åt att lyfta möjligheterna som AI ger oss – primärt kopplat till den gröna omställningen. MEN! AI-utvecklingen är en paradox och kommer både med värdefulla möjligheter och potentiella hot. Här hittar du texten som behandlar möjligheterna.
Nu till riskerna.
Bara den som levt under en sten har missat den allt livligare debatten kring de potentiella hot som AI också kommer med. Tankegångarna är inte nya. Vi har länge pratat om att vi kommer att behöva reglering när det exempelvis gäller dödligt våld utfört av robotar utan mänsklig inblandning. Att vi kommer att behöva definiera var vi drar gränser kring vad som är mänskligt. Vill vi tillåta så kallade "designer babies" där vi gör ändringar i ett embryos DNA för att korrigera sjukdomar eller för att addera vissa önskade egenskaper? Ska det vara ok att låta vuxna personer uppgradera sina hjärnor genom att addera ett chip som ger dem tillgång till AI? Och därmed uppgraderas till supermänniskor...
Martin Rees är en brittisk astrofysiker, kosmolog och författare. I boken Om Framtiden – Mänsklighetens Utmaningar (2019) skriver han bland annat:
“Mänsklighetens överlevnad i detta århundrade och in i den mer avlägsna framtiden vilar på den snabba utvecklingen av vissa teknologier, samtidigt som man begränsar andra.”
Frågorna har diskuterats ett tag på massvis av olika håll. Det som dock är nytt är att vi inte längre pratar om någon avlägsen framtid. I och med de senaste årens stora genombrott kryper de eventuella AI-hoten allt närmare inpå.
I början av 2023 gick tungviktare som Steve Wozniak (medgrundare Apple), Yaval Noah Harari (historiker och en av mina personliga favorittänkare), Andrew Yang (entreprenör och tidigare kandidat till det amerikanska presidentvalet), Elon Musk (beskrivning överflödig) och en mängd AI-forskare ut med ett öppet brev där de uppmanar alla AI-labb att omedelbart pausa sin AI-utveckling, åtminstone i sex månader. De menar att vi nu på allvar behöver ställa oss själva en rad grundläggande frågor;
Ska vi tillåta maskiner att få våra informationskanaler att svämma över av propaganda och osanningar?
Ska vi automatisera bort alla jobb, inklusive sådana arbetsuppgifter som vi upplever som meningsfulla och tillfredsställande?
Ska vi låta maskinerna utveckla icke-mänskliga förmågor och sinnen som så småningom överträffar och överlistar oss? Och som riskerar att göra människan föråldrad?
Ska vi verkligen riskera att vi, i och med den snabba AI-utvecklingen, förlorar kontrollen över civilisationen?
Budskapet i brevet är tydligt; det finns enorma eventuella risker med AI. Och dessa risker tenderar att bli större ju snabbare utvecklingen går. Man ställer sig också frågan kring vem som borde sitta i förarsätet av utvecklingen. Så som det ser ut nu är det icke folkvalda AI-experter som kan komma att avgöra vår kollektiva framtid.
I början av maj 2023 sa ”the godfather of AI” upp sig från Google för att även han skulle kunna ansluta sig till skaran som varnar för farorna. Denna gudfader heter Geoffrey Hinton och är en av nyckelpersonerna bakom den imponerande utvecklingen inom djupinlärning och det man kallar för neurala nätverk. Mer avancerade former av AI som bland annat ligger till grund för ChatGPT och Google Bard.
Hinton har bland annat varit en av många andra experter som skrivit under ett "Statement on AI Risk" som Centre for AI Safety står bakom (30 maj 2023).
I intervjun med Cade Metz från New York Times lyfter Hinton olika typer av risker som han ser framåt. Risker som varierar beroende på vilken tidshorisont vi pratar.
I perspektivet nutid/närtid flaggar Hinton för en rad utmaningar som följer kopplat till generativ AI, där maskiner skapar innehåll åt oss utifrån våra instruktioner; bilder, filmer, texter, musik osv. Här flaggar Hinton bland annat för "hallucinations” – att när en AI inte kan svaret på en fråga tenderar den att inte bara hitta på, utan också paketera sina svar på sätt som upplevs som tvärsäkra. En annan nutida utmaning hittar vi i bias, där algoritmerna riskerar att skapa innehåll och rekommendationer som är snedvridna och fulla med fördomar.
Dessa två ovan nämnda utmaningar är biprodukter av hur vi människor agerar. Människor skriver saker på nätet som inte är sant. Fördomar finns i överflöd på plattformar som Twitter & Reddit. Och så vidare. Dessa utmaningar menar dock Hinton går att lösa, även om det inte är helt enkelt.
Det gudfadern av AI framför allt ser som det stora problemet i närtid är en kommande flodvåg av disinformation.
”I see that as a huge problem not being able to know what’s true anymore”
När vi blickar framåt lär vi se massvis av falska bilder, videos och texter som komponerats av tekniken. Och där AI dessutom hjälper till att få spridning på falsk information och förstärker all typ av propaganda, med resultatet att vi tillslut inte kommer att kunna lita på något som vi ser online. En inte alltför vild gissning (min egen) är att vi kommer att få se detta tillämpas med full kraft i det kommande amerikanska presidentvalet. Gissningsvis med stora AI-insatser från ryskt håll för att ge stöd till Donald Trump.
På medellång sikt lyfter Hinton andra typer av utmaningar som han tror att AI kommer att medföra. Dessa utmaningar menar han framför allt handlar om jobben. Idag tenderar AI-lösningar att komplettera människor i våra arbeten, men Hinton är rädd för att de allt mer kommer att ersätta oss i takt med att tekniken utvecklas ytterligare.
De orosmoln som Hinton ser på längre sikt handlar bland annat om hur AI kan komma att användas inom krigsföring, där tekniken riskerar att sänka ribban för länder att gå in i krig med varandra. Men också att AI på andra sätt kommer att användas för att uppnå makt och kontroll.
Här kan du lyssna på den uppmärksammade intervjun med Geoffrey Hinton.
Avslutningsvis skulle jag också vilja tipsa om det samtal som jag själv uppskattar mest på temat – nämligen när Ajeya Cotra, senior analytiker på Open Philanthropy, gästar en av mina favoritpoddar Hard Fork (minut 22 & framåt).
Knyta ihop AI-säcken
Hur knyter vi då ihop AI-säcken som uppenbarligen kommer med både livsviktiga nya möjligheter och megastora potentiella utmaningar? Jag väljer att återkoppla till det som Marin Rees har sagt; att vi både behöver dra nytta av den snabba tekniska utvecklingen (där AI är en av verktygen i verktygslådan) samtidigt som vi begränsar utvecklingen inom andra områden.
Som vanligt kokar det ner till oss människor av kött och blod. Trots imponerande smarta AI-modeller är det till syvende o sist vi som behöver jobba för att framtiden ska gynna oss.
Det är vi som behöver fixa framtiden.
Här kan du läsa hela texten om AI-paradoxen där hoten balanseras upp med helt nya möjligheter som samma teknik ger oss.
/ Judith