Remissvar över SOU 2025:12 AI-kommissionens Färdplan för Sverige
Fler format
Inledning
Den ökande användningen av generativa AI-applikationer har lett till en större integration av AI i många människors dagliga liv i Sverige, både hemma och på jobbet. AI-kommissionens Färdplan för Sverige består av en kombination av resonemang kring hur Sveriges väg framåt bör se ut, konkreta förslag på åtgärder som ska stärka det svenska AI-ekosystemet samt visioner om mål som skulle kunna uppnås i framtiden.
Men denna tekniska utveckling är inte neutral – teknik är också politik.
Beslut om vilka tekniska system den offentliga förvaltningen bygger och använder handlar ytterst om vilket samhälle vi vill leva i och vilken värld vi vill skapa. Tekniska vägval omfördelar makt, resurser och möjligheter i samhället.
För att skapa en större delaktighet i den stora förändringen har vi skapat Folkets AI-kommission – ett upprop för att flera perspektiv och nyanser ska få plats och utrymme att forma framtiden med hjälp av ny teknik.
Detta remissvar på AI-kommissionens Färdplan för Sverige är startpunkten och en inbjudan till ett bredare offentligt samtal om en utveckling och användning av AI som utgår från respekt för grundläggande värderingar om rättssäkerhet, demokrati och mänskliga rättigheter. Här beskrivs och problematiseras områden som behöver belysas, eller förtydligas, för att utgöra ett balanserat underlag för ansvarsfulla politiska beslut som gagnar samhället både idag och framöver.
Sverige, den 4 juni 2025.
Synpunkter på AI-kommissionens Färdplan
I december 2023 tillsatte regeringen AI-kommissionen (Dir. 2023:164) med uppdrag att identifiera behov av och lämna förslag på åtgärder för att stärka AI-utvecklingen i Sverige. AI-kommissionen erhöll fem specificerade uppdrag som skulle resultera i analyser, konkreta förslag och författningsförslag.
- Grundförutsättningar för AI-utveckling (forskningsmiljöer, kompetensutveckling, statlig infrastruktur, internationellt samarbete och statens roll)
- Sveriges internationella AI-roll för konkurrenskraftig, säker och etisk AI (EU-påverkan, globala partnerskap)
- Åtgärder för en ökad AI-användning i offentlig förvaltning (datadriven innovation, dataförsörjning, policyutveckling, samverkan, digitalisering av kärnprocesser och standardiserade modeller)
- Attrahera riskkapital och underlätta innovation för stärkt konkurrenskraft (AI-investeringar, samarbeten på relevanta marknader och regulatoriska testbäddar)
- Analysera hur AI kan påverka och främja Sveriges säkerhet och motverka otillbörlig påverkan på demokratin (innovation inom säkerhet, skydd av offentligt samtal och forskningsprioriteringar)
AI-kommissionen valde att "tidigarelägga rapporteringen till regeringen och att presentera arbetet genom att ta fram grunden till en nationell AI-strategi som regeringen bör anta" (s. 7–8, Sammanfattning). Uppdraget redovisades som en sammanhållen färdplan med 75 förslag grupperade i fyra tematiska kapitel.
AI-kommissionens rapport innehåller värdefulla insikter och behandlar alla fem huvuduppdrag från direktiven. Men formen försvårar uppföljning av hur varje specifikt uppdrag besvarats. Dessutom saknar Färdplanen den metodiska transparens och systematiska evidensbas som krävs för trovärdiga policyrekommendationer.
En snäv och tekno-ekonomisk problemformulering
AI-kommissionen ändrade sitt uppdrag med hänvisning till följande problemformulering som understryker ett akut handlingsbehov:
"Sverige halkar efter andra länder inom AI. Till exempel har Sverige fallit från plats 15 i 2020 års upplaga av The Global AI Index (GAII), till plats 25 i 2024 års upplaga. I delindexet Politisk Styrning ligger Sverige så lågt som plats 57 utav de 83 länder som ingår i 2024 års upplaga av GAII" (s. 11, Konsekvensutredning).
Huvudproblemet identifieras som att "för Sveriges del är bristen på ledarskap en central svaghet i ekosystemet. Denna brist härrör från att den nuvarande styrningen av AI är starkt präglad av den svenska förvaltningsmodellen" (s. 11–12, Konsekvensutredning). Utifrån denna analys pekar AI-kommissionen ut fyra kärnproblem:
- Sverige faller i internationella AI-rankingar
- Bristande politiskt ledarskap
- Svenska förvaltningsmodellen skapar "stuprörstänkande och fragmentering"
- Brist på samordning hindrar utveckling
AI-kommissionens problemformulering är anmärkningsvärt snäv och prioriterar tekno-ekonomiska mätetal framför grundläggande samhällsutmaningar som AI-utvecklingen medför.
Denna problemdiagnos används även för att motivera att tidigarelägga rapporteringen och skapa en AI-strategi i stället för att leverera de konkreta analyser som begärdes.
Det kan ifrågasättas om rankingpositioner och förvaltningsutmaningar motiverar att överge ursprungsuppdraget. Särskilt när denna snäva problemformulering systematiskt utesluter de mest fundamentala frågorna om AI:s samhällseffekter.
Frånvaron av analys kring arbetslöshet och fördelningseffekter, integritet och övervakningsrisker, demokratiska processer, maktkoncentration, social rättvisa och medborgerligt inflytande gör att AI-kommissionen förvandlar AI från en samhällsfråga till en teknisk-ekonomisk optimeringsfråga.
Bråttom-faktorn – ett demokratiskt problem
AI-kommissionen menar att "AI är en systemövergripande teknologi som förväntas påverka samhället som helhet", en omställning av den karaktären kräver tvärvetenskapliga team och flernivåsamverkan. Därför är det problematiskt att Färdplanen genomsyras av en retorisk "bråttom-faktor". Den dominerande berättelsen är att "Sverige ligger efter. Det är bråttom. Vi hinner inte vänta."
Med hjälp av bråttom-faktorn kringgår Färdplanen behov av förankring av en sådan stor samhällelig förändring, både hos medborgarna och i demokratiska processer.
Integritet och säkerhet
I direktivet får AI-kommissionen uppdraget att analysera och föreslå hur Sverige proaktivt kan bidra till utformningen av internationella policyer och regelverk inom AI-området, i synnerhet genom EU, i syfte att främja en konkurrenskraftig, säker och etisk AI. Dessutom har AI-kommissionen i uppdrag att analysera hur användning av AI kan påverka och främja Sveriges säkerhet och motverka otillbörlig påverkan på demokratin.
Inom säkerhetsområdet tillför AI-kommissionen inga sammanhållna analyser utan radar upp redan kända generella förhållanden utan tydlig koppling till just AI. Det nämns försörjningsberedskap, beräkningskraft och den översiktliga risken för att AI används i krigföring och desinformationskampanjer. Detta leder inte fram till några konkreta nya förslag utom att det behövs bedrivas mer forskning dels inom Cybercampus och i ett nytt AI-säkerhetsinstitut.
Att kunna skydda information för obehörig åtkomst och att ha en minimalistisk åtkomstprincip är grundläggande för allt säkerhetsarbete. För att gynna myndigheters och företags AI-utveckling är emellertid AI-kommissionen beredd att sätta både säkerhet och individens rätt till integritet ur spel:
"Utgångspunkten bör vara offentlighet mellan myndigheter i stället för sekretess när det gäller skydd för enskildas personliga och ekonomiska förhållanden. Sekretess är fortsatt lämpligt i vissa fall, men det bör vara undantaget, inte regeln" (s. 39, Data som en förutsättning för AI-utvecklingen).
AI-kommissionen rekommenderar också regeringen att se över hela tillämpningen av dataskyddsförordningen, med hänvisning till uppfattningar från vissa aktörer att den kan vara hindrande för AI-utveckling. Detta väcker frågor om säkerhet, eftersom förslaget skulle kunna innebära att informationsmängder med individers känsligaste uppgifter flyter inom och mellan myndigheter utan systematisk prövning av åtkomstbehov – något som riskerar att skapa svåröverskådliga säkerhetsproblem.
Samtidigt väljer AI-kommissionen att se amerikanska molntjänster som en fördel snarare än att problematisera digital suveränitet i ett försämrat säkerhetspolitiskt läge. I dagens omvärldssituation borde frågan om europeiska aktörers beroende av utländska leverantörer av molntjänster ha varit central för säkerhetsanalysen.
AI-kommissionens förslag att vända på sekretessprinciperna – göra öppenhet till regel och sekretess till undantag – är ett oacceptabelt hot mot rättssäkerheten.
Relation mellan näringsliv och offentlig förvaltning
AI-kommissionen tycks betrakta offentlig sektor som en råvarukoloni vars syfte är att tillhandahålla värdefulla data till näringslivet. Till exempel betonas återkommande Sveriges "värdefulla tillgång till data" och hur denna ska göras tillgänglig för innovation och konkurrenskraft – med mindre fokus på hur data kan förbättra själva verksamheten.
Styrningsförslagen i AI-kommissionens Färdplan visar tydliga drag av New Public Management. Alla myndigheter ska få återrapporteringskrav om AI-implementering och
"Regeringen har även möjlighet att driva på enskilda myndigheter som den uppfattar ligger efter i sin AI-utveckling. Det sker genom att ge mer specifika uppdrag om att öka AI-användningen, utreda vilka av myndighetens verksamheter som skulle kunna utföras med stöd av AI och ta fram en AI-strategi eller liknande uppdrag" (s. 118, Ledarskap och styrning för att genomföra Färdplanen).
Att regeringen skulle lägga sig i myndigheternas inre liv på detta sätt strider mot svensk förvaltningstradition och leder knappast till ökad effektivitet. AI-kommissionens syn på AI som ett egenvärde riskerar att snedvrida den offentliga verksamhetens inriktning. När AI-implementering blir målet finns risk för att tekniken blir viktigare än uppdraget.
AI-kommissionen använder genomgående ett okritiskt perspektiv på teknikutveckling i allmänhet och på AI i synnerhet. Detta känns igen från forskningsstudien “Toward intelligence or ignorance? Performativity and uncertainty in government tech narratives” där forskarna använder begreppet optimistiska ”tech narratives”. Dessa narrativ karaktäriseras av ofta överdriven optimism som ytterligare förstärks av påståenden som att den tekniska lösningen sannolikt kommer att leda till ännu större fördelar med tanke på utvecklingshastigheten. Som exempel analyserar forskarna narrativet att Sverige kan spara 140 miljarder kronor per år genom att använda AI – en siffra som har gått från att vara en grov uppskattning till att bli ett generellt argument. Siffran har använts om och om igen, utan att någonsin verifieras.
I en delrapport lyfter Myndigheten för digital förvaltning (Digg) metodologiska förbehåll för uppskattningen om 140 miljarder. Beräkningen tar inte hänsyn till implementeringssvårigheter, införandekostnader eller övergångskostnader för personalutbildning. Nyttan överskattas eftersom siffran visar bruttovärde, inte nettovärde. Även AI-kommissionen lyfter att beräkningen saknar implementeringskostnader men låter ändå denna osäkra bruttosiffra utgöra grunden för sin ekonomiska argumentation.
"Med det uppskattade ekonomiska värdet, som illustreras av exemplen ovan, kommer ett fullständigt införande av AI i svensk offentlig förvaltning att ge en avsevärd ekonomisk nytta. I en grov uppskattning som Digg och konsultfirman McKinsey gjorde 2020 handlar det om cirka 140 miljarder kronor per år. Det motsvarar omkring fem procent av de totala offentliga utgifterna. Den siffran utgår dock från att man använder de AI-tjänster som fanns på plats vid tidpunkten för beräkningen. Efter detta bör potentialen ha ökat ytterligare, eftersom AI-tekniken har gjort stora framsteg sedan dess" (s 97, Det uppskattade ekonomiska värdet).
AI-satsningar i offentlig sektor bör utgå från verksamheternas egna behov och samhällsuppdrag, inte från en marknadsorienterad teknikoptimism som riskerar snedvridna prioriteringar. Offentlig sektor måste även tillmätas betydelse i sin egen rätt, inte bara som servicefunktion för företag.
Saknade perspektiv i Färdplanen
Makt, demokrati och delaktighet
Trots att AI-kommissionen har som uppdrag att analysera hur AI kan motverka otillbörlig påverkan på demokratin, behandlas de systemiska demokratiska riskerna endast ytligt. AI-kommissionen beskriver att "Målet är en framtid där AI används som ett verktyg i medborgarnas och mänsklighetens tjänst" (s. 12, Konsekvensutredning). Tyvärr saknas konkreta förslag för hur denna målsättning ska uppnås, i alla fall om innebörden är att medborgarna själva ska få påverka hur de vill att AI ska användas.
När AI-kommissionen återkommande använder "vi" i utredningen är den outtalade innebörden att detta "vi" endast omfattar de som redan besitter ekonomisk och politisk makt. Övriga invånares delaktighet begränsas till att vara kompetenta nog att använda de lösningar som tillhandahålls av arbetsgivare, myndigheter och företag. Sammantaget präglas rapporten av ett renodlat överhetsperspektiv.
Två avsnitt i rapporten – "AI för alla" och "Ledarskap och styrning" – hade varit naturliga platser att diskutera makt, demokrati och delaktighet. I stället handlar "AI för alla" i huvudsak om kunskapshöjande insatser i syfte att öka legitimiteten och acceptansen för den omställning som sker. Folkbildning reduceras till konsumentutbildning och till en distributionskanal för färdiga budskap, inte som en demokratisk bildningsprocess. Ökad möjlighet till delaktighet och påverkan diskuteras inte alls. Inte heller i avsnittet om ledarskap och styrning diskuteras hur dessa faktorer skulle kunna utvecklas mot ökad delaktighet.
Avsaknaden av en djupare analys av demokratisk påverkan och medborgerlig delaktighet blir särskilt påtaglig när AI-kommissionen omformulerar sitt uppdrag till ett "AI-ekosystem". Om AI verkligen är så systemövergripande som kommissionen hävdar, borde grundläggande konstitutionella principer och demokratiska värden ha varit centrala komponenter i detta ekosystem.
Helhetsintrycket är ett dokument som behandlar AI:s genomgripande samhällseffekter utan att adressera de fundamentala maktförskjutningar och demokratiska utmaningar som tekniken medför. Rapporten undviker systematiskt de mest grundläggande frågorna om makt, demokrati och medborgerliga rättigheter i den digitala tidsåldern.
Det mest problematiska är att AI-kommissionen erkänner AI:s systemövergripande karaktär men ignorerar de systemövergripande demokratiska konsekvenserna.
Det saknas en djupare analys av hur demokratiska värden ska genomsyra AI-utvecklingen från grunden. Denna brist gör rapporten till ett teknokratiskt dokument snarare än en genomtänkt analys av AI:s roll i ett demokratiskt samhälle. Hur kan AI tjäna medborgarna om medborgarna inte får påverka hur den utvecklas?
Definitionen av AI
Färdplan för Sverige erbjuder ingen direkt hjälp till läsaren med tolkningen av begreppet som är kärnan i hela rapporten. En vägledning för AI skulle behöva bli mycket mer precis gällande vilken teknik den egentligen pratar om. Det kan till exempel bli fel när man pratar om kraften hos probabilistisk AI (ofta syntetisk text eller bild) men ger exempel från deterministisk AI (som alltid bara ger ett och samma svar för samma fråga) för att göra en poäng om AI-verktygens nytta. Det är helt olika typer av verktyg. Det blir inte samma teknik, eller ens intelligent teknik, bara för att vi kallar dem "AI".
Inte sällan pratas det helt enkelt om olika typer av automatisering när begreppet "AI" används. Ordet automatisering skulle förmodligen vara ett mer rättvist begrepp, som inte missbrukas lika mycket i syfte att förföra eller förvilla. Men en målbild och vision måste trots allt kategorisera, peka på, och förklara för läsaren vilka typer av system den avser och tar hänsyn till när den gör utfästelser om framtida effekter. Det räcker inte att samla precis all teknik under "AI"-paraplyet och ha det som lösning för alla tillämpningar.
Om alla människor ska utbildas i AI, och om det uppmanas att offentlig sektor ska börja använda AI, så borde det allra minst framgå vad man menar med "AI" i dessa fall.
Etik och påverkan
Färdplan för Sverige lyfter behovet av etiska riktlinjer vid användning av AI men saknar resonemang om alla de etiska frågeställningar som är relevanta innan AI ens är aktuellt för användning. Mänskliga rättigheter handlar om långt mer än hur AI används i ett givet sammanhang och sträcker sig hela vägen från hur AI-system utvecklas, till vad som krävs för deras vidmakthållande och vilken fysisk påverkan de längs vägen har på människa, miljö och natur.
Etiska frågeställningar är inte bara en checklista för hur man ska använda AI inom sin organisation, utan innebär en uppmaning att utforska grundläggande frågor om makt, frihet, samhällsstruktur och rättvisa. Att aktivt och okritiskt anamma och använda AI innebär en acceptans för AI-systemens sakförhållanden, det vill säga hur de byggs och hur de driftas.
AI-utvecklingen vilar på omfattande exploatering av arbetskraft. I länder som Filippinerna, Uganda, Indien och Kenya arbetar så kallade ”data labelers” långa dagar för småpengar med att kategorisera bilder och filmer. ”Content moderators” i samma regioner bevittnar våld och övergrepp för att säkerställa att dessa hemskheter sorteras bort för vanliga användare.
Språkmodeller behöver oerhört mycket innehåll när de skapas, och mycket innehåll betyder ofta att man måste gå långt tillbaka i tiden för att samla material till maskininlärningen. Samtidigt finns omöjligen kapacitet att granska allt innehåll som lyfts in i systemen. Det får bland annat följden att nutida fördomar effektivt bygger vidare på historiska fördomar utan närmare insyn.
Användning av språkmodeller inom hälso- och sjukvård har visat sig kunna leda till uttryck som är direkt felaktiga, eller till och med rasistiska och diskriminerande. Rasstereotyper och missuppfattningar som läkare och forskare ägnat decennier åt att försöka lägga bakom sig dyker upp igen.
AI-utvecklingen medför också omfattande miljökonsekvenser som sällan diskuteras. Datacenter för AI kräver enorma mängder energi i en tid när världen drastiskt behöver minska klimatutsläppen, samtidigt som de påverkar lokala samhällen genom ökad vattenförbrukning, elektroniskt avfall och ljudföroreningar. Dessutom utvinns de mineraler som krävs för AI-infrastrukturen ofta under förkastliga arbetsförhållanden i fattiga länder. AI-kommissionen behandlar miljöproblem nästan uteslutande som något AI kan lösa, inte som något AI kan orsaka.
Insikterna om hur tekniken redan idag – här och nu – påverkar välbefinnande, andras och egen, har redan skapat motstånd till vilja att använda den med hänvisning till etiska övertygelser.
Ur ett demokratiskt perspektiv behöver medborgare kunna välja att inte använda teknik som de i någon mån bedömer som skadlig för människa eller miljö.
Slutsats
AI-kommissionens Färdplan för Sverige har en teknikdeterministisk grundsyn och presenterar AI-utvecklingen som en oundviklig kraft snarare än som en serie politiska val. Detta perspektiv begränsar diskussionen till hur vi ska anpassa oss till tekniken, medan den viktigare frågan – vad vi vill uppnå med tekniken – hamnar i bakgrunden. Resultatet blir en strategi präglad av "vi måste hänga med"-tänkande i stället för målmedveten teknikstyrning.
Färdplanens främsta begränsning ligger i synen på medborgarnas roll i AI-utvecklingen. I stället för att positionera medborgarna som individer med agens att forma teknikens riktning, framställs de som mottagare av en förutbestämd förändring. Färdplanen saknar tydliga mekanismer för demokratiskt inflytande – medborgarna erbjuds att anpassa sig till AI-utvecklingen, men inte att styra den.
AI-kommissionen beskriver Färdplanens syfte som att "ge en riktning och visa på det ledarskap som efterfrågas av näringslivet, offentlig sektor, och det svenska samhället i stort" (s. 8). För att en nationell strategi ska kunna ge verklig vägledning krävs dock bred förankring – både i utgångspunkt, riktning och målbild. Särskilt under stora samhällsomställningar måste det vara tydligt vad som görs, varför det görs, hur det ska genomföras och vems intressen som representeras.
Det fortsatta arbetet med AI kräver därför tre centrala komponenter: en bredare samhällsdialog, demokratisk infrastruktur som möjliggör medborgarinflytande och en grundläggande maktanalys som synliggör vems intressen som gynnas av olika teknikval. Endast då kan AI-utvecklingen bli ett verktyg för ett demokratiskt och hållbart samhällsbyggande.
Skribenter
Fia Ewald – informationssäkerhetsexpert och skribent
Jonna Steinrud – sakkunnig inom MIK, utbildare och författare
Maria Ottoson – utforskar och föreläser om teknikens samhällspåverkan
Per Axbom – utbildare, skribent och rådgivare inom digital etik
Terese Raymond – skribent och expert inom digital inkludering
MIK = Medie- och informationskunnighet
Underskrifter
Pontus Wärnestål – fil dr i datalingvistik, forskare, författare och designer
Lena Halldenius – professor i mänskliga rättigheter
Marika Alneng – författare och sakkunnig inom MIK
Moa Petersén – docent i digitala kulturer
Jonas Söderström – expert inom digital arbetsmiljö, författare och utbildare
Katarina Gidlund – professor i informatik
Ola Nilsson – redaktör och utbildare inom MIK
Linda Paxling – tekn. dr i teknovetenskapliga studier, forskare och utbildare
Ann Wiklund – konsult digital delaktighet och biblioteksutveckling, pensionär
Karin Ekelund Malmros – expert inom kognitiv tillgänglighet
Åsa Holmberg – strateg med fokus på samhällsdigitalisering och inkludering
Ola Berg – förändringsstrateg och digital ledarskapsutvecklare
Charlotte Ovesson – statistiker och sakkunnig inom jämlikhet och funktionsrätt
Stefan Johansson – tekn. dr i människa datorinteraktion, forskare och expert på tillgänglighet och användbarhet
Maria Nordmark – konceptutvecklare och innovationsledare
Linnéa Jönsson – bibliotekarie, redaktör och skribent inom MIK
Kerstin Beckman – civilingenjör i medieteknik, skribent och debattör om AI och samhälle
Lars Lindsköld – med.dr . President EFMI
Karin Nissfolk – AI-säkerhetskunnig
Leo Ringqvist – administratör
Marcus J. Österberg – analytiker
Daniel Brahneborg – programmerare
Anna Lewerth – UX Designer och tillgänglighetsspecialist
Simon Hillfors – utvecklingsledare kommunal utveckling (RSS) digitalisering
Tony Nicolaides – key account manager
Inger Aspåker – utvecklingsstrateg & innovationsledare
Kim Dahlroth – konverteringsspecialist
Christer Rosenberg – senior advisory consultant, health care / life sciences specialist in general medicine
Jutta Haider – professor i biblioteks- och informationsvetenskap
Staffan Hesselbom – senior UX Designer med fokus på tillgänglighet
Ali Mohamed – postdoc researcher in HCI and digital accessibility
Madeleine Ceder – crm-specialist
Mikael Schriwer – senior rådgivare informationssäkerhet/dataskydd
David Högberg – testledare
Jan Johannesson – säkerhetsexpert, projektledare
Fredrik Stål – frilansande copywriter och fotograf
Karin Hagelström – UX Designer
Emma Höij – organisationsutvecklare och förändringsledare
Annika Weman Widegård – utvecklingsstrateg
Carl Gylling – medborgare
André Mabande – teknisk skribent, informationsarkitekt med fokus på tillgänglighet
Mattias Hjelm – funktionsledare och utvecklare inom informationsdelning
Jörgen Andersson – business analyst & facklig aktiv
Ann Gulbrandsen – fd IT-konsult inom informationsarkitektur
Torbjörn Näslund – expert/sakkunnig inom informationssäkerhet, organisatoriska aspekter av införande av IT-system, samt människa-datorinteraktion
Maria Jacobson – kommunikation & AI
Henrik Hemrin – komponentingenjör (elektronik), komponenthanteringsprocess, högskoleexamen i mänskliga rättigheter
Jin Moen – tekn dr människa-datorinteraktion, fd programchef IoT Sverige, projektledare för standardisering inom informationssäkerhet, cybersäkerhet och integritetsskydd
Daniel Nilsson – IT-chef
Joakim Waern – barnkultursamordnare
Håller du och också med om innehållet i remissvaret och vill lägga till ditt namn bland underskrifterna?