Det är Myndigheten för digital förvaltning (Digg) och Integritetsskyddsmyndigheten (IMY) som har fått i uppdrag att ta fram vägledande riktlinjer, som nu presenteras för regeringen.
Riktlinjerna gäller generativ AI, alltså modeller som kan skapa nytt innehåll som text och bilder. De är uppdelade på flera olika områden – som ledning och ansvar, informationssäkerhet, upphovsrätt, etik och upphandling.
Man slår bland annat fast att offentliga aktörer bör utforma en AI-policy för sin verksamhet. Alla beslut med stöd av generativ AI bör ha mänsklig kontroll. Man bör använda AI med inbyggt skydd för enskildas rättigheter. Och det bör finnas transparens och tillgång till beslut och underlag.
"Jättestor utmaning"
Hur behandlas personuppgifter som matas in i ett AI-system? Kan man lita på att systemet inte genererar snedvriden eller partisk information som leder till diskriminering av enskilda eller grupper?
Sammantaget står offentlig verksamhet inför mängder av viktiga avgöranden för att AI-användningen ska kunna ske och samtidigt följa lagar och regler.
Det är en intelligens vi pratar om, och som många experter menar ska kunna agera autonomt och självständigt. Det är en jättestor utmaning, säger Mats Snäll, som är senior rådgivare på Digg.
Många användningsområden
Han påminner samtidigt om att generativ AI kan lösa många uppgifter och underlätta för både verksamheten och de enskilda medborgarna.
Mycket har handlat om översättning, transkribering och kring det med att lämna ut allmänna handlingar. Särskilt för dem som lämnar ut allmänna handlingar i väldigt stor omfattning där man måste granska tiotusentals sidor och blanka ut sådant som är känsligt. Då kan man ju använda juristerna till betydligt viktigare uppgifter i en organisation, säger Mats Snäll.