För en månad uttryckte hundratals framstående AI-forskare, vetenskapsmän och företagsledare, inklusive OpenAI:s vd Sam Altman och Google DeepMind:s vd Demis Hassabis, djup oro för mänsklighetens framtid. I ett kortfattat brev till allmänheten varnade de för riskerna med den snabbt framstegande AI-teknologin.
Några veckor senare uttryckte fler än 40 procent av företagsledarna vid ett toppmöte vid Yale University att AI har potentialen att förstöra mänskligheten om fem till tio år.
På samma sätt har det låtit egentligen ända sedan i höstas då OpenAi:s ChatGPT slog igenom och AI hamnade på precis allas läppar – och nu är beslutsfattare världen över i en kapplöpning om att kontrollera och reglera den nya och snabbt växande teknologin.
I främsta led går EU. EU-parlamentet röstade för två veckor sedan ja till kommissionens förslag om den nya AI-akten och målsättningen är att lagen, efter förhandlingar med medlemsländerna, ska kunna träda i kraft innan årsskiftet.
Med tanke branschledarnas högljudda varningar om att den förestående AI-revolutionen bör tas på lika stort allvar som hotet från kärnvapen borde väl EU göra helt rätt som skyndar, eller?
Till att börja med bör det nämnas att OpenAI och Sam Altman, som varit en av de mest högljudda om behovet av reglering under det senaste halvåret, i kulisserna lobbat för att AI-lagstiftningen ska mildras så att det minskar den reglerande bördan för företaget. Det finns antagligen två orsaker till det. 1. De höga ropen på reglering är ett spel för gallerierna där man vill verka ansvarsfull i en fråga som oroar många, och 2. Lagstiftningen är för administrativt belastande.
När det gäller det första finns det anledning till oro även fast det råder olika uppfattningar om hur stor den borde vara. När det gäller det senare har europeiskt näringsliv redan höjt varningsflaggor för att regleringen kan leda till kraftiga förseningar när nya produkter och tjänster ska släppas på marknaden. Om det blir resultatet riskerar regleringen bli kontraproduktiv för europeisk innovation och tillväxt och det är förstås inte önskvärt.
Problemet är att AI-teknologin som utvecklas förändrar sig så snabbt att den är svår att reglera. Inte ens företagen som bygger teknologin vet själva hur framtiden ser ut, och att då skyndsamt försöka reglera på traditionellt sätt lär inte fungera.
AI-aktens många artiklar har beskrivits leda till omfattande byråkratisering och administrativ börda för företag och offentlig verksamhet. Carolina Brånby, jurist och policyansvarig vid Svenskt näringsliv, sade i en intervju i Dagens Industri i höstas att AI-akten ”kan skapa en regulatorisk osäkerhet och en administrativ börda som kommer kosta väldigt mycket pengar. Och båda de här sakerna är ju någonting som inte attraherar investeringar och som försvårar innovationsmöjligheter”.
Frågan är om det ens går att reglera AI genom någon form av helhetsgrepp. Tekniken utvecklas i rask takt och lagstiftningsapparaturen är som bekant allt annat än rask. Det är inte fråga om att vi inte ska följa med och förhålla oss till riskerna, men i hanteringen av ny och banbrytande teknik som har potential att förändra hela samhället måste vi kanske börja tänka i nya banor.
Vi vet ju till exempel att många ännu i dag ligger efter med att implementera GDPR, och det vi nu pratar om är någonting helt annat.
Det finns med andra ord ingen anledning för EU att skynda snabbare än någon annan. Om EU i ett tidigare skede väljer att gå in för en mer omfattande traditionell reglering än till exempel Kina och USA riskerar det slå mot europeisk konkurrenskraft och skrämma i väg möjligheter som vi annars hade kunnat dra nytta av. Innovativa företag och personer lär inte stanna kvar i Europa om regelverken blir för snåriga.
EU borde i stället avvakta, inhämta behövlig kompetens och bygga en juridisk apparat som är skräddarsydd för att möta utmaningar inom AI-området på ett snabbfotat och effektivt sätt. Det betyder att risker ska kunna identifieras och med en klar analys av konsekvenserna snabbt angripas med målinriktade insatser.
Kevin Eriksson