Debatt

Utvecklingen av AI kräver reflektion kring etik och reglering

Den nya artificiella intelligensen kommer med stormsteg. Nu gäller det att den svarar upp mot krav på ansvar, redovisningsskyldighet och transparens, skriver Alexander Thorell.

Artificiell intelligens, AI, har kommit för att stanna, vare sig vi vill det eller inte. Vad görs, och vad behöver göras, för att den AI som produceras ska komma till nytta för mänskligheten och samtidigt inte bli till skada för individer, samhällen eller vår värld?

Om du är fundersam över vad införandet av AI kan innebära för mänskligheten kan jag trösta dig med att du inte är ensam. Det finns flera initiativ för att reglera och skapa etiska principer för framställande av AI.

Virginia Dignum, professor i social och etisk AI vid Umeå universitet, beskriver i sin bok Responsible Artificial Intelligence tre karaktärsdrag hos AI:

Autonomi – förmågan att kunna göra oberoende och fria val

Anpassningsbarhet – att kunna lära sig utifrån egna erfarenheter och anpassa sig efter förändringar i miljön

Interaktivitet – att uppfatta och interagera med andra agenter

För att få ansvarsfull och tillförlitlig AI måste dessa karaktärsdrag, enligt Dignum, motsvaras av krav på ansvar, redovisningsskyldighet och transparens.

Vi har alla ett ansvar att utifrån förmåga och möjlighet se till att den AI som omger oss är gjord på ett ansvarsfullt och tillförlitligt sätt.

—  Alexander Thorell

När vi låter AI-system lära sig och agera själva är risken att det uppstår oförutsedda negativa konsekvenser. För att motverka det behövs förståelse för hur systemen fungerar, och processer för att förutse, fånga upp och korrigera dessa problem.

Här finns behov av reflektion kring etik samt kunskap inom psykologi, statistik, juridik och säkerhet. Dignums bok kan läsas och förstås av de flesta som vill veta mer om hur man skapar ansvarsfull och tillförlitlig AI.

OECD, Organisationen för ekonomiskt samarbete och utveckling, har tagit fram principer för hur regeringar och andra aktörer kan forma ett människocentrerat förhållningssätt för att skapa tillförlitlig AI som respekterar mänskliga rättigheter och demokratiska värden. Principerna innefattar att:

  • eftersträva att utfallet av AI-system gynnar mänskligheten och planeten
  • systemen ska respektera lagar, mänskliga rättigheter och demokratiska värden
  • förbinda sig till transparens och förklarbarhet
  • systemen ska vara robusta och säkra
  • AI-aktörer ska kunna hållas till svars för att systemen fungerar enligt principerna och kunna redovisa viktiga beslut som fattats.

2019 var Sverige ett av 42 länder som anslöt sig till dessa principer.

Europakommissionen har lagt fram ett förslag på regelverk för artificiell intelligens som bland annat ska se till att AI-system är säkra och förenliga med befintlig lagstiftning om grundläggande rättigheter och unionens värden, samt främjar utvecklingen av den inre marknaden för lagliga, säkra och tillförlitliga AI-tillämpningar.

Enligt förordningen delar man upp system i olika riskklasser. Den första klassen är system som helt enkelt är förbjudna att använda inom unionen. Det omfattar alla system vars användning anses strida mot unionens värden, till exempel genom att kränka de grundläggande rättigheterna.

Det är till exempel förbjudet är att använda sociala poängsystem, liksom att automatiskt identifiera människor med övervakningskameror ”hela tiden” på allmän plats. En av anledningarna är att det kan skapa en känsla av konstant övervakning och indirekt avskräcka från utövande av mötesfrihet. Det finns vissa undantag, med tids- och platsmässiga begränsningar som kräver specifika tillstånd.

Den andra riskklassen är system av ”hög risk”. Det är AI-system som medför en hög risk för fysiska personers hälsa och säkerhet eller grundläggande rättigheter. Exempel på användningsområden för dessa system är riskbedömningar för brott eller återfall, prövning av uppehållstillstånd, tolkning av fakta och lagstiftning, beslut om utbildning eller rekrytering samt grundläggande privata och offentliga tjänster och förmåner.

På högrisksystem ställs obligatoriska krav som dokumentation, arkivering, datahantering, transparens och övervakning av systemet. Ett annat krav är mänsklig tillsyn. Det ska till exempel finnas en ”stoppknapp” eller liknande förfarande för att ingripa i driften.

Både Polisen och Europas näringsliv har framfört kritik av förordningen, bland annat menar man att den begränsar polisens möjligheter att dra nytta av tekniken samtidigt som kriminella kan utnyttja tekniksprånget fullt ut.

Det är viktigt att hitta en balans mellan intressena, men min uppfattning är att en EU-gemensam förordning som denna vore väldigt bra för oss som samhälle och individer.

EU:s länder utgör en ganska stor marknad och om vi har enhälliga lagar kommer det tvinga utländska aktörer som vill verka på denna marknad att följa dessa lagar – som på så sätt sprids.

Var och en av oss berörs av AI på ett eller annat sätt. AI kommer att förändra sättet vi arbetar och hur vi lever. Därför anser jag att vi alla har ett ansvar att utifrån förmåga och möjlighet se till att den AI som omger oss är gjord på ett ansvarsfullt och tillförlitligt sätt.

Ett sätt skulle kunna vara att kräva certifiering och märkning likt Krav- eller rättvisemärkning. Men det behövs även reglering och etisk styrning, vilket jag har lyft exempel på i denna artikel. Mer kunskap, debatt och påverkan på beslutsfattare krävs för att vi ska hamna rätt.

Fler artiklar för dig