måndag, januari 30, 2023
Annons

Han har förtroende för AI – och ser risker

Vad händer om du blir diskriminerad av en AI? Framtiden kommer innebära att algoritmer fattar allt fler beslut – både på gott och på ont. Magnus Strands forskning handlar om att hantera risker med den nya tekniken och se till så att det blir tydligt vem som har ansvaret om det går fel.

Inom finansvärlden har användningen av olika sorters algoritmer blivit allt vanligare. Den största delen av värdepappershandeln görs av algoritmer. Det är alltså inte människor som köper och säljer, utan hela 80 procent av alla aktieaffärer på börsen sker algoritmiskt. När du ansöker om ett lån är det en dator som räknar ut din kreditvärdighet och om du vill få rådgivning av banken kring hur du ska placera dina pengar, kan du få det av en robot.

– Det finns både för- och nackdelar med den här utvecklingen. Det blir svårare att argumentera emot ett råd eller ett beslut som ges av en robot. Många gånger är det också osynligt för kunden att det är en algoritm som ligger bakom ett råd, säger Magnus Strand som är jurist och universitetslektor vid företagsekonomiska institutionen. 

Han håller just nu på med flera forskningsprojekt som rör hur man ska förhålla sig till den här nya utvecklingen i finansvärlden. Det handlar till exempel om att identifiera och hantera risker förenade med den ökade användningen av AI-lösningar. Vad händer när det går fel?

Risk för diskriminering och aktieras

Att ge en AI för mycket ansvar är inte helt riskfritt. Det finns flera exempel på att algoritmer som handlar med värdepapper har missförstått något på marknaden vilket fått till följd att aktiekurser rasat. Vissa daytraders har också lärt sig att manipulera algoritmerna som håller på med aktiehandel. Är det då säkert att låta en AI sköta ens aktieportfölj? Och vems fel är det om den minskar i värde?

En annan risk skulle kunna vara att människor blir diskriminerade när de söker lån. Att de till exempel anses vara mindre kreditvärdiga för att AI:n räknar in vissa faktorer i deras bakgrund.

– Vad händer om AI:n identifierar att du varit sjuk en längre period? Sjukdom faller inte in under diskrimineringslagstiftningen.

Att driva en rättslig process i sådana fall försvåras också ytterligare av att det är så komplicerat att förklara vad som händer i en AI. Att bevisa varför någon handlade på ett visst sätt är ofta centralt i en rättegång. Men det är inte lika lätt när den handlande är en AI.

Magnus Strand berättar att det finns exempel på rättsfall där domstolar har beordrat företag som använt AI att lämna ut programmeringskoden som ”bevis” – något som för de allra flesta är helt omöjligt att tolka.

– Inom EU håller man nu på att titta hur man kan införa lättnader i bevisfrågan för att komma runt den här svårigheten.

Lagstiftning ställer krav på mänskliga beslut

Fler nya lagar diskuteras inom EU. Bland annat vill man ställa krav på att företag som använder sig av chattbotar måste göra det tydligt för användaren. Det finns också lagförslag som syftar till att reglera vilka beslut en AI får fatta. 

– Som i fallet med kreditvärderingar till exempel. Där ska man kunna säga att jag vill få en bedömning av en människa. Algoritmen ska inte ensam kunna ta ett beslut. 

Enligt Magnus Strand är det viktigt för EU att ligga i framkanten av den tekniska utvecklingen. Samtidigt är det prioriterat av EU att den AI-teknik som utvecklas är värd människors förtroende och inte är alltför riskabel.

AI kan kräva nya kontrollinstanser

Magnus Strands kommande forskning innehåller också en del filosofiska element. Han ska till exempel forska kring vilka lagar och samhällsinstitutioner som kan tänkas behövas på lång sikt, i en framtid där AI blir en allt mer integrerad del av vår vardag. 

– Min ingång är att ta reda på hur vi skapar framtidens politiska och rättsliga ramverk, som kan följa med i en framtid som är oviss.

För att konkretisera frågeställningen exemplifierar han med den kontrollapparat som vuxit fram kring vårt användande av bilar. Vi måste ta körkort, besikta bilen årligen och se till att den är försäkrad – det finns en rad samhällsinstitutioner på plats för att minimera riskerna med vår framfart på vägarna.

– Kommer det finnas liknande strukturer som kontrollerar våra olika AI-system i framtiden? Genom forskningen hoppas jag kunna bidra till att skapa en bild av de risker som finns och hur ansvarsfrågan bör hanteras i förhållande till den nya tekniken. 

Källa: Uppsala universitet – Sandra Gunnarsson

- Annons -

Nyheter

-Annons-