tisdag, september 27, 2022

Annonsera

Annons

AI-verktyget som förutspår våldsdåd

– Vår drivkraft är att vi kan lösa ett problem som faktiskt är allvarligt, säger Nazar Akrami, professor i psykologi vid Uppsala universitet. Tillsammans med it-forskare har han utvecklat ett verktyg som bedömer risken för att en person ska begå våldsdåd, genom att analysera texter på internet.

Nazar Akrami, professor i psykologi vid Uppsala
universitet. Foto: Mikael Wallerstedt

Intresset är stort för verktyget Dechefr. Nazar Akrami och hans kollegor har samarbetat med FBI, den federala polismyndigheten i USA. Andra som visat intresse för verktyget är Google, Linkedin och polismyndigheter i olika länder.

Det började för några år sedan när Nazar Akrami fick ett mejl från Lisa Kaati, en it-forskare vid Uppsala universitet som ville ses och prata. Själv hade han forskat och undervisat i personlighetspsykologi och socialpsykologi sedan 2005.

– Lisa hade ett konkret problem. Hon jobbade med polisen och försvaret och forskade om hur man skulle kunna upptäcka ensamagerande våldsverkare på nätet. Vår gemensamma forskning fokuserade på hur man kan identifiera individer som har en förhöjd risk för att begå våldshandlingar baserat på deras skriftliga kommunikation.

Bildade ett företag

När forskningsprojektet tog slut ville Nazar Akrami inte att forskningsresultaten skulle hamna i byrålådan, utan beslöt sig istället för att gå vidare och bilda ett företag för att kunna fortsätta utveckla och förfina teknikerna. Idag driver han företaget Mind Intelligence Lab.

Själva basen är Dechefr – ett verktyg med flera algoritmer, som tillsammans kan bedöma risken att en individ begår våldsdåd eller våldshandlingar. Allt som behövs är en text från internet – till exempel från sociala medier, diskussionsforum, sms och chattar.

– Alla möjliga texter kan matas in och så får man fram en riskbedömning från 0 till 100, med koden grön, gul eller röd. De allra flesta är gröna. Ett problem med riskbedömningar är de fall som är svåra att bedöma, det gäller hela tiden att reducera de falskt positiva. 

Samarbete med FBI

I samarbete med FBI har verktyget utvecklats mer och precisionen har ökat, bland annat genom att träna algoritmerna på data från kända fall och från en normalpopulation. Detta har i sin tur lett till kontakter med företag som Google och Linkedin samt polismyndigheter i olika länder.

– Under dessa två år har vi sett att våra algoritmer och vår infrastruktur går att använda till annat. Vi arbetar exempelvis med att bedöma risk för självmord genom att analysera texter.

Produkterna är i olika stadier av utveckling. Verktyget Suicidescan analyserar risk för självmord och en modul som analyserar personlighet är också under utveckling.

Utgår från texter

Gemensamt för alla verktyg är att de utgår från text på internet, eftersom det är just på internet som många ger uttryck för negativa tankar och känslor.

– Det finns två världar, verkligheten och den virtuella världen. I verkligheten finns massor av mekanismer som gör möten trevliga, men dessa saknas på många ställen på nätet, konstaterar Nazar Akrami.

– Vårt företag utvecklar tekniker som gör det möjligt att predicera olika beteenden – framför allt oönskade beteenden. Till exempel jobbar vi just nu med att identifiera grooming-beteende, vilket är viktigt för att barn ska känna sig säkra på nätet.

Verktygen för riskbedömningar har hittills använts av analytiker, som gör en egen bedömning av de varningssignaler som verktyget identifierar. Även om forskning visar att träffsäkerheten är stor, kring 95 procent, är det alltid analytikern som har sista ordet och som fattar besluten.

Hjälp att fatta rätt beslut

Syftet med verktygen är att de ska hjälpa analytikerna att fatta rätt beslut. Ibland kan det till exempel uppstå situationer där personer som inte alls utgör en risk röd-flaggas.

– Att göra riskbedömningar är komplicerat och att oskyldiga flaggas eller att man missar potentiellt farliga individer alltid ett problem. Analytikerna har en komplicerad uppgift och min förhoppning är att våra verktyg ska hjälpa till i deras bedömningar, säger Nazar Akrami.

Men visst väcker det här svåra frågor kring integritet och etik, som har diskuterats mycket inom företaget.

– Vår forskning är etikprövad och vi låter inte vem som helst få använda verktygen. Det regleras noga, till exempel i avtal med analytiker, företag och sociala medier.

Källa: Uppsala universitet/Annica Hulth

- Annons -

Nyheter

-Annons-