AI – Har vi tagit det för långt

Sophia (robot). Fotograf: International Telecommunication Union

Tekniken vi har tillgänglig idag fanns inte ens i författares och regissörers drömmar för ett par decennier sedan. Vi har inte bara smartphones; vi har tillgång till säkerhetslarm kopplade till våra mobiler, Internet med mängder av information, hela hus som kan styras genom våra kommandon, självkörande bilar, i praktiken allt man kan tänka på idag, men som var omöjligt för 30 år sedan. Samtidigt gick Stephen Hawkings och Elon Musk ut med varningar angående artificiell intelligens och resonerade om bakomliggande faror med den nya tekniken. Rädslan för den nya tekniken är tydlig och framkommer starkt i filmer som “Terminator”, “I, Robot” och “Ex Machina” och böcker som “Do Androids Dream Of Electric Sheep?”. Med allt detta uppstår en fråga, nämligen: Har vi tagit det för långt?

Vi gick från teknik som hjälpte oss att kommunicera lättare, som faxmaskiner, till teknik som underlättade att vara en del av samhället, genom exempelvis all information på nätet, tjänster som Spotify, Netflix och Readly som underlättar konsumtionen inom underhållning och alla andra butiker och tjänster som finns online. Nu är vi på väg mot en vilja att framställa robotar med intentioner, moralisk kompass och känslor. Allt mer intelligenta varelser som egentligen inte ens är levande. Och, skrämmande eller otroligt nog, har vi också förmågan till att påbörja forskning inom detta.

För att kunna tydliggöra problemen som följer, måste man förtydliga de olika åsikterna. En del människor är för en sådan utveckling, då de anser att AI kan komma till stor nytta. Ett exempel är att vi behöver läkare och sjuksköterskor idag, och vi kommer alltid att göra det, så varför skulle inte AI ta över uppgifter inom sjukvården i sådana fall? Med flera hjälpmedel tillgängliga kan flera människoliv räddas medan läkare kan ägna större tid åt att exempelvis ta fram nya läkemedel, en möjlighet som behöver tas i en värld där resistenta bakterier börjar bli en norm.

Robotar kan också underlätta arbetet inom politiken, just på grund av faktum att de inte har några känslor. Deras neutralitet kan då användas för att motverka valfusk och korruption. Dessutom kan robotar som framställs i syfte att vara assistenter också hjälpa personer att fatta rationella beslut. De har inga känslor, inga minnen och inga band med familj, vänner och kollegor, vilket innebär att de objektivt kan väga in och verkligen hjälpa en person att fatta logiska beslut.

Dessutom hävdar många som är för AI att människor som är emot teknologin har en rädsla för något nytt, och att den rädslan hetsas av kulturella intryck där robotar blir onda. När vi tar in dessa negativa intryck skapas fördomar och rädslor mot någonting som egentligen inte har gjort någonting, och vi tappar förmågan att se det positiva med utvecklingen.
Andra är helt emot AI och menar att utvecklingen av denna teknik kommer med allvarliga konsekvenser, som till exempel ökad arbetslöshet, om fler och fler uppgifter skulle övertas av robotar. Sedan finns det också ett annat problem; robotar jobbar effektivare än människor, vilket hade kunnat tära på planetens resurser om fler robotar hade blivit beordrade att tillverka en viss vara. Om fler företag anställer robotar som jobbar i en snabbare takt för att hänga med vårt konsumtionsimpulsiva beteende, vad kommer då att hända med miljön?

Den vanliga rädslan är att robotar kommer att bli allt mer intelligenta tills de ser människor som underlägsna. Detta, blandat med intentioner, hade skapat en komplex situation mellan robotar och människor, eftersom underlägsenhet oftast skapar en brist på medkänsla. Detta kan man se genom flera exempel såsom hur djur brukar behandlas inom kött- och mejeriindustrin och på hur illa människor har behandlat varandra genom tiderna tack vare tankar om att en grupp stod över en annan.

Risken att AI har mål som inte överensstämmer med våra finns också. Om de beordras att göra något särskilt, och människor skadas för det särskilda syftet, hur får man dem till att sluta? Kan man förklara att det är fel att människor omkommer, om de blev tillsagda att skydda någonting till varje pris? Kan ens AI begripa sådana komplicerade situationer?

Med detta följer såklart flera dilemman: En av världens första utvecklade humanoida (mänskliga) robotar, Sophia, utvecklad av Hanson Robotics, har fått medborgarskap i Saudiarabien. Är det rätt eller fel att ge något som inte är levande mänskliga rättigheter? Vad ska hända med robotar som inte är skapade för att kommunicera och assistera människor, utan som utvecklas med känslor? Ska de ses som levande?

Om robotarna utvecklar intentioner, hur vet vi vad de egentligen tänker? Kan vi lita på att de är goda, om vi inte vet vad som ligger bakom deras handlingar? Om de vill vara mänskliga och strävar efter att förstå människan, som Sophia, kan vi säga om det verkligen är rätt eller fel?

Man måste såklart också tänka på att människor har väldigt skilda åsikter angående detta. Vissa är för denna utveckling och vill fortsätta med denna typ av utveckling som kan ge samhället ofantliga möjligheter medan andra är helt emot det som förvandlar vårt nutida samhälle och uppmanar att sluta driva tekniken framåt med tanke på farorna bakom den om den skulle hamna i fel händer. Vad ska i så fall hända i samhället om vissa vill gå med på att fortsätta driva en sådan utveckling framåt medan andra fullkomligt vägrar? Vilka typer av konflikter kommer att uppstå då? Kommer vi att hamna i krigstillstånd med andra länder angående våra olika viljor och handlingar beroende på ett så känsloladdat ämne? Det är omöjligt att svara på, men den idylliska framtiden som målas upp med avancerad teknik och lycka eller den dystopiska verkligheten med konflikter och förstörelse kan bli sann så småningom.