Roboten Sophia är en människolik robot som kan föra samtal och visa ansiktsuttryck. 2018 deltog hon på Munich Security Conference.
Foto: Stephen McCarthy/Web Summit

Artificiell intelligens som vapen - hur ska det regleras?

Analys

Artificiell intelligens (AI) är ett av de mest omvälvande teknologiska skiftena som det globala samhället har ställts inför under det senaste seklet. AI och liknande maskininlärningstekniker har funnits i vår begreppsvärld sedan 1950-talet, men det är först på senare år som processorkraft och teknisk utveckling har hunnit ikapp vad som faktiskt är begreppets sanna innebörd. Nu står ett paradigmskifte för dörren inom ekonomin, arbetsmarknaden och media. Framstående profiler varnar för domedagsscenarion, men de mer närstående och reella konsekvenserna av AI får relativt lite utrymme, inte minst de säkerhetspolitiska implikationerna. Denna teknologiska utveckling kan inte längre förpassas till det säkerhetspolitiska tänkandets marginaler, utan måste ges en central roll. Det internationella samfundet måste ta ett allvarligt grepp om frågan och behandla den med hög prioritet.

AI nådde en ny milstolpe när AlphaGO segrade över Lee Sedol, den dåvarande internationella mästaren i spelet Go. Spelet hade dittills betraktats som omöjligt att bemästra för maskininlärd intelligens, och vinsten framställdes som ett bevis för att artificiell processorkraft inte längre var begränsat till förprogrammerat beteende. Maskininlärning är ett faktum redan nu och avancerade algoritmer har gjort intrång på börsen, i försäkringshandeln och inom transportsektorn. Den dagen algoritmerna gör intrång i olika samhällssektorer kommer konsekvenserna att bli omfattande. Det enda vi kan säga med säkerhet är att allt fler branscher kommer att följa denna utveckling: AI är högst prioriterat för såväl Silicon Valleys tech-företag som för Kina, och bredare inom ramen för ’Industry 4.0’ – den förestående fjärde industriella revolutionen.

Bortom den fundamentala omformningen av den internationella ekonomin finns dock säkerhetspolitiska implikationer av denna teknologiska utveckling som kan upplösa nuvarande maktförhållanden mellan stormakter i grunden, men också ge nya förmågor till tidigare mindre inflytelserika statliga och icke-statliga aktörer att utöva makt på ett nytt sätt.

Forskare vid Harvard Universitys Belfer Center menar att framsteg inom AI kommer att påverka den framtida säkerhetspolitiken genom möjligheten för aktörer att skaffa sig ett övertag inom huvudsakligen tre områden: militär, ekonomi och information. Övertag inom ett eller flera av nämnda områden skulle i sin tur kunna påverka säkerhetstänkandet i så pass hög utsträckning att det motsvarar förändringarna som skedde vid såväl industrialiseringen som vid den första klyvningen av atomen.

Ur militär synpunkt är ett antal möjliga utvecklingar direkt avgörande. Först och främst möjliggör tillgången till AI en automatisering av ett stort antal processer inom traditionell krigföring. Genom simuleringar av militära strategier och säkerhetspolitiska scenarion kan tidigare balanser rubbas såväl mellan stormakter som mellan mindre aktörer. Även det faktiska beslutsfattandet i militära konfrontationer kan i stort delegeras till AI att hantera självständigt utan mänsklig inblandning i beslutsprocessen. De moraliska skyldigheter och relativa ’rättssäkerhet’ som skyddar kombattanter och civila kan således inte tas för givet. Rådande internationella överenskommelser om krigsrätt och skyddandet av icke-kombattanter kan så komma att urholkas till fördel för mer hänsynslöst handlande, utanför rådande konventioner.

I en värld med redan stora skillnader i tillgång till informationsteknik kan en ojämn utvecklingstakt inom AI bidra till att förstärka det som kallas ’the digital divide’. AI kan förstärka redan stora ekonomiska ojämlikheter, vilket skiftar de mjuka maktförhållandena. Därtill ökar skillnaden mellan den militära och humanitära kostnaden, i antal soldater och liv, av militära konfrontationer som aktörer av differentierad teknologisk standard lider. Med hjälp av AI kan aktörer begränsa behovet av att sätta egna soldater i fara, vilket fundamentalt förändrar de beslutsmöjligheter som råder idag. Ekonomiskt och militärt framstående aktörer kan komma att ytterligare öka sitt övertag på den säkerhetspolitiska arenan, vilket kan leda till en mer konfliktfylld värld.

Å andra sidan, samtidigt som växande skillnader i militär förmåga ser ut att bli den övergripande trenden inom internationell säkerhet, kan AI också stärka den asymmetriska förmågan hos mindre statliga och icke-statliga aktörer. Likt den utveckling som skett inom cybersäkerhet kan traditionellt svaga aktörer tillskansa sig militära och på andra sätt omstörtande förmågor. Befolkningsstorlek och industriell kapacitet blir mindre avgörande faktorer för relativa maktförhållanden, vilket tillåter mindre aktörer med tillgång till AI att slå över sin vikt.

För att hantera dessa utmaningar måste stater både bejaka den teknologiska utvecklingen för att ta del av de ekonomiska och säkerhetspolitiska framstegen som AI för med sig, men samtidigt hantera dess potentiellt katastrofala baksidor. Lärdomar måste dras från tidigare internationella uppgörelser kring liknande revolutionära teknologiska utvecklingar, med det internationella samförståndet om kärnvapen och kärnkraft som främsta exempel. Sverige måste tillsammans med andra villiga aktörer arbeta för ett reglerat användande av AI inom militära funktioner för att undvika okontrollerad säkerhetspolitisk förändring.

Det är inte utan svårigheter som ett sådant samförstånd kan byggas. Liksom kärnvapen och kärnkraft har AI tydliga civila tillämpningar men gränsen mellan den privata sektorns användning och de säkerhetspolitiska tillämpningarna är ytterst diffus. Ett beslut om tillåten tillämpning måste därför fattas i samråd med fler aktörer, framför allt från den privata sektorn och det globala civilsamhället.

Vidare förestår samma utmaning för AI som för en överenskommelse om kärnvapen. Redan idag domineras cyberområdet av misstroende mellan stormakterna. Aktörer har strategiskt intresse av att utveckla sin egen militära kapacitet och ser det som irrationellt att frivilligt begränsa sina ansträngningar. Troligtvis skulle en uppgörelse om AI kräva en balanserad strategisk situation lik den som rådde vid icke-spridningsavtalens införande, då det stod klart för samtliga att ingen part hade ett teknologiskt övertag.

Det är osannolikt att en militarisering av AI kan förhindras, men den kan likväl begränsas och anpassas till rådande lagar och konventioner. Det ligger i svenskt intresse att säkra en sådan uppgörelse för att garantera ett säkerhetspolitiskt landskap som värdesätter grundläggande rättigheter och moraliska normer. Sverige måste samtidigt fortsätta stödja forskning inom AI för att garantera en nationell kapacitet inom området, inte minst i den privata sektorn.

Klockan har redan börjat ticka för att få en internationell överenskommelse på plats innan den teknologiska utvecklingen springer om vår förmåga att hantera den ansvarsfullt. AI:s insteg i samhället kommer att innebära ekonomiska, kulturella och säkerhetspolitiska omvälvningar. De militära implikationerna måste hanteras separat från de andra förändringarna.

Oscar Theblin, deltagare i Folk och Försvars Försvars- och säkerhetsakademi 2018
Gustaf Fritz, deltagare i Folk och Försvars Försvars- och säkerhetsakademi 2017

Artificiell intelligens innebär närmast oändliga möjligheter på en rad olika områden , från ekonomi till säkerhetspolitik. Men det finns stora risker och hot som också måste hanteras. Oscar Theblin och Gustaf Fritz skriver om vår tids stora teknikrevolution och behovet av en global reglering.

Relaterade filer

Inga relaterade filer

Taggar

Tillbaka

Analys

Analys | Henrik Karlsson
21 December 2016

Analys | Minou Sadeghpour
27 September 2016

Analys | Johan Larnefeldt
21 Januari 2016

Artiklar

ARTIKEL | FOLK OCH FÖRSVAR
3 September 2018

ARTIKEL | FOLK OCH FÖRSVAR
17 Augusti 2018

ARTIKEL | KRISTOFFER ALM DAHLIN
4 Juli 2018

Opinion

Opinion | Dan Eliasson
28 Maj 2018

Opinion | Jens Pettersson
13 Mars 2017

Opinion | Jennifer Unelius
3 Mars 2017

Opinion | Lena Nyberg
17 Mars 2016

Reportage

Reportage | Dan Wennerholm
28 Oktober 2015

Vår webbplats sparar viss data (cookies) som vi använder för statistik och utveckling. Läs mer...