Tillbaka till sökning

Tillbaka
Analys
Artiklar

Publicerat: 2022-08-19

Dödliga autonoma vapensystem och folkrätten – ett problem eller förenligt?

Denna text är skriven av Annahita Ahmadi, en av deltagarna i 2022 års upplaga av Försvars- och Säkerhetsakademin (FOSA). FOSA är en unik och exklusiv spetsutbildning för unga engagerade från Folk och Försvars medlemsorganisationer och deltagarna utgör en viktig del inom Sveriges nutida och framtida säkerhetspolitiska fält. Deltagarnas texter är skrivna utifrån deras egna åsikter och perspektiv kring försvars- och säkerhetspolitik samt samhällets krisberedskap. Annahita Ahmadi som är f.d. vice ordförande för Göteborgs FN-förening, Svenska FN-förbundet, skriver i denna artikel om autonoma vapensystem och analyserar deras förenlighet med folkrätten i krig så som skrivningarna ser ut nu.

Framväxten av dödliga autonoma vapensystem, även på engelska kallat lethal autonomous weapons systems (LAWS), har under de senaste åren blivit en oro som vuxit fram, främst hos den civila befolkningen och även inom icke-statliga organisationer (HRW, 2020). FN definierar LAWS som vapen utan mänsklig övervakning som väljer, lokaliserar och attackerar mål, där vapnet tillåts att fungera obevakat under specifika tidsperioder. I en rapport från 2016 skriver FOI att debatten om dödliga autonoma vapensystem är av en mångfacetterad karaktär, där både folkrättsliga argument blandas med tekniska perspektiv och militärstrategiska aspekter. Marika Ericson, doktor i internationell rätt vid Försvarshögskolan, beskriver hur folkrätten står inför framtida utmaningar där en av de utmaningarna är folkrätten i relation till ny teknologi och högteknologisk krigföring, bland annat genom artificiell intelligens (AI) och autonoma vapensystem. Denna text kommer gå djupare in på frågan om dödliga autonoma vapensystem och den folkrättsliga aspekten i relation till krigföring.

Dödliga autonoma vapensystem har nåtts av en bred kritik där bland annat FN:s generalsekreterare Antonio Guterres beskrivit denna typ av vapen som “moraliskt motbjudande” (Twitter, 2019). Även Google meddelade att de varken kommer designa, distribuera AI i vapen, eller någon annan form av teknik vars huvudsakliga syfte skulle vara att orsaka, direkt skada eller skapa dödligt våld mot människor (The Defense Post, 2018). Dessa orosmoln är en del av det faktum att även om dödliga autonoma vapensystem ger möjligheten till militär utveckling, så öppnar det upp för potentiella luckor i ansvarstagande, konflikt eskalering och generella hot mot nationell säkerhet.

Villkor och reglering enligt internationell lag

I villkoren för internationell humanitär rätt, som är en del av folkrätten, finns det två paragrafer för regleringen av placering och användningen av vapen. Ett vapen kommer att vara förbjudet enligt dessa om det kan visas att det orsakar “onödigt lidande” eller är “naturligt urskillningslöst” (artikel 51 §5b). Dock har båda dessa paragrafer en relativt hög tröskel, vilket betyder att det skulle vara osannolikt att ett totalt förbud mot dödliga autonoma vapensystem skulle ske. En annan aspekt är att “onödigt lidande” inte utesluter möjligheten till extremt lidande så länge det är till fördel för ett militärt syfte. För att kunna uppnå kravet skulle detta betyda att “onödigt lidande” mot civila måste vara närvarande i alla instanser, från det allra första steget på ritbrädan, och inte vara begränsat till vad som skulle kunna vara slumpmässiga händelser.

I relation till den andra delen av regelverket, anses vapen endast vara “urskillningslösa” när deras effekt inte kan begränsas, som med bland annat biologiska vapen. I en rapport från 2012 av Human Rights Watch flaggades det för risken att dödliga autonoma vapensystem kunde “bli urskillningslösa”. Men i detta skede innebär argument för förbättrad precision att det inte finns någon sannolikhet för ett direkt förbud mot dödliga autonoma vapensystem. Mot bakgrund av detta behövs ett skärpt fokus på att bedöma om nuvarande rättsliga ramar är tillräckligt solida för att kunna reglera användningen av dessa vapensystem och därmed kunna skydda den civila befolkningens rättigheter.

En aspekt som skapar ytterligare komplexitet i att reglera autonoma vapensystem är hur man ska bedöma proportionaliteten. Proportionalitetsprincipen (IHL-database; Regeringskansliet, 2010) reglerar hur den militära betydelsen av ett anfall måste stå i proportion till de risker som civilbefolkningen och civil egendom utsätts för. Principen medför ett förbud mot anfall som leder till civila förluster, så kallade collateral damage, som är överdrivna i förhållande till den konkreta och direkta militära fördel som kan förväntas. Att till exempel bomba en hel byggnad för att döda en ensam prickskytt skulle enligt proportionalitetsprincipen vara oproportionerlig på grund av de civila skador som skulle uppstå och därav uppväga alla militära fördelar en sådan attack skulle innebära.

I detta sammanhang kan två olika problem uppstå, det första handlar om klarhet i bedömningen vid tiden av en attack. Det är något oklart om “tiden av en attack” refererar till den exakta tidpunkten då vapnet är skickat eller den tidpunkt då den förväntade användningen av våld inträffar, vilket då kan vara dagar eller veckor senare (Médecins Sans Frontières, u.å.). Med detta uppstår det andra problemet, om tidpunkten för attacken är en annan från då vapnet först skickades, hur kan då en befälhavare rimligtvis kunna fastställa civila förluster och eventuella fördelar som kan tänkas bli resulterat av en attack? Risken finns även att de mest grundläggande principerna för den internationella humanitära rätten undergrävs, då principerna bygger på att det ska finnas någon form av mänsklig bedömning av proportionalitet med i beräkningarna. Proportionalitetsprincipen är av yttersta vikt för att kunna avgöra om en attack varit oberättigad och för att kunna bringa rättvisa till krigsoffer. Karaktären för dödliga autonoma vapensystem gör ett redan komplext problem än mer svårtytt, vilket skapar oklarheter kring vad som skulle kunna gälla.

Ytterligare en svårighet som uppstår med regleringen av dödliga autonoma vapensystem är klyftan i ansvarstagandet. Ansvarsskyldighet underlättar möjligheten till lagstadgad bestraffning och syftar till att avskräcka för liknande händelser i framtiden. Det ger även de eventuella offren för krigföring en tillfredsställelse att skyldiga straffas för de brott som begåtts. Det är viktigt att komma ihåg att internationell humanitär rätt och mänskliga rättigheter kräver personligt ansvar för krigsförbrytelser (HRW, 2009). Med tanke på vikten av ansvarsutkrävande för att bringa rättvisa i tider av krigföring, är det då möjligt att tillskriva skuld till en maskin? Dessa vapen har potential att begå kriminella handlingar där ingen skulle kunna utkrävas på ansvar. Varje försök för att utkräva ansvar genom att försöka koppla mänskliga faktorer omintetgörs av deras avstånd från den faktiska kriminella handlingen. Även vid händelsen av att lagar och regleringar skulle ändras för att omfatta sådana maskiner som autonoma vapensystem, så skulle dessa inte uppfylla syftet då en maskin inte kan avskräckas eller “straffas” på ett meningsfullt sätt, så som en människa kan.

Konsekvenser inför framtiden

Den autonoma funktionen hos vapensystem väcker en mängd frågor, både juridiska och moraliska. Då ett direkt förbud enligt rådande internationell lagstiftning är relativt osannolikt, hotar kryphålen i befintliga lagverk att omintetgöra rättvisa under konflikt. I synnerhet då bedömningen av proportionalitet bygger på ett antagande av mänskligt beslutsfattande. På samma sätt kräver den grundläggande principen om ansvarsskyldighet en människa som kan ha ett moraliskt ansvar. Genom att ta bort den mänskliga aspekten hotar dödliga autonoma vapensystem att börja blanda de centrala principerna för internationell humanitär rätt och mänskliga rättigheter. Därav finns inte möjligheten till att till exempel gå in och korrigera i de redan existerande lagverken. Detta skulle i sin tur tänkas få konsekvenser för civila, som kan bli offer för oproportionerliga attacker och krigsförbrytelser som förblir ostraffade.

En mer realistisk lösning kan komma i form av att vilja skydda nationella egenintressen. Tanken på vapen likt dessa kan utgöra ett hot mot den nationella säkerheten för samtliga länder världen över. Detta kan i sin tur leda till ett föredrag likt det Fullständiga provstoppsavtalet som antogs av FN 1996, vilket förbjuder alla typer av kärnvapenprov i alla miljöer. Om ingen sådan överenskommelse äger rum kommer användningen av dödliga autonoma vapensystem behöva en noggrann och nyanserad tillämpning av de grundläggande principerna för internationell humanitär rätt och folkrätt i dessa framtida utmaningar.

Referenser

FOI. (2016). Autonom våldsutövning – hot eller möjligheter: För en strukturerad debatt. Hämtat 2022-05-01, från https://www.foi.se/rest-api/report/FOI%20Memo%205676

Human Rights Watch. (2009). Q&A: Accountability for Violations of International Humanitarian Law in Gaza. Hämtat 2022-05-01, från https://www.hrw.org/news/2009/02/06/qa-accountability-violations-international- humanitarian-law-gaza#_Why_is_accountability

Human Rights Watch. (2012). Losing Humanity: The Case against Killer Robots. Hämtat 2022-05-01, från https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer- robots

Human Rights Watch. (2020). Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control. Hämtat 2022-05-01, från https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning- fully-autonomous-weapons-and

International committee of the red cross. (u.å.). Treaties, States Parties and Commentaries. Hämtat 2022-05-01, från https://ihl-databases.icrc.org/ihl/WebART/470-750065

IHL database. (u. å.). Customary IHL. Hämtat 2022-04-30, från https://ihl- databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule71

Médecins Sans Frontières. (u.å.). The Practical Guide to Humanitarian Law. https://guide- humanitarian-law.org/content/article/3/weapons/

The Defense Post. (2018). Google will not use artificial intelligence for weapons, CEO Sundar Pichai says. Hämtat 2022-05-01, från https://www.thedefensepost.com/2018/06/07/google-ai-weapons-ceo-pichai/

Twitter. (2019). Hämtat 2022-04-30, från: https://twitter.com/antonioguterres/status/1110232038081204224

Regeringskansliet. (2010). Information om den humanitära rätten. Hämtat 2022-04-30, från https://www.regeringen.se/49f226/globalassets/regeringen/dokument/forsvarsdepartementet/f olkrattsradet/information-om-den-humanitara-ratten.pdf

United Nations. (1994). Comprehensive Nuclear-Test-Ban Treaty (CTBT) – Fullständiga provstoppsavtalet. Hämtat 2022-05-05, från https://www.un.org/disarmament/wmd/nuclear/ctbt/

Dela

Relaterat material