Under 2023 har Artificiell Intelligens (AI) varit på mångas läppar, särskilt kopplat till de stora utvecklingssteg som togs inom så kallade språkmodeller och generativ AI som driver program som ChatGPT. Även i den säkerhetspolitiska debatten har frågan om AI vuxit sig stor under året. Bland annat lyfte FN:s Generalsekreterare Antonio Guterres utvecklingen inom AI som ett av vår tids potentiellt största säkerhetshot och uppmanade det internationella samfundet att diskutera hur tekniken kan regleras. Just detta tog Storbritannien initiativ till med AI Safety Summit 2023 där utkomsten av konferensen blev en internationell deklaration för att adressera riskerna med AI[1]. Hur kan vi förstå denna tekniks potentiella säkerhetsrisker och hur balanserar mänskligheten mellan dessa risker och de enorma möjligheter som tekniken kan medföra?

Låt oss börja med vilka risker och utmaningar som AI-teknologi anses kunna utgöra. Utifrån ett brett perspektiv på säkerhet kan de vanligaste riskerna som diskuteras kategoriseras in i två olika fack: hot mot människors integritet och rättigheter samt existentiella hot mot mänskligheten. Antonio Guterres pekar på att AI kan, och redan används, för att stärka människors säkerhet och bygga fred tex genom att studera våldsmönster, överblicka eldupphör samt inom fredsmedling. Tekniken anses också ha stora möjligheter att hjälpa mänskligheten framåt inom fält såsom medicin, teknologi och miljö. Redan idag används AI för att effektivisera beslutsfattning och kundbemötande men även i teknologi som bygger på stora mängder data. AI anses av många kunna vara nyckeln till att skapa hållbara samhällen och i kampen mot klimatförändringarna[2]. Däremot kan tekniken användas i ondskefulla syften och i fel händer kan de utgöra direkta hot om våld och psykologisk skada[3].

Bland säkerhetsriskerna som AI-teknologi kan utgöra nämns de mot den politiska och personliga säkerheten i form av att sprida desinformation, falska budskap, förstärka bias, eller övervakning av grupper och individer. AI kan användas för att sprida falska fakta där avsändaren förfalskas, underminera fria val och uppmana till hat och våld.

Autonoma vapensystem och användandet av AI i militära syften diskuteras också som en stor säkerhetsrisk där dessa system, utan mänsklig kontroll, kan medföra stora risker för civila. Internationella Röda Korset listar tre sätt som AI kan användas i dessa syften: integrerat i vapensystem såsom autonoma vapensystem, i cyber- och informationskampanjer, samt genom att underminera militära assisterande beslutssystem[4]. Röda Korset slår fast att alla tre former av AI inom krigsföring utmanar internationell humanitär rätt och utgör potentiella hot mot civila och civil infrastruktur. De kräver att det internationella samfundet agerar genom att reglera användning av AI teknik i militära sammanhang.

Detta tar oss naturligt tillbaka till frågan om reglering av AI. Deklarationen som antogs på AI Safety Summit, och som undertecknades av bland annat EU, Storbritannien, Kina och USA, slår fast att oreglerad AI kan utgöra en potentiell katastrof för mänskligheten. Länderna kom överens om att diskutera riskerna i teknologin och potentiell reglering som en lösning. Just denna fråga, om och hur AI ska regleras, är en knäckfråga för teknologins framtid. Vilken del av teknologin ska regleras, när och av vem? Att reglera AI är inte enkelt och här har världens stormakter antagit olika inställning.

Inom EU har frågan om att reglera AI varit högt på agendan under flera år där kommissionens föreslagna AI Act varit väl debatterad och mött stora utmaningar att hänga med i den tekniska utvecklingen där något som diskuterats 2020 inte alls står sig 2023. Balansgången för EU har varit att reglera den typen av AI som anses utgöra störst risker mot människor samtidigt som man inte vill hamna efter USA och Kina i den tekniska utvecklingen. Förslaget som ligger kategoriserar olika typer av AI och ju högre risk en form av AI tillskrivs desto starkare ska denna regleras. Förslaget tog steg närmare dagsljus innan jul när Tyskland, Frankrike och Italien först kunde enas om en gemensam hållning i frågan[5] och efter detta kunde parlamentet och rådet enas om ett gemensamt förslag[6]. Diskussionen som följt debatten om reglering är ifall EU riskerar att hamna efter USA och Kina genom att bli de första som reglerar eller om detta snarare kan komma att bli en komparativ fördel. Det sista nämns av delar av industrin som välkomnar en reglering då detta skulle ge dem tydligare riktlinjer för var det ska lägga fokus på i innovationen[7].

Samtidigt menar bedömare att Kina har valt en approach där man först experimenterar och investerar i ny teknik, sedan implementerar den brett för att först efter detta diskutera att reglera den. På detta sätt har kinesiska företag fått en möjlighet att fritt testa ny teknologi för att sedan se vilka potentiella risker detta skulle få.

USA å sin sida har varit försiktiga med frågan om reglering, mycket kopplat till en önskan att inte hindra utvecklingen för de stora amerikanska techföretagen. Det amerikanska fallet visar tydligt att frågan om AI visar på att teknikkapplöpningen världen befinner sig i, med USA och Kina i förarsätet, är en geopolitisk fråga[8]. Frågan är om det blir ett ”chicken race” om vem som ger efter för reglering först eller om diskussionen kring ifall reglering kan hjälpa branschen slår igenom brett även i USA.

Så, vad är då utmaningarna med att reglera AI? Förutom frågan om att inte vilja hamna efter i teknikkapplöpningen så utgör tempot i den tekniska utvecklingen en stor utmaning. Utvecklingen inom AI teknik är närmast exponentiell där det som var en nyhet ena månaden kan vara helt utdaterat nästa månad. I och med att tekniken bygger på att system matas med data och data genereras i en rasande fart idag kommer knappast denna utmaning att avstanna. Detta gör att reglering riskerar att snabbt bli utdaterad och behöva ses över regelbundet.

En annan utmaning kring reglering är balansgången mellan risker och de positiva effekter AI kan ha. Ser vi till agendan för AI Safety Summit går det att slå fast att AI har potential att slå igenom brett i så gott som alla samhällsområden från medicin till finans. Hur balanserar man risker mot potentiella landvinningar inom medicin och teknik? Om det är så att reglering hjälper eller stjälper företag i sin innovation blir en central fråga för det kommande året.

Knäckfrågorna är många för världens regeringar att ta hänsyn till i dessa frågor. Tydligt är att frågan om reglering av AI är högt upp på den internationella agendan vilket syns tydligt i en rad FN-initiativ såsom AI Advisory Body[9] och det samarbete som inletts mellan SIPRI och UNODA (FN:s organ för nedrustning)[10]. Framtiden får sia vad utfallet av initiativen blir och om de håller tempot med utvecklingen i teknikkapplöpningen.

Författare: Simon Jernberg, programansvarig globala säkerhetstrender

[1] UK, US, EU and China sign declaration of AI’s ‘catastrophic’ danger | Artificial intelligence (AI) | The Guardian

[2] Så kan klimatet räddas med AI – och Sverige kan gå i täten | RISE

[3] Secretary-General Urges Security Council to Ensure Transparency, Accountability, Oversight, in First Debate on Artificial Intelligence | UN Press

[4] What you need to know about artificial intelligence in armed conflict | International Committee of the Red Cross (icrc.org)

[5] Tyskland, Frankrike och Italien eniga om AI-regler (omni.se)

[6] Timeline – Artificial intelligence – Consilium (europa.eu)

[7] AI-branschen vill regleras: ”Kan orsaka stor skada på världen” | SVT Nyheter

[8] Sällsynta metaller och stormaktsrivalitet – en översikt om nya strategiska resurser och risken för råvarukonflikter (foi.se)

[9] AI Advisory Body | United Nations

[10] SIPRI and UNODA hold dialogues on ‘Responsible AI for Peace’ | SIPRI

Dela