DIIS Policy Brief

Kunstig intelligens udfordrer strategisk stabilitet i den tredje atomalder

Den hastige udvikling inden for kunstig intelligens udfordrer atombalancen i et i forvejen ustabilt geopolitisk miljø. Det kan underminere atombalancen og øge risikoen for kernevåbenbrug. Øget transparens om brugen af kunstig intelligens kan mindske spændinger mellem atommagter.
forsideillustration-RGB.jpg
HOVEDPUNKTER

■ Kunstig intelligens kan bidrage til mere effektiv nuklear afskrækkelse, men risikerer også at underminere strategisk stabilitet mellem atommagterne.

■ Centrale risici ved øget samspil mellem kunstig
intelligens og atomvåben er: optrapningen af et højteknologisk våbenkapløb, utilsigtet konflikteskalering, spillovereffekt på andre sikkerhedspolitiske domæner.

■ Danmark bør i nedrustningsfora insistere på mellemstatslig dialog og transparens omkring intentioner bag videreudviklingen af
kunstig intelligens.

I juli 2023 advarede FN’s generalsekretær, António Guterres, FN’s Sikkerhedsråd mod et stigende samspil mellem kunstig intelligens og atomvåben. Det seneste årtis fremskridt inden for kunstig intelligens fik ham til at konkludere, at nye teknologier vil kunne accelerere våbenkapløbet og forhøje risikoen for en fremtidig atomkrig betydeligt. Og han er ikke alene om at forudse et stigende samspil mellem kunstig intelligens og våbenteknologier herunder kernevåben. Allerede i 2014 beskrev det amerikanske forsvarsministerium kunstig intelligens som en banebrydende teknologi indenfor krigsførelse og national sikkerhed.

Sammenfletningen mellem atomvåben og kunstig intelligens er et af de centrale kendetegn for, hvad der i stigende grad beskrives som den tredje atomalder. Hvor den første atomalder var defineret af spændinger mellem USA og Sovjetunionen og den anden af frygt for spredningen af atomvåben til ikke-statslige aktører, forstås den tredje atomalder som et mere komplekst nukleart landskab. Sikkerhedspolitisk er den præget af multipolaritet, stormagtskonkurrence og højteknologiske nybrud. Hver for sig, men især tilsammen, peger disse tendenser på et højere konfliktpotentiale og større risiko for atomkrig.

Mens USA, Rusland og Kina har sat skub i omfattende moderniseringer af deres atomarsenaler, er de multilaterale og bilaterale våbenkontrolaftaler, der kendetegnede både den første og anden atomalder, opsagt, suspenderet eller stagneret. Anvendelsen af kunstig intelligens på kernevåbenområdet presser derfor et i forvejen vaklende nedrustningsregime. Som engageret medlem af adskillige nedrustningsinitiativer har Danmark en interesse i at fastholde og skærpe diplomatisk fokus på kunstig intelligens.

Udviklingerne indenfor kunstig intelligens nærer eksisterende spændinger og mistillid mellem atommagterne.

Kunstig intelligens og kernevåben

Kunstig intelligens defineres generelt som en maskines evne til at løse komplekse, abstrakte opgaver. I de mest vidtrækkende scenarier udvikler kunstig intelligens sig til fuldstændig autonome systemer, der kan operere og tage beslutninger uden nogen former for menneskelig indblanding.

Mange af teknologiens anvendelsesmuligheder er fortsat spekulative, men atomvåbenstater aner flere fordele ved en dybere integration mellem kunstig intelligens og atomvåben. Kunstig intelligens anses især for at kunne bidrage til mere effektiv afskrækkelse over for andre atomvåbenstater. Teknologien har nemlig potentiale til at optimere informationsindsamling og assistere i beslutningsprocesser under tidspres gennem delvist autonome kommando- og kontrolsystemer.

STRATEGISK STABILITET

Strategisk stabilitet er et centralt begreb, når man taler om atomvåben. Stabilitet opnås, når enhver part mangler incitamenter til at indlede et nukleart første angreb.

Under Den Kolde Krig blev strategisk stabilitet opretholdt via doktrinen om gensidig ødelæggelse. Strategisk stabilitet var her bygget på forståelse af, at modparten havde både evnen og viljen til at gengælde et atomangreb (det såkaldte ’second strike capability’).

I den tredje atomalder, som er multipolar og byder på flere mulige konfliktscenarier, er den strategiske stabilitet udfordret af nye teknologier, som frygtes at kunne give teknologisk overlegne stater et incitament til at angribe først.

Samtidig vil kunstig intelligens også kunne optimere kapaciteten for detektion og tidlig advarsel om indkommende missilangreb. I samarbejde med våbenfirmaet Lockheed Martin arbejder det amerikanske missilforsvarsagentur blandt andet på at bruge kunstig intelligens til at forbedre reaktionstiden på det amerikanske missilforsvarssystem Aegis. Dette vil også øge beskyttelsen af atomvåbenlagre, hvilket kan afholde en fjendtlig stat fra at angribe.

Kunstig intelligens gør det muligt at udvikle leveringssystemer, der er stadig mere præcise og målrettede, og derfor vil kunne udstyres med mindre sprænghoveder. Kina undersøger i øjeblikket kunstig intelligens’ potentiale til at styre og guide hypersoniske missiler. Mere målrettede våbensystemer har til formål at gøre truslen om atomvåbenbrug mere troværdig, hvilket er en nødvendig forudsætning for afskrækkelse.

Samtidig anerkendes det, at anvendelsen af kunstig intelligens i våbensystemer medfører svære etiske og juridiske dilemmaer vedrørende fordelingen af ansvar. Især i en nuklear kontekst hvor misforståelser, fejlvurderinger eller systemfejl kan udløse en katastrofal atomkrig, er disse bekymringer presserende.
Sådanne bekymringer er ikke helt nye. Udliciteringen af menneskelige beslutninger til komplekse computer- og kommunikationssystemer har længe været praksis på atomvåbenområdet. Allerede under Den Kolde Krig forlod USA og Sovjetunionen sig i høj grad på automatiserede kommando og kontrolsystemer til blandt andet missilovervågning. Men især i det sidste årti, hvor udviklingen af kunstig intelligens for alvor har taget fart, er risikoen for strategisk ustabilitet blevet større.

Strategisk ustabilitet

Kunstig intelligens introducerer eller forstærker en række problematikker, som risikerer at underminere strategisk stabilitet mellem atommagterne. Et første problem er, at udviklingerne indenfor kunstig intelligens nærer eksisterende spændinger og mistillid mellem atommagterne. Staterne frygter især, at investeringer fra konkurrerende stater negativt vil påvirke deres egne strategiske kapaciteter. For eksempel frygter de, at nye optimerede ’early warning and detection’ systemer hos konkurrerende atommagter gør deres egne atomvåben både mindre effektive og mere sårbare.

Opfattelsen af kunstig intelligens’ underminerende potentiale vejer lige så tungt som teknologiens egentlige kunnen. Blot forestillingen om, at andre atomvåbenstater har planer om at inkorporere eller udnytte kunstig intelligens i deres atomvåbenprogrammer, kan være nok til at igangsætte et kapløb om teknologisk overlegenhed – et kapløb som højner risikoen for en atomkonflikt. Risikoen er særligt udtalt i det nuværende sikkerhedspolitiske miljø, som er præget af mistillid mellem atommagterne.

En anden fare ligger i kunstig intelligens’ begrænsninger. Maskinlæringssystemer kan være upålidelige og uforudsigelige. Deres effektivitet afhænger i høj grad af den mængde og karakter af rå data, som maskinen er trænet på. Dertil kommer, at selve måden, hvorpå kunstig intelligens når en beslutning eller konklusion, ikke altid er transparent. Den kan give anledning til fejlvurdering af modstanderes evner og intentioner.
Det kan have alvorlige konsekvenser i nukleart regi. Et varslingssystem baseret på maskinlæring kunne fejlagtigt identificere, at et angreb var undervejs og give militærkommandoen blot få minutter til at beslutte, om et modangreb skulle lanceres. På den måde risikerer brugen af kunstig intelligens at øge risikoen for utilsigtet eskalering.

Som engageret medlem af adskillige nedrustningsinitiativer har Danmark en interesse i at fastholde og skærpe
diplomatisk fokus på kunstig intelligens.

Udfordringerne er altså ikke blot teknologiske; kunstig intelligens har centrale implikationer for måden, hvorpå beslutningstagere forstår og forholder sig til risikoen for atomkrig.
Slutteligt kan kampen om kunstig intelligens smitte af på andre områder. Kunstig intelligens’ afhængighed af satellitter og ruminfrastruktur kan for eksempel øge militariseringen af det ydre rum, som allerede er påvirket af geopolitiske spændinger og stormagtsrivaliseringen.

KERNEVÅBEN-MODERNISERING

I 2015 igangsatte præsident Barack Obama en modernisering af USA’s kernevåbenarsenal. Programmet inkluderer blandt andet omfattende opdateringer af eksisterende våbensystemer, leveringsmetoder og kommunikation- og kontrolsystemer samt udviklingen af nye våbensystemer.

Kongressens budgetkontor estimerede i 2021, at moderniseringen vil koste $634 milliarder over det næste årti. Den uafhængige organisation Arms Control Association anslår, at moderniseringen, som i alt forventes at tage 30 år, vil koste $2 billioner.

Også andre atommagter heriblandt især Rusland og Kina gennemfører omfangsrige moderniseringer, der har til formål at gøre deres arsenaler mere adrætte, akkurate og autonome.

Dansk stillingtagen

Danmark tager aktivt del i udviklingen af kunstig intelligens, inklusiv i militære applikationer, og betoner teknologiens muligheder såvel som risici. Blandt andet skal Danmark stå i spidsen for en af de nye europæiske test-faciliteter, som blev oprettet i forbindelse med et nyligt lanceret EU-projekt, der skal accelerere udviklingen af ansvarlig kunstig intelligens i Europa. På militært plan indgår Danmark i strategiske partnerskaber som NATOs Artificial Intelligence Strategy og det amerikanske forsvarsministeriums AI Partnership for Defense.

Samtidig er Danmark som medlem af ikke-spredningstraktaten engageret i atomvåbenkontrol og -nedrustningsregimet blandt andet som aktiv deltager i Stockholminitiativet, en sammenslutning af 16 lande forenet i deres stræben efter at reducere nukleare risici. Initiativet, som i 2021 af den daværende udenrigsminister blev fremhævet som en væsentlig del af den danske diplomatiske indsats på nedrustningsområdet, nævner udtrykkelig farerne ved de nye, såkaldte ’disruptive’ teknologier som kunstig intelligens.

Givet Danmarks internationale position som førende højteknologisk nation med umiddelbar interesse i, at teknologier såsom kunstig intelligens ikke skaber mere ustabilitet mellem atommagter, har danske diplomater en oplagt mulighed for at sætte og fastholde fokus på kunstig intelligens og strategisk stabilitet. Gennem diplomatisk dialog kan Danmark aktivt bidrage til at øge transparens og gensidig tillid omkring intentioner bag videreudvikling af kunstig intelligens.
 

DIIS Eksperter

Rens van Munster
Fred og vold
Seniorforsker
+45 3269 8679
Trine Rosengren Pejstrup
Fred og vold
Videnskabelig assistent
+45 5275 6064
kunstig-intelligens-forside-RGB.jpg
Kunstig intelligens udfordrer strategisk stabilitet i den tredje atomalder