Skip to main content
Kronik

Kunstig intelligens i krig

Invasionen af Ukraine har skabt større bevidsthed om kunstig intelligens’ rolle i konflikter, og en række lande sigter nu mod at integrere AI langt mere i militæret. Men hvordan forholder vi os til at uddelegere liv-eller-død-beslutninger til algoritmer? I denne kronik peger tre forskere på, hvor der er grund til bekymring.

Af Ingvild Bode, Hendrik Huelss og Anna Nadibaidze, Institut for Statskundskab på SDU, 02-06-2023

Der er et øget fokus på den teknologiske udvikling inden for kunstig intelligens (AI) i samfundet. Den russiske invasion af Ukraine har vakt interesse for og en større bevidsthed om den rolle, som kunstig intelligens kan spille i konflikter.

Senest har generative former for kunstig intelligens som OpenAIs, ChatGPT og DALL-E sat gang i en debat om den hastige teknologiske udvikling og de økonomiske, samfundsmæssige og politiske implikationer deraf. 

Selvom disse eksempler kan synes meget forskellige, kan AI-teknologier faktisk anvendes på flere måder, hvilket betyder, at de kan bruges til både civile og militære formål. Grænsen mellem disse to dimensioner bliver mere og mere udvisket.

Forventede fordele ved kunstig intelligens

I de seneste år har væbnede magter rundt om i verden udvist en tydelig interesse for at anvende den teknologiske udvikling inden for AI og dets underområder, herunder teknikker som maskinlæring, til militære formål. 

Det inkluderer også integrationen af AI-teknologier i systemer til at understøtte beslutningstagning, såsom dataanalyse og -klassificering, efterretninger og rekognoscering.

De forventede fordele ved sådanne systemer inkluderer en forbedret effektivitet i militær planlægning, fordi AI-teknologier giver militæranalytikere mulighed for at finde næsten usynlige mønstre i store mængder data.

I operationelle sammenhænge handler det for eksempel om at afprøve, hvordan maskinlæring kan bruges til at identificere potentielle militære mål, herunder mennesker. For eksempel blev Pentagons ”Project Maven” designet til at behandle billeder fra droneovervågning ved hjælp af AI.

Grund til bekymring

Integrationen af AI-teknologier i militæret giver også anledning til bekymring. Ikke kun USA, men også militære aktører i Kina, Tyrkiet, Storbritannien og Indien, for blot at nævne nogle få, sigter mod at integrere AI-teknologier i målsøgning med det formål at opnå øget effektivitet i militæret.

Det betyder, at man tillader, at våbensystemer fungerer med mindre eller minimal direkte menneskelig kontrol over magtanvendelsen.

Dette er egentlig ikke en ny tendens: våbensystemer har integreret automatiserede og autonome teknologier i målsøgning i årtier. For eksempel har mange luftforsvarssystemer, der blev taget i brug i 1970’erne, allerede fuldautomatiske sporings- og målsøgningsegenskaber.

Mød forskeren

Ingvild Bode er lektor i international politik ved Institut for Statskundskab på SDU og hun står bl.a. i spidsen for forskningsprojektet AutoNorms, der er støttet af Det Europæiske Forskningsråd.

Kontakt

Menneskelig kontrol og magtanvendelse

Dengang vakte konsekvenserne af denne udvikling meget lidt politisk og offentlig opmærksomhed, men det stigende tempo i udviklingen inden for AI siden 2010’erne har skabt en væsentlig debat blandt forskere og akademikere, men også blandt politikere og i den private sektor.

Kernen i debatten er, hvordan integration af automatiserede, autonome og nu AI-baserede teknologier i våbensystemer ændrer den menneskelige kontrol over magtanvendelse.

Et nærmere kig på praksis for driften af sådanne systemer viser, at vi ikke kun bør vide, om menneskelige operatører skal godkende sådan en magtanvendelse.

Vi bør også undersøge, i hvilket omfang mennesker stadig er i stand til at foretage den vigtige vurdering af, hvorvidt specifikke mål og magtanvendelse er hensigtsmæssigt i interaktion med AI-teknologier.

Hvor god er menneskelig kontrol?

Kvaliteten af menneskelig kontrol er allerede formindsket i luftforsvarssystemer, der benytter automatiserede teknologier: her er de menneskelige operatører ofte ikke i stand til at udøve den vigtige menneskelige kontrol på grund af faktorer såsom tidspres, hastighed eller for megen data.

Nyere udvikling og test af AI til militære formål understreger, at problemet med den menneskelige kontrol øges i takt med, at AI bliver bedre til at udføre mere komplekse opgaver.

Muligheden for at uddelegere afgørende liv-eller-død-beslutninger til algoritmer har givet anledning til bekymringer på tværs af forskellige felter. Fra et juridisk perspektiv er det tvivlsomt, om potentielt fuldt autonome våbensystemer vil være i stand til at overholde de love, der regulerer internationale konflikter.

Kender algoritmen forskel på civile og soldater?

International humanitær lov dikterer for eksempel, at enhver benyttelse af våbensystemer i krig skal kunne skelne mellem kombattanter og civile. Kan dette princip programmeres ind i en algoritme, eller kan maskinlæring finde utvetydige karakteristika, der adskiller kombattanter fra civile i asymmetriske konflikter?

De fleste eksperter mener, at dette ikke er muligt endnu. Mens andre siger, at selv hvis det skulle blive muligt i fremtiden, vil det ganske enkelt være umoralsk og uetisk at bruge våben, der potentielt kan eliminere menneskeliv, baseret på en algoritmisk proces.

For de komplekse algoritmer, der danner grundlaget for maskinlæring, beskrives som 'sorte bokse', hvor input og output er kendt, men ikke processen, der fører til output.

Mød forskeren

Hendrik Hussel er adjunkt i international politik ved Institut for Statskundskab på SDU og undersøger bl.a. normer i internationale relationer og teknologi i politik. Han er del af forskningsprojektet AutoNorms, der er støttet af Det Europæiske Forskningsråd.

Kontakt

AI baserer sig på data med bias

AI, der anvendes inden for forskellige områder såsom politi, sundhed og uddannelse, er kendetegnet ved, at de er uddannet på grundlag af data med bias, hvilket ofte resulterer i diskriminerende, sexistiske og racistiske resultater.

Hvad nu hvis et våben med målsøgende egenskaber også beslutter, hvem der skal dræbes baseret på data med bias? Da AI-innovation oftere stammer fra den civile sektor end den militære, bør vi ikke forvente, at det vil være anderledes ved militært brug.

Eksperter peger også på potentielle tekniske fejl i AI-systemer som en anden grund til bekymring. Særligt en overdreven tillid til sådanne systemer kan føre til unødig eskalering, hvis systemet viser faktuelt fejlagtige informationer.

Risiko for eskalering af konflikter

Det er sket før. For eksempel i 1983 hvor det sovjetiske varslingssystem angav, at amerikanske missiler var på vej mod Sovjetunionen. Heldigvis stolede oberstløjtnant Stanislav Petrov ikke på systemet og besluttede sig for ikke at rapportere fejlen.

Men hvis der i stedet for Petrov havde været et system, der var programmeret til at reagere, når radaren afgav sådanne oplysninger med stor tillid, ville den have lanceret nuklear gengældelse.

Siden 2013 har det internationale samfund overvejet mulighederne for at regulere eller forbyde såkaldte autonome våbensystemer inden for rammerne af FN.

Indtil videre er der dog kun sket få væsentlige fremskridt på grund af stor uenighed blandt de lande, der går ind for et forbud, og de lande, der ikke er interesseret i nogen som helst form for regulering.

Mangel på global styring

I mangel af en særlig international global styring risikerer praksis i udviklingen af militære AI-teknologier fortsat at sætte 'standarder' for, hvad der regnes for en passende kvalitet i den menneskelige kontrol.

Alt i alt bør vi ikke være nervøse for, at militær AI-teknologi udvikler en bevidsthed og vender sig mod deres menneskelige skabere. I stedet bør vi være bekymrede for et skifte i karakteren af militær beslutningstagning, herunder en bevægelse i retning mod at tillade, at AI-systemer potentielt kan træffe nogle beslutninger på egen hånd.

Disse ændringer sker allerede og er værd at undersøge nærmere. Selvom der allerede er igangsat mange forsøg på at gøre det, gør forestillingen om futuristiske ”Terminators”, at det virker knap så presserende og dermed begrænser den vigtige debat om brug af AI i krigsførelse.

Kronikken er bragt i Jysk Fynske Medier i Erhverv+, torsdag den 20. april 2023.

Mød forskeren

Anna Naidebaidze er ph.d.-studerende i international politik ved Institut for Statskundskab på SDU og del af forskningsprojektet AutoNorms, der er støttet af Det Europæiske Forskningsråd.

Kontakt

Redaktionen afsluttet: 02.06.2023