Må krigsrobotter selv beslutte at dræbe?

Lektor Anne Gerdes forsker i de etiske værdier, som vi bygger ind i it-systemer. Det er værdier, der kan få stor indflydelse på fremtidens krige.

Hvad forsker du i?

- Jeg forsker i it-etik, og et af mine aktuelle fokuspunkter er dødelige autonome våbensystemer.  Der bliver i dag brugt rigtig mange forskningsmidler på krigsrobotter, blandt andet i USA, og der er verden over interesse for våbensystemer, hvor ansvaret for liv og død i stigende grad uddelegeres til en maskine. Men det er en afgørende etisk grænse, om det er et menneske eller en maskine, der afgør, om et menneske skal dræbes eller ej.

Indtil videre træffer ingen krigsrobotter afgørelser om liv og død på egen hånd, men vi er betænkeligt tæt på. For eksempel har den amerikanske flåde et forsvarssystem, Phalanx, der selv kan opdage fjendtlige missiler, vurdere trusselsniveauet og eliminere de fjendtlige missiler.

Hvad taler for krigsrobotter?

- Fortalerne for krigsrobotter mener, at det vil være etisk uforsvarligt ikke at gå skridtet videre og udvikle robotter, der får magt til selv at dræbe fjender. De mener, at robotter – hvis de er programmeret rigtigt -  vil være bedre til at følge krigens regler end mennesker, som måske lader sig rive med af deres følelser eller kan være så udmattede og uligevægtige, at de går amok.

En robot vil således aldrig begå krigsforbrydelser, f.eks. voldtægt eller andre affektstyrede overgreb på civile.

Hvad taler imod krigsrobotter?

- Der vil altid være noget, som vi ikke kan tage højde for, når vi programmerer robotter, og da en robot hverken har intuition, situationsfornemmelse eller medmenneskelighed, kan der opstå situationer, hvor det går grueligt galt, f.eks. at robotten i en given krigssituation ikke vil være i stand til at skelne venner fra fjender eller civile fra soldater og derfor åbner ild mod de forkerte.

Men det handler ikke kun om, at en robot kan fejle, for det kan mennesker jo også. Det handler om, at vi som mennesker skal tage ansvaret for de handlinger, der begås i krigssituationer.

Hvis vi giver robotter magt til selv at afgøre, om et menneske skal dræbes eller ej, sker der en dehumanisering. Det vil  også påvirke værdigheden i krigshandlingen. I dag kan vi – ifølge internationale love om krigsførelse – straffe krigsforbrydere og på den måde give ofrene  oprejsning. Men tanken om at stille en maskine for en krigsdomstol er absurd og bl.a. derfor kan ansvaret heller ikke uddelegeres til en maskine.  At placere ansvaret hos producenten eller en overordnet militær person er heller ikke en gangbar løsning.

Robert E. Lee, der var general i den amerikanske borgerkrig, har skrevet, at det er godt, at krig er så forfærdelig, for ellers ville vi blive alt for begejstrede for krig. Et land, der går i krig, er i dag bevidst om, at det risikerer store tab af menneskeliv, og derfor betragtes krig som sidste udvej i en konflikt.

Men hvis  landet får mulighed for at anvende autonome robotvåben, som kan minimere risikoen for, at landets egne soldater involveres i krigshandlinger, kan man frygte, at det bliver lettere for magthavere at argumentere for krig. Autonome våben kan således øge det globale konfliktniveau.

En robot kan muligvis programmeres med krigens love, men dens virkelighed er nuller og ettaller. En robot er ikke dødelig og den har ikke moral eller forudsætninger for at forstå menneskelige værdier. Derfor skal autonome våbensystemer ikke tildeles magt over menneskeliv.

Hvad kan din forsknings bruges til?

- Det er vigtigt, at vi har en debat om de etiske værdier i de it-systemer, der er under udvikling, hvad enten det drejer sig om våbensystemer eller overvågningssystemer, hvor vi skal balancere mellem samfundets sikkerhed og den enkelte borgers privatliv.

Vi skal sørge for, at udvikling ikke kun handler om de teknologiske muligheder, men også om hvordan etiske værdier håndteres i de forskellige it-systemer, og hvordan vi ønsker de skal håndteres. Maskiner er uden begreb om værdighed og forståelse for menneskelige værdier, og derfor skal vi sikre os, at maskiner, der bruges til krigsførelse, ikke kan handle helt på egen hånd.

Autonome robotvåben er blevet et emne med stor international bevågenhed, og der er kræfter i gang for at få en international traktat, som forbyder udvikling og brug krigsrobotter, der opererer på egen hånd. FN har taget emnet op til afklaring, og desuden har Canadas førende militære robotproducent taget skarpt afstand fra udvikling af ”dræberrobotter” og opfordret til et forbud på internationalt niveau.

Hvordan formidler du din forskning?

- Jeg deltager i internationale konferencer og netværk, hvor vi diskuterer og kvalificerer de etiske aspekter, men jeg betragter det også som min opgave at bidrage til samfundsdebatten ved at udpege og diskutere de etiske problemstillinger inden for it-udviklingen, som vi bør have holdninger til.

Jeg er ikke maskinstormer og ser rigtig mange potentialer også i krigszoner, hvor robotter kan redde sårede og fjerne vejsidebomber. Men vi skal altid huske, at vi ikke kan fralægge os det menneskelige ansvar.

Af Bente Dalgaard, bda@sdu.dk

Se hele artiklen i Ny Viden: