Introduktion-til-folkeret
Introduktion-til-folkeret
Introduktion-til-folkeret
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Kapitel 9<br />
at slå <strong>til</strong>. For uanset hvilke revolutionerende våbentyper historien hid<strong>til</strong> har<br />
budt på, har én grundlæggende forudsætning altid været den samme: Alle<br />
beslutninger om potentielt dødelige angreb træffes af et menneske i form<br />
af en operatør. Overlader man denne afgørende beslutningskompetence <strong>til</strong><br />
det computerstyrede våbensystem selv, forsvinder en væsentlig del af den<br />
menneskelige kontrol med anvendelsen af væbnet magt, og vi vil formentlig<br />
stå overfor et regulært paradigmeskifte i måden, vi fører krig på. Dette giver<br />
naturligvis anledning <strong>til</strong> en række <strong>folkeret</strong>lige problems<strong>til</strong>linger. De mest<br />
centrale af disse præsenteres i dette kapitel efter en kort introduktion <strong>til</strong> de<br />
autonome våbensystemer.<br />
Autonome våbensystemer<br />
Med autonome våbensystemer menes i denne kontekst våbensystemer, der<br />
er i stand <strong>til</strong> at udføre de centrale led i den militærjuridiske targeting-proces<br />
uden menneskelig indblanding. Det afgørende parameter er, om systemet<br />
teknisk set er i stand <strong>til</strong> at udvælge mål og træffe beslutninger om angreb.<br />
Efter alt at dømme anvender man i dag ikke decideret autonome våbensystemer,<br />
365 men der findes våbensystemer, som eksempelvis nærforsvarssystemet<br />
Phalanx Close-In Weapons System, der selv er i stand <strong>til</strong> bl.a.<br />
at søge efter mål og at træffe beslutning om at angribe, men som dog er<br />
inds<strong>til</strong>let <strong>til</strong>, at en operatør skal autorisere angreb. 366 Denne foranstaltning<br />
er formentlig mere udtryk for politisk vilje end egentlige tekniske begrænsninger.<br />
367 Det amerikanske forsvar synes i hvert fald udad<strong>til</strong> at forsøge at<br />
gøre anvendelsen af autonome våbensystemer mindre kontroversiel ved at<br />
henholde sig <strong>til</strong> human-in-the-loop-doktrinen, 368 en forsikring om, at der<br />
altid vil være menneskelig kontrol med centrale beslutninger. Der findes<br />
(365) Våbensystemer, der ikke anvendes offensivt, som eksempelvis hovedparten af<br />
iRobots PackBot (http://www.irobot.com/gi/ground/510_PackBot), der primært bruges<br />
<strong>til</strong> rekognoscering og demontering af improviserede sprængladninger, er således ikke<br />
omfattet af denne kategori. Det samme gælder for forskellige typer af såkaldte smart<br />
bombs og UCAV’er, som, selvom betegnelserne omfatter en række forskellige våben,<br />
har det <strong>til</strong> fælles, at de enten er fjernstyrede under hele missionen eller får udpeget mål<br />
af en operatør forud for affyringen.<br />
(366) Produceres af Raytheon Company. Yderligere information på selskabets hjemmeside:<br />
http://www.raytheon.com/capabilities/products/phalanx/.<br />
(367) Peter M. Asaro, ”How just could a robot war be” i Philip Brey, Adam Briggle<br />
and Katinka Waelberg (red.), Current Issues in computing and philosophy, (Amsterdam:<br />
IOS Press 2008), s. 50-64.<br />
(368) Det amerikanske forsvar understreger konsekvent, at mennesker altid skal være<br />
involveret i beslutningsprocessen, se blandt andet Department of Defense Directive,<br />
”Autonomy in Weapons Systems”, 27. november 2012.<br />
216