28.12.2014 Views

Introduktion-til-folkeret

Introduktion-til-folkeret

Introduktion-til-folkeret

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Kapitel 9<br />

at slå <strong>til</strong>. For uanset hvilke revolutionerende våbentyper historien hid<strong>til</strong> har<br />

budt på, har én grundlæggende forudsætning altid været den samme: Alle<br />

beslutninger om potentielt dødelige angreb træffes af et menneske i form<br />

af en operatør. Overlader man denne afgørende beslutningskompetence <strong>til</strong><br />

det computerstyrede våbensystem selv, forsvinder en væsentlig del af den<br />

menneskelige kontrol med anvendelsen af væbnet magt, og vi vil formentlig<br />

stå overfor et regulært paradigmeskifte i måden, vi fører krig på. Dette giver<br />

naturligvis anledning <strong>til</strong> en række <strong>folkeret</strong>lige problems<strong>til</strong>linger. De mest<br />

centrale af disse præsenteres i dette kapitel efter en kort introduktion <strong>til</strong> de<br />

autonome våbensystemer.<br />

Autonome våbensystemer<br />

Med autonome våbensystemer menes i denne kontekst våbensystemer, der<br />

er i stand <strong>til</strong> at udføre de centrale led i den militærjuridiske targeting-proces<br />

uden menneskelig indblanding. Det afgørende parameter er, om systemet<br />

teknisk set er i stand <strong>til</strong> at udvælge mål og træffe beslutninger om angreb.<br />

Efter alt at dømme anvender man i dag ikke decideret autonome våbensystemer,<br />

365 men der findes våbensystemer, som eksempelvis nærforsvarssystemet<br />

Phalanx Close-In Weapons System, der selv er i stand <strong>til</strong> bl.a.<br />

at søge efter mål og at træffe beslutning om at angribe, men som dog er<br />

inds<strong>til</strong>let <strong>til</strong>, at en operatør skal autorisere angreb. 366 Denne foranstaltning<br />

er formentlig mere udtryk for politisk vilje end egentlige tekniske begrænsninger.<br />

367 Det amerikanske forsvar synes i hvert fald udad<strong>til</strong> at forsøge at<br />

gøre anvendelsen af autonome våbensystemer mindre kontroversiel ved at<br />

henholde sig <strong>til</strong> human-in-the-loop-doktrinen, 368 en forsikring om, at der<br />

altid vil være menneskelig kontrol med centrale beslutninger. Der findes<br />

(365) Våbensystemer, der ikke anvendes offensivt, som eksempelvis hovedparten af<br />

iRobots PackBot (http://www.irobot.com/gi/ground/510_PackBot), der primært bruges<br />

<strong>til</strong> rekognoscering og demontering af improviserede sprængladninger, er således ikke<br />

omfattet af denne kategori. Det samme gælder for forskellige typer af såkaldte smart<br />

bombs og UCAV’er, som, selvom betegnelserne omfatter en række forskellige våben,<br />

har det <strong>til</strong> fælles, at de enten er fjernstyrede under hele missionen eller får udpeget mål<br />

af en operatør forud for affyringen.<br />

(366) Produceres af Raytheon Company. Yderligere information på selskabets hjemmeside:<br />

http://www.raytheon.com/capabilities/products/phalanx/.<br />

(367) Peter M. Asaro, ”How just could a robot war be” i Philip Brey, Adam Briggle<br />

and Katinka Waelberg (red.), Current Issues in computing and philosophy, (Amsterdam:<br />

IOS Press 2008), s. 50-64.<br />

(368) Det amerikanske forsvar understreger konsekvent, at mennesker altid skal være<br />

involveret i beslutningsprocessen, se blandt andet Department of Defense Directive,<br />

”Autonomy in Weapons Systems”, 27. november 2012.<br />

216

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!