04.02.2014 Aufrufe

PDF-Datei | 2 MB - IFSH

PDF-Datei | 2 MB - IFSH

PDF-Datei | 2 MB - IFSH

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

192<br />

Vor diesem Hintergrund stellt sich die Frage nach der rechtlichen Einordnung von völlig<br />

autonomen Systemen, welche ohne jegliche Steuerung selbständig Kriegshandlungen durchführen.<br />

Der Einsatz völlig autonomer Systeme wird in Zukunft durchaus erwartet. 459 Hier ist<br />

die Frage von besonderer Bedeutung, wie die Verantwortlichkeit für etwaige Kriegsverbrechen<br />

zu beurteilen ist. Falls ein völlig autonomes UCAV im Rahmen von Kriegshandlungen<br />

gegen die Regeln des ius in bello verstößt, könnten theoretisch der Programmierer des Systems,<br />

der Offizier, welcher das System eingesetzt hat, oder das System an sich (wenn es eine<br />

entsprechende Zuordnung von Verantwortlichkeit gibt) für ein Kriegsverbrechen verantwortlich<br />

sein. 460 Den Programmierer könnte man nur dann zur Verantwortung ziehen, wenn die<br />

rechtswidrige Handlung des Systems auf eine Fehlprogrammierung zurück geht. 461 Jedoch ist<br />

es schwierig, den Programmierer zur Verantwortung zu ziehen, sofern keine Fehlprogrammierung<br />

vorliegt und der Programmierer das Militär beim Kauf des Systems über alle möglichen<br />

Handlungen des Systems aufgeklärt hat. Dann würde wohl die Verantwortung auf den Nutzer<br />

übergehen. 462 Zu erwägen wäre, den verantwortlichen Offizier für alle durch den Waffeneinsatz<br />

entstandenen Schäden verantwortlich zu machen, soweit er den Einsatz der Waffe „delegiert“<br />

hat (also dem autonomen System übertragen hat). Man könnte den Einsatz völlig autonomer<br />

Systeme, welche ein nicht legitimes Ziel zerstört haben, aber auch genau so behandeln,<br />

wie eine „normale“ Waffe, welche ihr Ziel verfehlt und unbeabsichtigte Schäden verursacht.<br />

Dies ist jedoch zweifelhaft, wenn man berücksichtigt, dass völlig autonome Systeme, anders<br />

als eine „normale“ Waffe, ihre Ziele selbständig suchen und verändern können, also einen<br />

neuen Geschehensablauf herbeiführen können, welcher vom zuständigen Offizier überhaupt<br />

nicht geplant war. Den kommandierenden Offizier in einem solchen Fall zur Verantwortung<br />

zu ziehen, scheint grundsätzlich nicht sachgerecht. 463 Zu prüfen wäre jedoch, ob die Vorhersehbarkeit<br />

eines entsprechenden völkerrechtswidrigen Verlaufs des Waffeneinsatzes insoweit<br />

eine Verantwortlichkeit des Offiziers begründen könnte, als dann von einem Einsatz autonomer<br />

Systeme hätte abgesehen werden müssen. Der Ansatz, die Verantwortung beim System<br />

selbst zu lokalisieren, vermag nicht zu überzeugen. Unbemannte Systeme, unabhängig davon,<br />

wie weit fortgeschritten die Entwicklung der künstlichen Intelligenz sein mag, bleiben<br />

Maschinen und sind einer Verantwortlichkeit (die immer auch die Möglichkeit alternativen<br />

459<br />

460<br />

461<br />

462<br />

463<br />

haben am Zielort verfügbare Einsatzkräfte die Möglichkeit, Personen ggfs. festzunehmen und deren Identität<br />

zu überprüfen.<br />

Vgl. dazu Sparrow, 2007; Sharkey, 2007.<br />

Sparrow, 2007, S. 67 ff.<br />

Ebd., S. 69 ff.<br />

Ebd.<br />

Ebd, S. 70 ff.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!