PDF-Datei | 2 MB - IFSH
PDF-Datei | 2 MB - IFSH
PDF-Datei | 2 MB - IFSH
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
192<br />
Vor diesem Hintergrund stellt sich die Frage nach der rechtlichen Einordnung von völlig<br />
autonomen Systemen, welche ohne jegliche Steuerung selbständig Kriegshandlungen durchführen.<br />
Der Einsatz völlig autonomer Systeme wird in Zukunft durchaus erwartet. 459 Hier ist<br />
die Frage von besonderer Bedeutung, wie die Verantwortlichkeit für etwaige Kriegsverbrechen<br />
zu beurteilen ist. Falls ein völlig autonomes UCAV im Rahmen von Kriegshandlungen<br />
gegen die Regeln des ius in bello verstößt, könnten theoretisch der Programmierer des Systems,<br />
der Offizier, welcher das System eingesetzt hat, oder das System an sich (wenn es eine<br />
entsprechende Zuordnung von Verantwortlichkeit gibt) für ein Kriegsverbrechen verantwortlich<br />
sein. 460 Den Programmierer könnte man nur dann zur Verantwortung ziehen, wenn die<br />
rechtswidrige Handlung des Systems auf eine Fehlprogrammierung zurück geht. 461 Jedoch ist<br />
es schwierig, den Programmierer zur Verantwortung zu ziehen, sofern keine Fehlprogrammierung<br />
vorliegt und der Programmierer das Militär beim Kauf des Systems über alle möglichen<br />
Handlungen des Systems aufgeklärt hat. Dann würde wohl die Verantwortung auf den Nutzer<br />
übergehen. 462 Zu erwägen wäre, den verantwortlichen Offizier für alle durch den Waffeneinsatz<br />
entstandenen Schäden verantwortlich zu machen, soweit er den Einsatz der Waffe „delegiert“<br />
hat (also dem autonomen System übertragen hat). Man könnte den Einsatz völlig autonomer<br />
Systeme, welche ein nicht legitimes Ziel zerstört haben, aber auch genau so behandeln,<br />
wie eine „normale“ Waffe, welche ihr Ziel verfehlt und unbeabsichtigte Schäden verursacht.<br />
Dies ist jedoch zweifelhaft, wenn man berücksichtigt, dass völlig autonome Systeme, anders<br />
als eine „normale“ Waffe, ihre Ziele selbständig suchen und verändern können, also einen<br />
neuen Geschehensablauf herbeiführen können, welcher vom zuständigen Offizier überhaupt<br />
nicht geplant war. Den kommandierenden Offizier in einem solchen Fall zur Verantwortung<br />
zu ziehen, scheint grundsätzlich nicht sachgerecht. 463 Zu prüfen wäre jedoch, ob die Vorhersehbarkeit<br />
eines entsprechenden völkerrechtswidrigen Verlaufs des Waffeneinsatzes insoweit<br />
eine Verantwortlichkeit des Offiziers begründen könnte, als dann von einem Einsatz autonomer<br />
Systeme hätte abgesehen werden müssen. Der Ansatz, die Verantwortung beim System<br />
selbst zu lokalisieren, vermag nicht zu überzeugen. Unbemannte Systeme, unabhängig davon,<br />
wie weit fortgeschritten die Entwicklung der künstlichen Intelligenz sein mag, bleiben<br />
Maschinen und sind einer Verantwortlichkeit (die immer auch die Möglichkeit alternativen<br />
459<br />
460<br />
461<br />
462<br />
463<br />
haben am Zielort verfügbare Einsatzkräfte die Möglichkeit, Personen ggfs. festzunehmen und deren Identität<br />
zu überprüfen.<br />
Vgl. dazu Sparrow, 2007; Sharkey, 2007.<br />
Sparrow, 2007, S. 67 ff.<br />
Ebd., S. 69 ff.<br />
Ebd.<br />
Ebd, S. 70 ff.