Ihre Browserversion ist veraltet. Wir empfehlen, Ihren Browser auf die neueste Version zu aktualisieren.

 

 Künstliche Intelligenz

  

Zur Information zwei Links vorweg zum GSP -Sicherheitsdialog - Künstliche Intelligenz und deutsche Sicherheitspolitik Teil I und II

Teil I                        Teil II

 

Am 25 November und 30. November 2020 gab es zwei Online-Veranstaltungen der Gesellschaft für Sicherheitspolitik zum Thema militärische Nutzung künstlicher Intelligenz.  Mitwirkende waren der Vorsitzende der GSP Professor Varwick, die ehemaligen Generäle Lahl und Roßmanith aus dem GSP-Vorstand, der Völkerrechtler Professor Geiss, der IT-Forschungsexperte Dr Glas, Generalleutnant Vetter für das BMVg, die Abgeordneten Brandl (CDU), Müller (FDP)und Frau Brugger (Bündnis 90/Grüne)

 

Einige Gedanken aus den Diskussionen sollen hier in den Artikel einfließen und durch einige Anwendungsbeispiele ergänzt werden. Die Diskussion um den Einsatz künstlicher Intelligenz wird überschattet durch Horrorvisionen von sich verselbstständigenden und ohne ethische Bedenken agierenden Kampfrobotern, die zur Zeit noch mehr der Science Fiction zugeordnet werden können, sich aber in der Forschung der technischen Machbarkeit nähern.

 

In den zivilen und militärischen Laboren der großen Mächte arbeiten Entwickler an Maschinensystemen, die autonom ohne menschliche Steuerung handeln und aus Prozessen lernen können. Diese „starke“ künstliche Intelligenz ist noch nicht einsatzreif, aber sicherheitspolitisch muss man sich damit auseinandersetzen, weil es genug weltpolitische Akteure gibt, die sich durch die Nutzung von KI auf vielen Gebieten, vor allem aber dem  des Militärs, einen Vorteil im globalen Kräftemessen versprechen und wenig durch politische oder ethische Bedenken gebremst werden.

 

Künstliche Intelligenz kann eine Reihe von Grenzen des Soldaten beim militärischen Handeln überwinden: Angst, Ermüdung, Einschränkungen der Agilität und Geschwindigkeit der Informationsverarbeitung und Entscheidungsfindung. 

 

KI kann rasant viele Informationen auswerten und eine sehr schnelle effiziente Bekämpfung organisieren. Aufgrund der zahlreichen Sensoren können Menschen die Datenflut nicht mehr zeitnah auswerten, sondern müssen Algorithmen entwerfen, nach denen die Maschine die Auswertung und Bekämpfung übernimmt.Diese könnten klassische symmetrische Kriege zwischen gleichwertigen Gegnern durch Informations- und Handlungsüberlegenheit  revolutionieren. In asymmetrischen Konflikten könnte die Wirkung allerdings begrenzt bleiben, da die verdeckt operierenden Gegner weniger Ziele bieten und Krisenstabiliserung in archaischen Kriegerkulturen auf besonders massive Verachtung und Widerstände der technisch unterlegenen „Krieger“ gegenüber den "feigen"modernen Waffen stoßen dürfte.

 

In der Beschleunigung der Entscheidungsabläufe könnte ein großer Vorteil eines Überraschungsangriffs gegenüber den abwartenden Verhaltensweisen eines Verteidigers liegen. Die Verteidigung wäre nicht mehr die nach Clausewitz stärkere Kampfform. Präventivschläge erscheinen unausweichlich. Die Fähigkeiten der internationalen Akteure auf dem Gebiet der künstlichen Intelligenz dürften sich der Rüstungskontrolle und Verifikation weitgehend entziehen, da es sich nicht um sichtbare Systeme handelt. Wo keine Verifikation möglich ist, gibt es auch kein Vertrauen. Die internationale Sicherheitsarchitektur würde instabil und in einem unkontrollierbaren Wettlauf der Rüstung ausufern.

 

Es zeichnet sich ab, dass KI die Rollenverteilung im Gefecht den Menschen zurückdrängt und wegen der Schnelligkeit der Handlungsabläufe und durch den hohen Entscheidungsdruck dem autonom und schnell agierenden Waffenssystem das Feld überlassen muss. Der immer wieder zur Beschwichtigung der Kritiker vorgebrachte Hinweis auf die letzte Kontrolle durch den Menschen könnte sich als Illusion erweisen.

Die Informationsverarbeitung und Entscheidungsabläufe eines KI- basierten Systems beruhen natürlich auf Algorithmen, die von Menschen programmiert werden und wo eine Einflussnahme nach taktischen und ethischen Gesichtspunkten möglich bleibt.

 

In der schwachen Form wird KI heute schon mannigfaltig beim Militär genutzt und dabei sollte sich die Vorstellung nicht auf auf Szenarien von Gefechtsfeldrobotern und intelligenten Drohnenschwärmen einengen lassen. KI dient nicht allein der Steuerung von Waffensystemen. Oft liegen denkbare Anwendungen sehr nah bei zivilen Nutzungen, wie das autonome Fahren, dass sich natürlich auch für Personaleinsparungen beim Militär anbietet. Logistische Fahrzeuge können sich ohne Risiko für Menschen auf gefährdeten Routen bewegen und den Navigationsdaten oder mittels der "elektronischen Deichsel" einem vorausfahrenden bemannten Fahrzeug folgen, Dabei bleiben allerdings klassische militärischen Forderungen nach Eigenschutz und Sicherung noch unbeantwortet. Hier werden die progressiven Entwickler mutmaßlich die Begleitung durch bewaffnete Drohen anbieten, die aber sehr reaktionsschnell mit einer "starken KI-Ausstattung" versehen sein müssten.

 

KI dient nicht allein der Steuerung von Waffensystemen. Vorweg geht eine Lagebewertung, die eine Unzahl von Daten verarbeiten muss, bevor eine Entscheidung über eine Reaktion erfolgen muss. Das kann schon damit beginnen, dass man in einem Ministerium Geodaten, ökonomische und politische Informationen maschinell auswertet und für die Krisenfrüherkennung nutzt. Für die Lagedarstellung am Boden, zur See, in der Luft bzw. im Weltraum und für die Koordination von  Sensoren und Effektoren (Waffen) in einem Führungsinformationssystem für eine vernetzte Gefechtsführung bietet KI ein unbegrenztes Einsatzfeld.

 

Die Nutzung der KI verbessert auch die Einsatzunterstützung. Komplexe neue Waffensysteme, vor allem Flugzeuge, ermitteln während des Einsatzes ununterbrochen Daten über den Zustand und die Leistung des Geräts, welche unmittelbar für die logistische Betreuung ausgewertet und nach Einsatzende sofort in logistische Maßnahmen umgesetzt werden. Beim EUROFIGHTER führte der Ausfall des logistischen Führungsinformationssystems am Boden schon zu Startverboten!

 

In Deutschland scheint großer Konsens zu bestehen, dass der tödliche Einsatz von Waffen aufgrund autonomer Systementscheidungen international geächtet werden sollte. Weniger brisant ist die Nutzung von KI in Roboterfahrzeugen zur Kampfmittelräumung. Die Ächtung von letaler KI wird ein deutsches Ziel internationaler Politik sein mit offenem Ausgang. Auch die Skeptiker sehen die Notwendigkeit, bei der Forschung zur KI im Spiel zu bleiben, um durch Kompetenz auch Mitsprache zu wahren.

 

Es gibt gerade auch für den Verteidiger bei der Abwehr extrem schneller Systeme im hypersonischen Bereich keine andere Wahl als durch KI eine schnelle Reaktion sicherzustellen. Dies gilt vor allem auch für das besonders sensible Problem der Freund-Feind-Identifizierung. Die allerletzte Entscheidung über eine Zerstörung oder über die Art der Ziele kann dann immer noch ein Knopfdruck des Menschen entscheiden. Die KI entscheidet allerdings nach von Menschen gesetzten Regeln. Wer sich zum militärischen Auftrag der Bundeswehr bekennt, muss auch sicherstellen, dass sie unter den Bedingungen der KI-Kriegführung im Einsatz bestehen kann.

 

Die KI steht allerdings zur Zeit noch nicht im Mittelpunkt der deutschen Militärplanung, da die Kräfte der Bundeswehr sich gegenwärtig auf die Füllung der hohlen konventionellen Strukturen konzentrieren müssen. Als Beispiel möge die offizielle Heeresplanung gelten, die bis 2027 die Vollaufstellung einer konventionellen Heeresdivision beabsichtigt, für die beiden weiteren Divisionen, die bis 2032 stehen sollen, allerdings eine durchgehende Digitalisierung vorsieht. Ein Erprobungsverband besteht schon in Munster.

 

Bei der Bundeswehr steht weniger die Entwicklung letaler KI-gestützter Systeme im Vordergrund als die Nutzung zur Führungsinformation und zur Abwehr.

Neuere Schiffsklassen den Marine nutzen Warnsysteme, die Angriffe automatisch melden und Gegenmaßnahmen mit Waffen oder Störmitteln nutzen. Für den Schützenpanzer Puma ist ebenfalls ein passiver Schutz vorgesehen, der anfliegende Geschosse automatisch abwehrt. Bei der Bewertung von KI in der militärischen Nutzung muss man sehr genau nach dem Grad der Autonomie und Automatisierung definieren und differenzieren. Ist Sucherzündermunition der Artillerie, bei der ein von Soldaten vorgegebens Ziel in einer Endphase mittels der Auswertung von Sensordaten präzise durch den Wirkkörper selbst ins Ziel gelenkt wird schon KI im Sinne unserer Diskussion? Sicherlich könnte KI bei einem künftigen Kampfpanzer auf dem Gefechtsfeld weitgehend die Rolle des Kommandanten bei der Beobachtung, Zielerkennung, Zielauswahl und Führung des Feuerkampfes übernehmen und dabei in extremer Schnelligkeit über Bekämpfung oder Nichtbekämpfung, über Leben und Tod entscheiden.

 

Gleichermaßen sind hohe Automatisierung mit eigener Entscheidungfindung bei vielen anderen Systemen wie Geschütze, Kampfschiffe, Luftverteidigungsysteme oder auch Minen denkbar. Bei intelligenten Minen entscheidet der Wirkkörper aufgrund der Sensordaten, ob er ein Ziel bekämpft oder nicht. Übrigens ließen sich so auch Kampfmittel programmieren, die eine Bekämpfung stoppen, wenn Sensoren und KI-Auswertung zivile Ziele erkennen. KI in Kombination mit Kampfdrohnen soll künftig mit Schwärmen von Wirkkörpern ein Zielgebiet ansteuern, wo dann die Drohnen untereinander die Zielbekämpfung ohne menschliche Führung abstimmen. Auf dieser Weise soll die Abwehr gesättigt werden. Dergleichen soll zur Ausstattung des künftigen Kampfflugzeuges FCAS gehören. Erschaudern lassen den Betrachter die Vision von Minidrohnen, die per Gesichterkennung eine bestimmte Person identifizieren und töten können.

 

Bei der Erprobung von mobilen autonomen Systemen auf dem Gefechtsfeld stoßen die Entwickler oft noch auf ganz banale Grenzen, wenn Roboterfahrzeuge bei unerwarteten Hindernissen in schwierigem Gelände passen müssen und autonom keine Alternativen finden.

 

Weniger spektakulär ist der Einsatz von KI in Rechnern von Führungszentralen oder in der Administration, wo sie Unmengen von Daten zur Entscheidungsfindung aufbereiten und Lösungen finden, wo aber auch die Gefahr besteht, dass der Mensch, die Maschine „mal machen lässt“ und sei es nur bei der Personalführung und Auswahl von Soldaten für bestimmte Dienstposten.

 

In der Diskussion wurde nur am Rande erwähnt, dass natürlich auch an vielen Möglichkeiten geforscht wird, KI durch Einwirkungen im Cyberraum zu stören, durch Falschdaten und Täuschungstechnik zu irritieren oder KI-gesteuerten Angriffsmitteln mit ebenso schnell agierdenden KI-gestützten Abwehrmittel zu begegnen. Angesichts der regelmäßigen Klagen über Klarstände in den Rüstungsberichten der Bundeswehr sind auch Zweifel an der Robustheit intelligenter digitalisierter Lösungen angebracht und der „Resetknopf“ für die Rechner des Sorgenkindes Schützenpanzer PUMA ist schon oft Gegenstand bitteren Spotts gewesen.

 

Auf jeden Fall sollte das für viele unangenehme Thema KI in ziviler und militärischer Forschung bzw. Nutzung Gegenstand einer breiten gesellschaftlichen und politischen Diskussion und Beobachtung sein und sich nicht auf Expertenzirkel beschränken. Weltpolitisch dürfte KI von besonderer Brisanz für den Dualismus der um die Vormachtstellung streitenden USA und Volksrepublik China sein, wobei es viele weitere Global Player gibt, die weitgehend ungebremst die zivile und militärische Nutzung der KI vorantreiben, um Vorteile zu gewinnen, die in eine politische Dominanz münden könnten.

 

 

Der Artikel wird weiter bearbeitet .