menu +

Nachrichten


Berlin/München. Das Thema „Nutzung von Künstlicher Intelligenz in der Bundeswehr“ hat durch die aktuelle Drohnen-Debatte erneut an Bedeutung gewonnen. Auch wenn dabei vieles miteinander verrührt wird. Die SPD-Parteiführung – allen voran Bundesvorsitzender Norbert Walter-Borjans und Fraktionschef Rolf Mützenich – hat die Entscheidung, ob die neuen Bundeswehr-Drohnen des Typs Heron TP auch bewaffnet aufsteigen dürfen, vertagt – in die nächste Legislaturperiode. Der Koalitionspartner CDU/CSU ist verärgert, auch aus der eigenen Partei gab es heftige Reaktionen. So erneuerten beispielsweise Bundesaußenminister Heiko Maas und Eva Högl, SPD-Mitglied und Wehrbeauftragte, inzwischen deutlich ihre Forderung nach einer Heron-TP-Bewaffnung. Fritz Felgentreu, verteidigungspolitischer Sprecher der SPD-Bundestagsfraktion, trat gar von seinem Amt zurück, weil er den offensichtlichen Links-Kurs der Borjans und Mützenichs öffentlich nicht vertreten wollte. Der Drohnen-Disput überlagert, dass die „Künstliche Intelligenz“ – kurz KI – längst schon Einzug gehalten hat in die deutschen Streitkräfte …

Was ist, was kann KI? In einem Fachbeitrag der Universität der Bundeswehr München heißt es: „Künstliche Intelligenz (KI) ermöglicht es Maschinen und technischen Systemen ihre Umgebung wahrzunehmen, zu verstehen, Zusammenhänge zu erlernen, entsprechend ihres Wissens zu handeln und ihr Verhalten den Gegebenheiten bestmöglich anzupassen. Anhand von Expertenwissen oder Sensor- beziehungsweise Systemdaten lernt das System intelligentes Verhalten und kann somit Aufgaben übernehmen, die sonst vom Menschen durchgeführt werden oder mit hohem Programmieraufwand verbunden sind.“

Ein KI-basiertes System erkenne seine Umgebung, so die Autoren weiter. Auch kenne es seinen Systemzustand und seine Fähigkeiten und leitet daraus Zusammenhänge und Handlungen – abgestimmt auf die erwünschten Aufgaben und den aktuellen Systemzustand – ab. Maschinen und Systeme könnten dabei durch diverse Algorithmen und Methoden aus den Bereichen der KI die Fähigkeiten intelligenten Verhaltens erwerben.

Dem Menschen und traditionell programmierter Software bereits voraus

KI-basierte Systeme kommen bereits seit einiger Zeit in Bereichen der Bild- und Spracherkennung sowie bei der Datenauswertung zum Einsatz. Dabei sind sie den Experten der Bundeswehr-Universität München zufolge „in ihren Fähigkeiten, ihrer Präzision und ihrer Geschwindigkeit dem Menschen und traditionell programmierter Software bereits voraus“.

Außerdem spielen KI-basierte Systeme nicht nur in der Entwicklung von autonomen Fahrzeugen und kollaborativen Robotern eine wichtige Rolle, sondern werden bereits in Fahr-Assistenzsystemen und in der Industrie – beispielsweise zur Qualitätssicherung – eingesetzt. Auch in der Raumfahrt, wo hohe Autonomie, Zuverlässigkeit und Genauigkeit von Systemen von immenser Bedeutung sind, hielten einzelne Methoden der KI bereits Einzug.

Künstliche Intelligenz soll alle Menschen unterstützen, nicht entfremden

Das Bundesforschungsministerium fördert seit Längerem bereits die KI-Forschung, „um offene Fragen zu diskutieren, Potenziale zu erkennen und Gefahren abzuwenden“. Dabei lautet die zentrale Vorgabe: „Künstliche Intelligenz muss vom Menschen her gedacht werden – denn die Technik soll alle Menschen unterstützen, nicht entfremden.“

Am 15. November 2018 hatte das Bundeskabinett die Strategie „Künstliche Intelligenz“ (KI-Strategie) der Bundesregierung beschlossen. Diese versteht sich vor dem Hintergrund der dynamischen Entwicklung dieses Technologiefeldes als Handlungsrahmen für die kommenden Jahre und ist Teil der Umsetzungsstrategie „Digitalisierung“. Für die Umsetzung der KI-Strategie hatte die Bundesregierung bis 2025 zunächst drei Milliarden Euro bereitgestellt.

Diese Mittel wurden mittlerweile bei der Fortschreibung der KI-Strategie am 2. Dezember vergangenen Jahres mit dem Konjunktur- beziehungsweise Zukunftspaket auf fünf Milliarden Euro erhöht, „um Deutschland im Kampf gegen die COVID-19-Pandemie auch durch Forschung, Entwicklung und Einsatz von KI zu stärken und die Grundlagen für die Wettbewerbsfähigkeit auch nach der Krise zu legen“.

Implementierung von KI in die Heeresentwicklung

Auch die Bundeswehr befasst sich längst schon intensiv mit der neuen Zukunftstechnologie KI. So wurde beispielsweise in den Jahren 2018 und 2019 im Amt für Heeresentwicklung mit dem Format „Technology meets Capabilities“ (sinngemäß „Technologie trifft auf Fähigkeiten“) das Thema „Künstliche Intelligenz“ umfassend erschlossen.

Alle wesentlichen Erkenntnisse wurden danach in einem Positionspapier „Künstliche Intelligenz in den Landstreitkräften“ konzentriert und in einer Broschüre publiziert. Das Format „Technology meets Capabilities“ war und ist richtungsweisend für die Implementierung von KI in die Heeresentwicklung. Im Verlaufe des Studienprozesses fanden unter anderem ein Informationstag und vier Workshops – unter Teilnahme aller Truppengattungen und Domänen – sowie zwei Innovationstage unter Beteiligung von Vertretern der Wissenschaft und der Industrie statt. Diese Veranstaltungen legten die Grundlage dafür, das Zukunftsthema „KI“ in der Heeresentwicklung zu platzieren.

Die Frage „Wie kann Künstliche Intelligenz in der Bundeswehr genutzt werden?“ stand auch im Mittelpunkt eines eintägigen Workshops im Februar vergangenen Jahres in den Räumen der „Frankfurt School of Finance and Management“. Zielgruppe des Workshops waren rund 20 Spitzenkräfte aus allen Bereichen der Bundeswehr. Mit dabei auch Brigadegeneral Klaus Frauenhoff, Kommandeur des Logistikzentrums der Bundeswehr in Wilhelmshaven. Die Veranstaltung machte deutlich, dass heute kaum noch eine Branche – ob Logistik, Transport, Industrie- und Automobilbranche, Tourismus oder Verlagsgeschäft – ohne den Bereich „Künstliche Intelligenz“ auskommt. Und unsere Streitkräfte?

Effizienterer Einsatz von Personal und Erhöhung der Reaktionsgeschwindigkeit

Die Bundestagsabgeordnete Agnieszka Brugger (Bündnis 90/Die Grünen) wollte von der Bundesregierung wissen, in welchen Bereichen die Bundeswehr derzeit Künstliche Intelligenz einsetzt und in welchen Bereichen ein derartiger Einsatz geplant ist?

Am 8. Dezember antwortete ihr der Parlamentarische Staatssekretär bei der Bundesministerin der Verteidigung, Thomas Silberhorn. In seinem Schreiben für die Bundesregierung heißt es: „Die Bundeswehr setzt derzeit Anwendungen Künstlicher Intelligenz in der Gesundheitsversorgung ein. Diese sind vergleichbar mit zivilen Anwendungen, beispielsweise im Bereich der Computer-assistierten Chirurgie.“

Darüber hinaus werde im Kölner Bundessprachenamt seit Januar 2020 die auf Künstlicher Intelligenz basierende Digitalisierungsmaßnahme „Neuronale Maschinelle Übersetzung“ als Pilotprojekt eingeführt, um die Übersetzer des Geschäftsbereichs des Verteidigungsministeriums zu unterstützen.

Künstliche Intelligenz findet laut Silberhorn mittlerweile auch Anwendung im Lagezentrum für den Cyber- und Informationsraum und unterstützt dort die Erstellung eines fusionierten Lagebildes. Künstliche Intelligenz soll zukünftig auch im Rahmen der zivil-militärischen, ressortübergreifenden Krisenfrüherkennung bei der Analyse von Massendaten und für Prognosen zum Einsatz kommen – dazu gleich mehr.

Der Staatssekretär schloss seine Antwort mit dem Hinweis: „Darüberhinausgehende Einsatzmöglichkeiten von Künstlicher Intelligenz in der Bundeswehr werden im Kontext zukünftiger Entwicklungen betrachtet. Ziel ist es, mögliche Innovationsgewinne, wie etwa einen effizienteren Einsatz von Personal oder die Erhöhung der Reaktionsgeschwindigkeit durch Beherrschbarkeit von immer größeren Datenmengen und Komplexitäten, zu erreichen.“

Präzises gesamtstaatliches Lagebild und zielgerichtete Handlungsempfehlungen

Stichwort „Krisenfrüherkennung“ und noch einmal Blick zur Münchner Bundeswehr-Universität: Carlo Masala, Professor für Internationale Politik und Co-Direktor des „Center for Intelligence and Security Studies“ (CISS), baut derzeit federführend für die Universität das „Kompetenzzentrum Krisenfrüherkennung“ auf. Das Zentrum soll einmal das Verteidigungsministerium unterstützen.

Eine Pressemitteilung der Universität erklärt das Vorhaben: „Im Rahmen des Projektes, das vorerst im Rahmen einer Pilotphase bis Ende 2023 geplant ist, soll die IT-unterstützte Krisenfrüherkennung mit wissenschaftlichen Methoden weiterentwickelt werden. Hierzu wird Grundlagenforschung im Bereich ,Krisenfrüherkennung‘ betrieben, deren Erkenntnisse in moderner Informationstechnologie Anwendung finden. Aus der Analyse der Daten sollen KI-Modelle mögliche Krisen erkennen und sie grafisch darstellen. Dafür werden die maschinell analysierten Daten auch mit weiteren Informationen kombiniert – lernfähige Software kann Datenberge auswerten und in ihnen Tendenzen erkennen, die menschliche Analysten nicht sehen. Das Projekt soll dabei helfen, Krisen frühzeitig zu erkennen, um entsprechend präventiv darauf reagieren zu können.“

Masala selbst weist auf ein Novum hin: „Das Problem in der Vergangenheit war oft, dass Systeme zur Krisenfrüherkennung hauptsächlich von großen Unternehmen entwickelt wurden, die zwar vielleicht modelltechnisch sehr gut waren, aber wenig sozial- und politikwissenschaftlichen Hintergrund hatten. Das soll sich mit dem neuen Zentrum ändern. Hier werden Sozialwissenschaftler zusammen mit Wissenschaftlern aus dem IT-Bereich Hand in Hand arbeiten.“

Die Idee hinter dem Projekt sei, mit einer Prognose für bis zu 18 Monate die „Awareness“ zu erhöhen und gegebenenfalls mit „nichtmilitärischen Mitteln“ eine Eskalation zu verhindern. „Es geht nicht darum, schon mal Streitkräfte dispositiv zu machen, sondern ressortübergreifend darüber nachzudenken, was man tun kann“, betont Masala. Man wolle den Analysten nicht ersetzen, sondern ergänzen.

Die Ergebnisse des „Kompetenzzentrums Krisenfrüherkennung“ könnten somit zu einem präziseren gesamtstaatlichen Lagebild sowie zur Ableitung zielgerichteter Handlungsempfehlungen beitragen – und somit auch zum präventiven Krisenmanagement der Bundesregierung. Daher soll grundsätzlich auch anderen Ministerien des Bundes die Möglichkeit einer gleichberechtigten Partizipation am Zentrum offenstehen.

Keinesfalls autonome Waffensysteme für die Bundeswehr

Zum Schluss zurück zu unserem Einstiegsthema, den bewaffneten Drohnen. Sie werden bei der Befassung mit „Künstlicher Intelligenz“ oft in einem Atemzug genannt mit den sogenannten „autonomen Waffen“. Brigadegeneral Gerald Funke aus der Abteilung „Planung“ im Verteidigungsministerium erklärte einmal in einem Gespräch mit der WELT: „Grundsätzlich muss unterschieden werden zwischen heute bereits vorhandenen automatisierten Systemen und noch nicht existenten autonomen Systemen, die auf dem Einsatz von KI-Systemen basieren.“

Der Luftwaffenoffizier erinnerte daran, dass die Bundesregierung sich aktiv für die Ächtung letaler autonomer Waffensysteme einsetze, die dem Menschen die Entscheidungsgewalt über Leben und Tod entzögen. Die Bundeswehr verfüge über Waffensysteme, die entweder ferngesteuert betrieben oder im Sinne des Folgens vorprogrammierter Algorithmen automatisiert seien, eine vorhersehbare Wirkung erzielten und damit nicht eigenständig Entscheidungen über Leben und Tod treffen würden. Funke versicherte: „Die Bundeswehr verfügt über keine autonomen Waffensysteme und plant auch nicht deren Einführung.“

Niklas Schörnig, wissenschaftlicher Mitarbeiter bei der Hessischen Stiftung „Friedens- und Konfliktforschung“ (HSFK), sieht es ähnlich. Bewaffnete Drohnen und autonome Waffen seien nicht dasselbe, sagt Schörnig, der unter anderem zum Komplex „Militärische Robotik“ forscht. In einem Interview mit dem evangelischen Magazin chrismon im Juli 2020 erklärte er: „Das sind unterschiedliche Systeme. Die bewaffneten Drohnen, über die aktuell geredet wird, sind ferngesteuert. Da entscheiden immer noch Menschen über den Waffeneinsatz. Zwar haben heutige Drohnen auch schon autonome Funktionen – zum Beispiel fliegen sie selbstständig Routen ab, ohne dass jemand den Steuerknüppel halten muss. Aber die kritischen Funktionen Zielauswahl und -bekämpfung, wie es im Militärjargon heißt, sind noch beim Menschen.“

Eine autonome Waffe wäre ein System, so Schörnig, das sich seine Ziele selbst suche, analysiere und über einen Waffeneinsatz entscheide, ohne Menschen einzubeziehen. „Zielt diese Waffe darauf, Menschen zu töten, sprechen wir von einem letalen autonomen Waffensystem.“

Wir haben das Positionspapier des Kölner Amtes für Heeresentwicklung „Künstliche Intelligenz (KI) in den Landstreitkräften“ für Sie auch in unserem Servicebereich „bundeswehr-journal (Bibliothek)“ beim Dienstleister Yumpu-Publishing eingestellt. Sie können sich hier die einzelnen Inhalte gezielt ansehen, ein Download der Datei oder ein Ausdruck einzelner Seiten ist aber nicht möglich. Über die ESC-Taste in Yumpu kommen Sie hierhin zurück. Zu der Publikation:

Klicken Sie auf den unteren Button, um den Inhalt von www.yumpu.com zu laden.

Inhalt laden



Zu unserem Bildmaterial: Symboldarstellung „Künstliche Intelligenz“ aus dem Bildangebot von Pixabay.
(Foto: Gerd Altmann/unter Pixabay License = freie kommerzielle Nutzung, kein Bildnachweis erforderlich)


Kommentieren

Bitte beantworten Sie die Frage. Dies ist ein Schutz der Seite vor ungewollten Spam-Beiträgen. Vielen Dank *

OBEN