PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Boeing stellt Prototyp der Begleit-Kampfdrone "Loyal Wingman" vor


Cyphermaster
2020-05-13, 09:00:33
Boeing hat vor Kurzem den ersten Protoypen der neuen "ATS" (Airpower Teaming System) Dronenfamilie vorgestellt (https://www.flugrevue.de/militaer/unbemannter-begleitjet-fuer-fighter-boeing-loyal-wingman-vorgestellt/), die u.a. als fester Begleitschwarm für bemannte Kampfjets eingplant sind (analog zum FACS-Konzept der EU oder der Ochotnik-Drone Rußlands). Damit steht der Wechsel von fernsteuerbaren Überwachungsfliegern mit Waffenstartoption zu dedizierten, KI-augmentierten Kampfdronen unmittelbar bevor - die sogar eine "Verlustoption" haben, also vorbereitet sind, selbst als Fernlenkwaffe genutzt zu werden (daher wohl auch das jeweilige, wechselbare Missionsmodul in der Nase untergebracht).

https://imgr1.flugrevue.de/image-169FullWidth-2bb734fa-1691557.jpg

Das markiert nicht nur einen technologischen Wechsel, sondern dokumentiert imo auch, daß durch den folgenden Nachrüstdruck solche Systeme mit hohem Autonomiegrad in Zukunft aus keiner Armee mit relevanter Schlagkraft wegzudenken sein werden; mit allen technschen, strategischen, politischen wie ethischen Problemen. Die Kampfdronen-Gegner scheinen nicht nur die Diskussion um eine Grenzziehung zwischen zu erlaubenden, "unkritischen" Fernlenkwaffen und problematischen Kampfdronen verloren zu haben, sondern auch von den Militärs und Politikern hinsichtlich zunehmend automatisierter Kriegsführung vor vollendete Tatsachen gestellt zu werden...

Neosix
2020-05-13, 12:54:10
Man wird am Anfang bestimmt versuchen zu Argumentieren, dass der Pilot der F35/F18 ect. den begleit "Schwarm" steuert, und es nix anderes als Raketen sind die man eh mitführt und die zum Teil ja auch Logik besitzend selbstständig Ziele aufzuschalten. Auch die "Verlustoption" ist interessant, ein Objekt ist bestimmt viel schwerer abzufangen vor dem Angriff, wenn man kein Fluchtvektor mit berücksichtigen muss.

Monger
2020-05-13, 14:14:55
Es ist wohl nahezu unmöglich, diese Entwicklung aufzuhalten. Krieg wird ja als "Verteidigung" euphemisiert, und natürlich verliert man lieber eine Maschine als einen Menschen bei der Verteidigung. Man schießt ja nicht, man schießt allenfalls zurück.

Und natürlich sind diese Dinger unermesslich teuer, und um eigenes Personal zu schützen muss dann der Rüstungsetat erhöht werden.

Haarmann
2020-05-15, 13:58:34
Cyphermaster

Wie lange ist die Mängelliste des von Boeing produzierten Mülleimers F-35 schon wieder?

Warens jetzt knapp 4000 Fehler oder leicht drüber?

Das klingt für mich, bei so ner Kiste, vielmehr nach Selbstmord, denn Mut - Sorry.

Die Idee ist eine Sache - die Mängelliste ne Andere.

Scrypt0n
2020-05-15, 14:14:43
Wie lange ist die Mängelliste des von Boeing produzierten Mülleimers F-35 schon wieder?Irrelevant?
Es geht hier doch nicht um die F-35; die außerdem, so ganz nebenbei bemerkt, von Lockheed Martin stammt - nicht von Boeing.

Joe
2020-05-15, 14:32:05
Cyphermaster

Wie lange ist die Mängelliste des von Boeing produzierten Mülleimers F-35 schon wieder?

Warens jetzt knapp 4000 Fehler oder leicht drüber?

Bei einer so komplexen Maschine wäre 4000 nicht viel, besonders wenn die Software Bugs mitzählen. 4000 Mängel findet ein guter Sachverständiger schon, wenn Du ein 15m Segelboot von der Werft übernimmst :lol:

Scrypt0n
2020-05-15, 14:42:40
Bei einer so komplexen Maschine wäre 4000 nicht vielÄh... doch, ist es...

https://www.flugrevue.de/militaer/joint-strike-fighter-die-f-35-besitzt-nur-noch-873-maengel/

https://www.businessinsider.de/tech/f-35-kampfjet-teuerste-waffe-ist-fuer-das-us-militaer-bedrohung-2019-6/

Großmeister_Varius
2020-05-15, 15:10:47
Wenn wir an dem Punkt sind, an dem die K.I. autonom Ziele bekämpft, ohne das jemand humanoides eine Freigabe erteilt, dann haben wir ein Problem. Aber auch in dem Fall liegt die Befehlsgewalt letztlich beim Menschen, der so ein System auch jederzeit abschalten kann (können muss) und daher sehe ich da gar nicht so ein gravierendes neues ethisches Problem. Es ist dasselbe alte Problem nur in neuem Gewand.

Den Kampfroboter, der Raketen in ein Kinderkrankenhaus feuert, weil er es für ein Taliban-Versteck hält, schätze ich tatsächlich sogar als weniger wahrscheinlich ein, als den Mensch-Befehlsträger-XY, dem selbiger Fehler unterläuft und mit zunehmender Entwicklung wird sich dies weiter bestätigen. Die K.I. macht nur Fehler wenn der Mensch sie einprogrammiert.

Tatsächlich wird der Krieg mit zunehmendem Grad an artifizieller Autonomisierung eher "sauberer", weil er chirurgischer wird. Es ist so ähnlich wie mit dem Autofahren. Klar machen die Autopiloten noch Fehler mit tödlichen Unfällen hier und da, aber wir stehen auch noch am Anfang. In 20-30 Jahren wird es aller Vorraussicht nach keine oder so gut wie keine Verkehrsunfälle mehr geben, weil dann jedes Fahrzeug K.I. haben wird und stetig miteinander kommuniziert. Fahrzeuge werden so etwas wie fahrende Router werden, die eine Art Cloud bilden. Damit wird die Straße zu einem Verkehrs-Simulator-Game in Realtime.

Monger
2020-05-15, 16:09:40
Ich sehe schon ein Problem darin, ethische Entscheidungen aus 10.000km Entfernung zu treffen, und dabei immer weniger Menschen zu beteiligen. Dass im Krieg aus technischem Versagen heraus Menschen sterben, ist eigentlich schon länger kein allzu großes Problem mehr.

Voodoo6000
2020-05-15, 16:46:08
Es sterben aber auch viele Menschen weil Menschen Fehler machen. Autonome Fahrzeuge werden sicherer werden als Fahrzeuge mit menschlichem Fahrer. Vielleicht hilft Ki später auch ungewollte Tote im Krieg zu vermeiden.

Monger
2020-05-15, 17:30:15
Der Zweck von Krieg ist aber nicht der selbe wie beim autonomen Fahren. Kollateralschäden sind kein "Unfall". Alles was Distanz schafft, macht den Krieg eher schmutziger denn sauberer. Vor allem in Zeiten extrem asymmetrischer Kriegsführung.

Btw., wir haben ja auch an KI gesehen, dass die nur so weit ethisch sein kann wie die Dinge die sie lernt. Die kann daher durchaus rassistisch und unfair sein.

Cubitus
2020-05-15, 17:43:06
Die Ähnlichkeit ist verblüffend :uponder:

https://i.pinimg.com/originals/c7/6a/5a/c76a5a80a95aab425a945ca5443aa57c.jpg
Skynet Hunter Drohne


Btw., wir haben ja auch an KI gesehen, dass die nur so weit ethisch sein kann wie die Dinge die sie lernt. Die kann daher durchaus rassistisch und unfair sein.

Eine KI nimmt dir in gewisser Weise die Verantwortung ab...
Je nach dem wie kurz oder lang die Leine ist...

Es sterben aber auch viele Menschen weil Menschen Fehler machen. Autonome Fahrzeuge werden sicherer werden als Fahrzeuge mit menschlichem Fahrer. Vielleicht hilft Ki später auch ungewollte Tote im Krieg zu vermeiden.

kommt drauf an.. zwischen schieß auf alles was sich bewegt und prüfe auf Muster XY liegen Welten.. kann man nur schwer mit autonomen Fahren vergleichen, da hast du viel mehr gesetzte Gegebenheiten..
Und im Krieg ist es meistens so.. Erst schießen dann fragen..

Cyphermaster
2020-05-18, 12:25:12
Wie lange ist die Mängelliste des von Boeing produzierten Mülleimers F-35 schon wieder?
(...)
Das klingt für mich, bei so ner Kiste, vielmehr nach Selbstmord, denn Mut - Sorry.Wer spricht denn von Mut? Auf jeden Fall: Die F-35 fliegt man trotz allem. Aber ja, grade das Thema "Fehlerquote" ist sicherlich eines. Nur, weil die Drone ja nicht bemannt ist, ist das im Zweifel dann eher kein Selbstmord; wenn sich die Drone ein falsches Ziel sucht, hat sie mehr Chancen, andere als den Piloten zu erwischen.
Man wird am Anfang bestimmt versuchen zu Argumentieren, dass der Pilot der F35/F18 ect. den begleit "Schwarm" steuert, und es nix anderes als Raketen sind die man eh mitführt und die zum Teil ja auch Logik besitzend selbstständig Ziele aufzuschalten.Wenn wir an dem Punkt sind, an dem die K.I. autonom Ziele bekämpft, ohne das jemand humanoides eine Freigabe erteilt, dann haben wir ein Problem. Aber auch in dem Fall liegt die Befehlsgewalt letztlich beim Menschen, der so ein System auch jederzeit abschalten kann (können muss) und daher sehe ich da gar nicht so ein gravierendes neues ethisches Problem. Es ist dasselbe alte Problem nur in neuem Gewand.Richtig. Aber es stellt sich in größerer Breite. Bisher waren autonome Systeme zwar schon vorhanden, aber eher in begrenzter Form (Raketenabwehrsysteme wie Phalanx zum Beispiel erkennen und bekämpfen seit etlichen Jahrzehnten vollautomatisch). Es gibt schließlich leider keine wirklich glasklar zu ziehende Grenze zwischen den Fähigkeiten einer Mine, die nur bei einem bestimmten Gewichtsbereich auslöst, um selektiv Panzer zu treffen (nur "konstruktive" Intelligenz), der Fähigkeit einer Luft-Luft-Rakete, ein im Kurvenkampf verlorengegangenes Ziel selbständig erneut aufzufassen (nur "sensorische" Intelligenz), und einem Strategisch-taktischen Kampfführungs- und Kommandocomputer mit einer Dronenarmee.

Es dürfte vor dem Hintergrund des praktischen Einsatzes solcher Waffen schwierig sein, über eine rein akademische Diskussion hinaus irgendeinen Schritt weg von der uneingeschränkten Dominanz des Machbaren zu erreichen.
Den Kampfroboter, der Raketen in ein Kinderkrankenhaus feuert, weil er es für ein Taliban-Versteck hält, schätze ich tatsächlich sogar als weniger wahrscheinlich ein, als den Mensch-Befehlsträger-XY, dem selbiger Fehler unterläuft und mit zunehmender Entwicklung wird sich dies weiter bestätigen. Die K.I. macht nur Fehler wenn der Mensch sie einprogrammiert.
IMO völliger Irrglaube. Eine K.I. macht nur dann keine über die Programmierung hinausgehenden Fehler, wenn ihr vollumfänglich alle relevanten Daten gesichert vorliegen. Ein Zustand, der real und umso mehr noch im Kriegszustand kaum zu erreichen ist. Mit imperfekten oder nicht schon vorbereiteten Daten muß so eine K.I. für eine Entscheidung notwendig ebenso "raten" wie der Mensch. Und bei sowas kann -und wird- es Fehler geben. Vielleicht nicht mal so groß bei der menschlich einprogrammierten Art und Weise der Berechnung von Wahrscheinlichkeiten, der Gewichtung der einzelnen Faktoren oder den Gleichungen, die man zur Extrapolation benutzt; sondern alleine schon durch den Punkt, daß es sich rein um Wahrscheinlichkeiten handelt.
Und natürlich sind diese Dinger unermesslich teuer, und um eigenes Personal zu schützen muss dann der Rüstungsetat erhöht werden.Nicht mal. Durch den Wegfall von vielen Systemen, die man nur wegen einem Piloten braucht, sind die Dinger vergleichsweise zu einem Jet billig. Insbesondere, wenn man die schwer und langwierig zu ersetzenden Piloten bzw. dessen Ausbildung, regelmäßige Überprüfung, Altersversorgung,... auch noch als Kostenfaktor mit betrachtet. Grade das halte ich zurecht für einen Eskalationsfaktor, weil für die politischen Entscheider noch deutlich weniger Hemmschwelle besteht, ein paar hundert Kilogramm Material als zusätzlich noch Menschenleben zu riskieren.