US Army rechnet lt. Forschungspapier mit automatischer Cyberkriegsführung

In einem vor kurzem veröffentlichten Artikel des Forschers Alexander Kott (lokale Kopie) vom U.S. Army Research Laboratory analysiert dieser die technischen Entwicklungen der Kriegsführung im Bereich intelligente und vernetze Geräte, autonome Systeme, künstlicher Intelligenz und dem Cyberwar.   In Bezug auf letzteres Themenfeld geht der Forscher davon aus, dass auch hierbei zunehmend autonom entscheidende und selbstlernende Systeme eine wichtige Rolle übernehmen werden.  Über entsprechende Forschungsprogramme wurde bereits in den Snowden-Leaks in Form des Projektes „MONSTERMIND“ berichtet, dessen Ziel die automatische Reaktion auf Cyberattacken mit Hilfe offensiver Gegenmaßnahmen sein sollte. In dem verlinkten WIRED-Interview beschreibt Edward Snowden die Ziele der – damals noch in Entwicklung befindlichen – Software wie folgt:

MonsterMind (..) would automate the process of hunting for the beginnings of a foreign cyberattack. Software would constantly be on the lookout for traffic patterns indicating known or suspected attacks. When it detected an attack, MonsterMind would automatically block it from entering the country—a “kill” in cyber terminology.  Instead of simply detecting and killing the malware at the point of entry, MonsterMind would automatically fire back, with no human involvement  (WIRED)

Das angesichts des aktuellen Hypes um KI auch militärische Forschungseinrichtungen diesem Thema folgen verwundert nicht. In jedem Fall bedeuten solche Überlegungen, dass die wichtigen und seit einigen Jahren intensiv geführten Debatten (expl. heise.de / lokale Kopie) über autonome Entscheidungen zu Offensivwirkungen von militärischen Geräten wie Drohnen oder Robotern auch für den Cyberspace relevant werden (könnten).

Der Vollständigkeit halber hier noch die Schlüsse aus der Zusammenfassung des US-Forschungsartikels:

Intelligent things – networked and teamed with human warfighters – will be a ubiquitous presence on the future battlefield. Their appearances, roles and functions will be highly diverse. The artificial intelligence required for such things will have to be significantly greater than what is provided by today’s AI and machine learning technologies. Adversarial – strategically and not randomly dangerous — nature of the battlefield is a key driver of these requirements. Complexity of the battlefield – including the complexity of collaboration with humans – is another major driver. Cyber warfare will assume a far greater importance, and it will be AI that will have to fight cyber adversaries. Major advances in areas such as adversarial learning and adversarial reasoning will be required. Simulated immersive environments may help to train the humans and to train AI.