angst.jpg
g71.jpg
rheinmetall-entwaffnen.jpg
räte01.jpg
siko2.jpg
pag4.jpg
previous arrow
next arrow

Online: Künstliche Intelligenz und Krieg: Autonome Waffen und die moralische Herausforderung des systematischen Tötens

Kategorie
Online-Veranstaltung
Date
2024-11-07 19:00
Veranstaltungsort
Online

Künstliche Intelligenz und Krieg: Autonome Waffen und die moralische Herausforderung des systematischen Tötens

Autonome Waffensysteme und algorithmische Kriegsführung sind ernsthaft auf dem Vormarsch. In den aktuellen Kriegen in der Ukraine und in Gaza zeigt sich auf unterschiedliche Weise der Aufstieg des durch moderne Datenverarbeitung gestützten, systematischen Tötens. Militärische KI-Programme auf der ganzen Welt streben danach, die – wie das US-Militär es nennt – «Zeitspanne zwischen Sensor und Schütze» zu verkürzen und die «Tödlichkeit» ihrer Operationen zu «erhöhen». Systeme wie «Lavender» (welches die IDF zur Zielauswahl in Gaza einsetzen) sind keine Autonomen Waffensysteme (aka Killerroboter), aber sie beschleunigen die Tötungskette und machen den Prozess des Tötens zunehmend autonomer. KI-Zielsysteme stützen sich auf Daten von Computersensoren und anderen Quellen, um statistisch zu bewerten, was ein potenzielles Ziel ist.

Systeme wie «Lavender» werfen viele ethische Fragen in Bezug auf Trainingsdaten, Verzerrungen, Genauigkeit, Fehlerquoten und vor allem die Frage nach der Voreingenommenheit der Automatisierung auf. Durch die Automatisierung werden alle Befugnisse, einschließlich der moralischen, an die leidenschaftslose Schnittstelle der statistischen Verarbeitung abgetreten. Durch die Nutzung von Künstlicher Intelligenz wird der Spielraum für menschliches Handeln an den Rand gedrängt. Die Logik des Systems erfordert dies aufgrund der vergleichsweise langsamen kognitiven Systeme des Menschen. Damit entfällt auch das menschliche Verantwortungsgefühl für die vom Computer erzeugten Ergebnisse.

Mit Tödlichen Autonomen Waffensystemen (LAWS) und dem KI-gestützten Töten im weiteren Sinne wird die Gewalt im wahrsten Sinne des Wortes systematisiert. Das System sorgt für die Organisation, die optimierte Funktion, die Distanzierung und das moralische Vakuum, das für die Ausweitung der Tötungsarten erforderlich ist, anstatt Zurückhaltung zu fördern. Das Versprechen dabei: Autonome Waffensysteme könnten durch leidenschaftlose Gewaltanwendung zu ethischeren Akteuren im Krieg werden. Elke Schwarz warnt vor den kalten und leidenschaftslosen Formen systematischer Gewalt, die den moralischen Status menschlicher Ziele ebenso untergraben wie den Status derjenigen, die an dem System selbst beteiligt sind.

Elke Schwarz, Queen Mary University London, International Committee for Robot Arms Control (ICRAC). Moderation und Einführung: Norbert Schepers, Politikwissenschaftler, Rosa-Luxemburg-Initiative – Rosa-Luxemburg-Stiftung Bremen.

Die Veranstaltung ist Teil der Veranstaltungsreihe KI, Klima, Krise, Krieg - Wie Künstliche Intelligenz unser Leben verändert der Rosa Luxemburg Stiftung Hamburg, der Rosa-Luxemburg-Stiftung Baden-Württemberg und der Rosa-Luxemburg-Initiative Bremen.

Für die Zugangsdaten wenden Sie sich bitte per Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.



 
 

Liste der Daten (auf der Veranstaltungs-Details Seite)

  • 2024-11-07 19:00

Powered by iCagenda