Als KI-Engineer beschäftige ich mich täglich mit den Möglichkeiten und Grenzen von Künstlicher Intelligenz. Während viele Diskussionen sich um hypothetische Zukunftsszenarien drehen, möchte ich heute die konkreten Gefahren beleuchten, die bereits Realität sind oder in unmittelbarer Zukunft drohen.
Der aktuelle Konflikt in Gaza zeigt erschreckend deutlich, wie KI bereits heute in der Kriegsführung eingesetzt wird. Das israelische Militär nutzt KI-Systeme zur Zielauswahl, wobei die finale Entscheidung zum Angriff oft in weniger als 10 Sekunden getroffen wird. Die IDF gibt eine Fehlerquote von 10% an – eine Zahl, die auf den ersten Blick akzeptabel erscheinen mag, aber bei genauerer Betrachtung erschreckend ist.
Denn diese 10% bedeuten bei einem unausgeglichenen Datensatz, dass die Wahrscheinlichkeit, dass ein identifiziertes Ziel tatsächlich ein legitimes militärisches Ziel ist, dramatisch niedriger sein kann. Wenn nur 1% der Bevölkerung zum gegnerischen Militär gehört, führt selbst eine scheinbar gute Erkennungsrate zu einer erschreckend hohen Zahl von Fehlzielen.
Im Ukraine-Krieg sehen wir eine andere beunruhigende Entwicklung: autonome Drohnenschwärme. Diese können ohne menschliche Steuerung operieren und sind damit immun gegen elektronische Störsignale. Anders als bei einzelnen ferngesteuerten Drohnen gibt es hier keine Möglichkeit mehr für menschliche Intervention, sobald der Schwarm gestartet ist.
Ein weiterer Bereich, in dem KI bereits heute problematisch eingesetzt wird, ist das "Predictive Policing" - der Versuch, durch KI-gestützte Analysen Verbrechen vorherzusagen und zu verhindern. Dies mag zunächst sinnvoll klingen, birgt aber erhebliche Risiken.
Das grundlegende Problem liegt in den Trainingsdaten: Wenn historische Polizeidaten verwendet werden, die bereits von systematischer Voreingenommenheit geprägt sind, verstärkt die KI diese Vorurteile nur noch weiter. Ein System, das mehr Polizeipräsenz in bestimmten Stadtteilen empfiehlt, führt dort zu mehr Festnahmen, was wiederum die Statistiken beeinflusst – ein sich selbst verstärkender Kreislauf der Diskriminierung.
Ein besonders beunruhigender Aspekt der KI-Gefahren ist ihre Asymmetrie. Um ein System sicher zu machen, müssen alle potenziellen Schwachstellen geschlossen werden. Um Schaden anzurichten, reicht oft eine einzige Lücke. Diese Asymmetrie zeigt sich besonders in der Cybersicherheit: Während defensive KI-Systeme alle möglichen Angriffsvektoren abdecken müssen, muss eine offensive KI nur einen erfolgreichen Weg finden.
Ähnlich verhält es sich bei der Verbreitung von Desinformation: Es ist um ein Vielfaches einfacher und schneller, mit KI Fake News zu generieren, als diese zu überprüfen und zu widerlegen. Diese grundlegende Asymmetrie macht es extrem schwierig, defensive Massnahmen erfolgreich zu implementieren.
Die Herausforderung liegt nicht darin, KI komplett zu vermeiden – das wäre weder möglich noch wünschenswert. Stattdessen müssen wir einen Rahmen schaffen, in dem die Anforderungen an KI-Systeme mit ihrem Schadenspotenzial skalieren. Je grösser der potenzielle Schaden eines Systems, desto höher müssen die Anforderungen an seine Zuverlässigkeit und Überprüfbarkeit sein.
Wenn Unternehmen heute noch zögern, einfache Chatbots einzusetzen, weil sie Reputationsschäden fürchten, sollten wir noch viel vorsichtiger sein bei Systemen, die über Leben und Tod entscheiden können. Die Realität zeigt jedoch oft das Gegenteil: Gerade in militärischen Anwendungen werden KI-Systeme mit erschreckender Geschwindigkeit und oft ohne ausreichende Sicherheitsvorkehrungen eingesetzt.
Als KI-Engineer sehe ich meine Verantwortung darin, nicht nur die technischen Möglichkeiten zu entwickeln, sondern auch auf die realen Gefahren hinzuweisen. KI ist weder gut noch böse – aber ihre Implementierung muss mit äusserster Sorgfalt und einem klaren Bewusstsein für die möglichen Konsequenzen erfolgen.
Die Beispiele aus Gaza und der Ukraine zeigen, dass wir nicht mehr über hypothetische Szenarien sprechen, sondern über reale Gefahren, die bereits heute Menschen das Leben kosten können. Es liegt an uns als Gesellschaft, die richtigen Rahmenbedingungen zu schaffen, um sicherzustellen, dass KI zum Wohle der Menschheit eingesetzt wird – nicht zu ihrer Gefährdung.
In aktuellen Konflikten wie Gaza nutzt das Militär KI-Systeme zur Zielauswahl mit Entscheidungszeiten von unter 10 Sekunden. Die IDF gibt eine Fehlerquote von 10% an. In der Ukraine werden autonome Drohnenschwärme eingesetzt, die ohne menschliche Steuerung operieren und gegen elektronische Störsignale immun sind.
Predictive Policing birgt das Risiko, bestehende Vorurteile zu verstärken. Wenn historische Polizeidaten mit systematischer Voreingenommenheit als Trainingsdaten verwendet werden, entstehen sich selbst verstärkende Kreisläufe der Diskriminierung. Erhöhte Polizeipräsenz in bestimmten Gebieten führt zu mehr Festnahmen, was die Statistiken weiter verzerrt.
Die KI-Bedrohung ist asymmetrisch, weil defensive Systeme alle potenziellen Schwachstellen abdecken müssen, während offensive Systeme nur einen erfolgreichen Angriffsweg finden müssen. Dies zeigt sich besonders in der Cybersicherheit und bei der Verbreitung von Desinformation, wo das Generieren von Fake News wesentlich einfacher ist als deren Widerlegung.
Die Zuverlässigkeit militärischer KI-Systeme ist problematisch. Selbst eine scheinbar gute Erkennungsrate von 90% kann bei unausgeglichenen Datensätzen zu einer hohen Zahl von Fehlzielen führen. Wenn nur ein kleiner Prozentsatz der Bevölkerung legitime militärische Ziele sind, steigt die Wahrscheinlichkeit von Fehlidentifikationen dramatisch.
Die Anforderungen an KI-Systeme müssen mit ihrem Schadenspotenzial skalieren. Je grösser der mögliche Schaden, desto höher müssen die Anforderungen an Zuverlässigkeit und Überprüfbarkeit sein. Besonders bei Systemen, die über Leben und Tod entscheiden, sind strenge Sicherheitsvorkehrungen und umfassende Tests unerlässlich.
Autonome Drohnenschwärme operieren unabhängig von menschlicher Steuerung und sind immun gegen elektronische Störsignale. Im Gegensatz zu einzelnen ferngesteuerten Drohnen gibt es keine Möglichkeit zur menschlichen Intervention, sobald der Schwarm gestartet ist, was sie besonders gefährlich macht.
Zentrale ethische Überlegungen betreffen die Verantwortlichkeit bei autonomen Entscheidungen, die Akzeptanz von Fehlerquoten bei lebensbedrohlichen Entscheidungen und die Frage nach menschlicher Kontrolle. Es muss sichergestellt werden, dass KI zum Wohle der Menschheit eingesetzt wird und nicht zu ihrer Gefährdung.
Der Schutz vor KI-gestützter Desinformation ist besonders schwierig, da das Generieren von Fake News wesentlich schneller und einfacher ist als deren Überprüfung und Widerlegung. Wichtig sind kritisches Denken, die Nutzung vertrauenswürdiger Quellen und ein Bewusstsein für die Möglichkeiten der KI-gestützten Manipulation.
.
Copyright 2025 - Joel P. Barmettler