Ein Algorithmus entscheidet, ob ein Angeklagter auf Bewährung freikommt. Ein automatisiertes System empfiehlt, einem Patienten die Behandlung zu verweigern. Ein autonomes Fahrzeug muss in Sekundenbruchteilen wählen, wen es gefährdet. Die Technologie für diese und viele weitere Anwendungsfälle ist schon längst verfügbar. Die Frage ist: Wollen wir, dass Maschinen diese Entscheidungen für uns treffen?
Die Verlockung dafür ist groß. Automatisierte Systeme sind schneller als jeder Mensch. Sie werden nicht müde, sind nicht emotional und schon gar nicht voreingenommen – so zumindest die Annahme. Sie können Millionen von Datenpunkten in Sekunden auswerten, während wir Menschen gerade erst damit begonnen haben, die erste Seite zu lesen. Da liegt die Frage nahe, warum nicht mehr Entscheidungen an Algorithmen und KI delegiert werden sollten.
„In Zukunft regelt das die KI, die kann es ohnehin besser.“ Diese Haltung, oder besser: Hoffnung, begegnet uns immer häufiger. Bei Effizienzprojekten, in Strategiemeetings, im Alltag. Der Gedanke ist nachvollziehbar: Wenn eine Maschine etwas schneller, günstiger und scheinbar objektiver erledigt – warum sollten Menschen sich noch damit belasten? Die Antwort auf diese Frage liegt vielleicht nicht nur in der Fähigkeit. Sie liegt primär in der Verantwortung.
KI-Entscheidungen: Was wir aus der Vergangenheit lernen können
Bevor wir über KI sprechen, lohnt ein Blick auf algorithmische Systeme, die bereits seit Jahren Entscheidungen vorbereiten oder treffen. Diese Systeme nutzen keine neuronalen Netze oder Large Language Models – es sind klassische statistische Verfahren und regelbasierte Algorithmen. Dennoch zeigen sie, welche Risiken entstehen, wenn Maschinen ohne ausreichende menschliche Kontrolle agieren.
Justiz – statistische Risikobewertung im Gerichtssaal: In den USA nutzen Gerichte seit Jahren Systeme wie COMPAS, um Rückfallwahrscheinlichkeiten zu berechnen und Empfehlungen für Strafmaß oder Bewährung auszusprechen. COMPAS basiert auf logistischer Regression – einem klassischen statistischen Verfahren, das einen Fragebogen mit etwa 137 Variablen auswertet und daraus einen Risikoscore berechnet. Wichtig ist: Das ist keine KI im heutigen Sinne, sondern ein algorithmisches Bewertungssystem. Aber: Eine 2016 veröffentlichte Untersuchung von ProPublica analysierte COMPAS anhand von über 7000 Fällen in Florida. Das Ergebnis: Schwarze Angeklagte wurden fast doppelt so häufig fälschlicherweise als hohes Rückfallrisiko eingestuft wie weiße Angeklagte – obwohl sie nicht erneut straffällig wurden. Das System reproduzierte systematisch Verzerrungen aus den historischen Daten, auf denen es trainiert wurde.
Wer trägt die Verantwortung für ein solches Urteil: der Richter, der dem Algorithmus vertraut hat, oder die Entwickler, die ihn programmiert haben?
Finanzmärkte – regelbasierte Algorithmen außer Kontrolle: Am 6. Mai 2010 verlor der US-Aktienmarkt innerhalb von 36 Minuten fast eine Billion Dollar an Wert – der sogenannte „Flash Crash“. Der Dow Jones fiel um fast 1000 Punkte, erholte sich dann aber größtenteils. Was war passiert? Hochfrequenzhandelsalgorithmen – im Wesentlichen regelbasierte If-Then-Logik, die in Millisekunden ausgeführt wird – hatten sich gegenseitig in eine Abwärtsspirale getrieben. Diese Systeme „lernen“ nicht und „entscheiden“ nicht im eigentlichen Sinne. Sie führen vordefinierte Regeln extrem schnell aus. Als eine große Verkaufsorder den Markt traf, reagierten die Algorithmen auf die Algorithmen, die auf die Algorithmen reagierten. Menschen konnten nur zusehen.
Das war keine KI. Aber es zeigt, was passiert, wenn automatisierte Systeme ohne ausreichenden Kontext und ohne menschliche Aufsicht agieren.
Bei weitreichenden Entscheidungen und solchen, die Menschen wesentlich betreffen, muss der Mensch die letzte Instanz bleiben. Nicht aus Nostalgie. Nicht aus Technikfeindlichkeit. Sondern wegen seiner Verantwortung.
Die Lehre: Kontext ist alles
Diese historischen Beispiele offenbaren ein Grundproblem, das genauso auch für moderne KI gilt: Ein System kann nur so gut sein wie der Kontext, der ihm für die Entscheidungsfindung zur Verfügung steht.
COMPAS hatte keinen Kontext für strukturellen Rassismus im Justizsystem – es reproduzierte ihn. Die Handelsalgorithmen hatten keinen Kontext für das Gesamtgeschehen am Markt – sie reagierten blind auf Signale.
Und KI? Die Risiken sind nicht überwunden, sie sind anders gelagert:
Halluzinationen: Große Sprachmodelle generieren überzeugend klingende Aussagen, die faktisch falsch sind – ohne jede Unsicherheitsmarkierung.
Echo-Kammern: Mit jeder Iteration kann sich eine KI tiefer in eine falsche Richtung bewegen. Ein fehlerhafter Ansatz am Anfang vergiftet den gesamten Prozess.
Fehlender Kontext: Eine KI ohne relevanten Kontext erzeugt bestenfalls generische, schlimmstenfalls gefährliche Ergebnisse. Das gilt für Textgenerierung genauso wie für strategische Empfehlungen.
Die Technologie wird besser. Die Grundprobleme bleiben.
Von historischen Algorithmen zu moderner KI – wenn es kritisch wird
Betrachten wir Bereiche, in denen automatisierte Systeme und KI bereits Entscheidungen vorbereiten – oder zukünftig treffen sollen.
Defense Tech – Leben oder Tod auf dem Schlachtfeld: Autonome Waffensysteme können Ziele schneller identifizieren und bekämpfen als jeder menschliche Soldat. Die Technologie existiert. Die Frage ist: Wollen wir, dass eine Maschine über Leben und Tod entscheidet? Ohne Zögern, ohne Zweifel, ohne moralisches Gewicht?
Viele Länder arbeiten an genau solchen Systemen. Die Effizienz-Argumente sind dieselben: schneller, präziser, keine eigenen Verluste. Aber wer trägt die Verantwortung, wenn ein Algorithmus einen Fehler macht? Der Programmierer? Der General? Der Verteidigungsminister? Oder niemand?
Medizin – Wer behandelt wird: KI-Systeme unterstützen bereits bei Diagnosen und übertreffen in manchen Bereichen menschliche Ärzte an Genauigkeit. Das ist ein Fortschritt. Aber was passiert, wenn KI nicht nur diagnostiziert, sondern auch entscheidet?
Das Gesundheitssystem steht regelmäßig vor Ressourcenfragen. Was, wenn ein Algorithmus empfiehlt, einem älteren Patienten eine aufwändige Behandlung zu verweigern, weil die statistische Erfolgswahrscheinlichkeit zu gering ist – ist das objektive Effizienz oder unmenschliche Kalkulation? Und wer erklärt das dem Patienten und seiner Familie?
Autonomes Fahren – Das Trolley-Problem wird real: Ein selbstfahrendes Auto erkennt eine unvermeidbare Gefahrensituation. Es kann nach links ausweichen und einen Aufprall mit einem anderen Fahrzeug riskieren. Oder nach rechts, wo Kinder am Straßenrand stehen. Oder geradeaus, wo ein Hindernis den eigenen Fahrer gefährdet.
Philosophen diskutieren das Trolley-Problem seit Jahrzehnten als Gedankenexperiment. Für autonome Fahrzeuge wird es zur Programmierentscheidung. Wer legt fest, welches Leben mehr wert ist? Und nach welchen Kriterien?
Personalentscheidungen: KI filtert heute schon Bewerbungen vor. Sie bewertet Lebensläufe, analysiert Videointerviews, prognostiziert Erfolgswahrscheinlichkeiten. Das spart Zeit. Aber was, wenn der Algorithmus – trainiert auf historischen Daten – unbemerkt Muster reproduziert, die Menschen diskriminieren? Und wie sieht es bei Kündigungen aus? Wenn ein Algorithmus empfiehlt, bestimmte Mitarbeiter abzubauen, weil ihre Produktivitätskennzahlen unter dem Durchschnitt liegen – wer schaut auf die Hintergründe, die durch die Zahlen nicht abgebildet werden?
Zurück zum Business-Alltag – KI im Unternehmen
All diese Beispiele mögen extrem wirken. Defense Tech, Triage, autonome Fahrzeuge – das ist weit weg vom alltäglichen KI-Einsatz in einem mittelständischen Unternehmen. Oder doch nicht?
Wenn wir uns darauf einigen können, dass automatisierte Systeme und KI bei Leben-oder-Tod-Entscheidungen nicht das letzte Wort haben sollten – warum sollten sie es dann bei Geschäftsentscheidungen haben, die weitreichende Folgen haben und sich ganz real auf Menschen auswirken können?
Eine Strategieentscheidung kann Arbeitsplätze kosten. Familien betreffen. Regionen verändern. Das mag weniger dramatisch klingen als autonome Waffen – aber für die Betroffenen ist es existenziell.
KI kann bei der Strategieentwicklung unterstützen. Sie kann Szenarien durchspielen, Daten analysieren, Blind Spots aufzeigen. Das ist wertvoll. Aber wer entscheidet am Ende, ob die KI-generierte Strategie „gut genug“ ist? Wer übernimmt die Verantwortung für die Konsequenzen?
Das Problem ist schleichend. Mit jeder Entscheidung, die an eine KI delegiert wird, diffundiert ein Stück Verantwortung. Wenn niemand mehr wirklich entscheidet, kann auch niemand mehr wirklich verantwortlich sein. Das ist einerseits bequem, aber gleichzeitig auch gefährlich. Wenn zukünftig davon die Rede ist, dass „die KI das empfohlen hat“, dann ist das keine Rechtfertigung. Es ist eine Ausrede.
5 Leitlinien für KI-gestützte Entscheidungen
Bei weitreichenden Entscheidungen muss der Mensch die letzte Instanz bleiben. Diese Impulse helfen, KI verantwortungsvoll im Unternehmen einzusetzen.
Transparenz
Ist für alle Betroffenen erkennbar, wenn ein Algorithmus oder eine KI an einer Entscheidung beteiligt ist?
Nachvollziehbarkeit
Können Menschen verstehen, wie eine Empfehlung zustande kommt? „Blackbox" ist keine akzeptable Antwort.
Kritisches Hinterfragen
Werden KI-Empfehlungen systematisch überprüft? Algorithmen können Fehler machen – Hinterfragen ist Pflicht.
Letztentscheidung
Trifft ein Mensch die finale Entscheidung und übernimmt dafür Verantwortung? Nicht der Algorithmus – ein Mensch.
Einspruchsrecht
Können Betroffene Entscheidungen anfechten – bei einem Menschen, nicht bei einem Chatbot?
Leitlinien für KI-gestützte Entscheidungen entwickeln
Unsere Position ist eindeutig: Bei weitreichenden Entscheidungen und solchen, die Menschen wesentlich betreffen, muss der Mensch die letzte Instanz bleiben. Nicht aus Nostalgie. Nicht aus Technikfeindlichkeit. Sondern wegen seiner Verantwortung.
Algorithmen und KI sind mächtige Werkzeuge. Sie können Entscheidungen vorbereiten, Optionen aufzeigen, Konsequenzen durchspielen. Sie können uns helfen, besser informiert zu sein, bevor wir entscheiden. Das ist ihr Wert und das ist ihre Rolle. Aber die Entscheidung selbst – und die Verantwortung dafür – muss beim Menschen liegen. Besonders dann, wenn es um ethische Fragestellungen geht.
Ganz konkret bedeutet dies, in unternehmensweit gültigen Leitlinien festzulegen, wie und in welcher Form algorithmische Systeme und KI im Unternehmen genutzt werden.
Die folgenden Impulse können als Ausgangspunkt dienen:
- Transparenz: Ist für alle Betroffenen erkennbar, wenn ein Algorithmus oder eine KI an einer Entscheidung beteiligt ist?
- Nachvollziehbarkeit: Können Menschen verstehen, wie eine Empfehlung zustande kommt? „Blackbox“ ist keine akzeptable Antwort bei Entscheidungen, die weitreichende Konsequenzen haben.
- Kritisches Hinterfragen: Werden die Empfehlungen systematisch überprüft? Algorithmen und KI können Fehler machen. Die Ergebnisse zu hinterfragen, ist deshalb immer relevant.
- Letztentscheidung: Trifft ein Mensch die finale Entscheidung und übernimmt er dafür die Verantwortung? Nicht der Algorithmus. Nicht die Maschine. Ein Mensch.
- Einspruchsrecht: Können Betroffene Entscheidungen anfechten – bei einem Menschen, nicht bei einem Chatbot?
Solche Leitlinien muss jedes Unternehmen individuell für sich entwickeln. Im Idealfall sind sie Teil der KI-Strategie und werden wie jeder Unternehmensprozess regelmäßig überprüft.
Ein abschließender Gedanke – KI Verantwortung im Unternehmensalltag
Die Frage ist nicht, ob Algorithmen oder KI bestimmte Entscheidungen „besser“ treffen können als Menschen. In manchen Dimensionen können sie das zweifellos: schneller, konsistenter, datenbasierter. Die Frage ist vielmehr, ob „besser“ die richtige Bewertungskategorie ist.
Entscheidungen, die Menschen betreffen oder die weitreichende Konsequenzen haben, sind oft nicht nur reine Optimierungsprobleme. Sie reflektieren moralische Haltungen und Standards. Und moralische Handlungen erfordern jemanden, der sie ethisch verantwortet.
Ein Algorithmus kann dafür keine Verantwortung übernehmen. Eine KI kann keine Schuld empfinden. Sie kann nicht vor einem Betroffenen stehen und sagen: „Ich habe diese Entscheidung getroffen, und ich stehe dafür ein.“
Das können nur Menschen. Auch deshalb muss der Mensch die letzte Instanz bleiben. Nicht weil er unfehlbar ist. Sondern weil er als Mensch die ethischen Implikationen nicht nur verstehen, sondern auch nachempfinden kann.
Wie gestalten Sie KI-gestützte Entscheidungsprozesse in Ihrem Unternehmen?
Wer trägt letztlich die Verantwortung, wenn der Algorithmus eine Empfehlung ausspricht und wer, wenn es Konsequenzen gibt? Diese Fragen verdienen mehr als eine schnelle Antwort. Wenn Sie sie gemeinsam durchdenken möchten, sind wir der richtige Sparringspartner.



