Ethik-Abschnitte als Haftungsausschluss
Es ist immer dasselbe Muster. In KI-Strategien, in Whitepapers, in Beraterpräsentationen. Ein ethisches Problem wird benannt. Bias in Algorithmen, Diskriminierung durch Daten, mangelnde Transparenz. Dann folgt ein Absatz, der nach Verantwortung klingt. Regelmässige Audits. Ethische Leitlinien. Verantwortungsvolle Nutzung. Und dann, ohne Übergang, das nächste Feature.
Diese Ethik-Abschnitte lesen sich wie AGB. Du weisst, dass sie da sind. Du weisst, dass du sie gelesen haben solltest. Und du weisst, dass niemand erwartet, dass du es tust.
Ich habe AGB geschrieben. In einer früheren beruflichen Existenz, als Produktverantwortlicher. Ich weiß, wie sie entstehen. Ein Jurist formuliert, was das Unternehmen absichert. Nicht was den Kunden schützt. Die Sprache klingt neutral. Die Funktion ist einseitig. Das Ziel ist nicht Verständigung. Das Ziel ist Dokumentation. Falls es mal zum Streit kommt, soll nachweisbar sein, dass informiert wurde.
Die Ethik-Abschnitte in KI-Strategien funktionieren genauso. Sie informieren. Sie adressieren nicht. Der Unterschied ist entscheidend.
Adressieren würde bedeuten: Hier ist ein konkretes Problem. Hier ist, was wir darüber wissen. Hier ist, was bisher versucht wurde. Hier ist, warum es nicht funktioniert hat. Und hier sind die Fragen, die wir noch nicht beantworten können. Das wäre ehrlich. Das wäre auch unangenehm. Weil es zeigen würde, dass die Probleme real sind und dass es keine einfachen Lösungen gibt.
Stattdessen steht da: Unternehmen sollten regelmäßige Audits durchführen, um Bias in ihren KI-Systemen zu identifizieren und zu beheben. Das ist ein Satz. Er enthält kein einziges konkretes Element. Welche Audits? Wie oft? Nach welchen Kriterien? Wer führt sie durch? Wer bezahlt sie? Was passiert, wenn der Audit einen Bias findet? Wird das System abgeschaltet? Angepasst? Weiter betrieben?
Nichts davon wird beantwortet. Weil die Antworten unbequem wären. Weil sie das Verkaufsargument unterbrechen würden. Weil wer ehrlich über die Grenzen von KI-Ethik schreibt, weniger Aufmerksamkeit bekommt als wer so tut, als wäre Ethik ein Konfigurationsschritt.
Ich habe mir angewöhnt, in solchen Dokumenten die Ethik-Abschnitte zu markieren und dann zu prüfen: Folgt aus diesem Abschnitt eine konkrete Handlung? Ändert er etwas am vorher Empfohlenen? Schränkt er eine Empfehlung ein? Die Antwort ist fast immer nein. Die Ethik-Abschnitte sind ornamental. Sie verändern nichts an der Substanz. Sie stehen daneben wie ein Feuerlöscher, der an der Wand hängt, aber nie geprüft wurde.
Was mich daran stört, ist nicht die Oberflächlichkeit. Es ist die Funktion. Die Ethik-Abschnitte sind nicht da, weil sich jemand für Ethik interessiert. Sie sind da, weil ein KI-Dokument ohne Ethik-Abschnitte angreifbar wäre. Es ist Absicherung. Wie ein Disclaimer am Ende einer Werbung. Kann Risiken und Nebenwirkungen enthalten.
Echte ethische Auseinandersetzung ist anstrengend. Sie verlangt, Widersprüche auszuhalten. Zu sagen: Dieses Tool kann diskriminieren und wir wissen noch nicht genau, wie wir das verhindern. Das würde Vertrauen schaffen. Nicht weil die Lösung da ist, sondern weil die Ehrlichkeit da ist.
Was stattdessen passiert, ist eine Simulation von Verantwortung. Die Worte stehen da. Die Substanz fehlt. Und der Leser, der nicht genau hinschaut, geht mit dem Gefühl nach Hause, dass Ethik bedacht wurde. Wurde sie nicht. Sie wurde erwähnt. Das ist nicht dasselbe.
Wenn du einen Ethik-Abschnitt schreibst, der nichts am Rest ändert, dann hast du keinen Ethik-Abschnitt geschrieben. Du hast eine Versicherungspolice abgeschlossen.