Ethik-Abschnitte als Haftungsausschluss
Es folgt immer dem gleichen Muster. Ein ethisches Problem wird beim Namen genannt. Systematische Verzerrungen in Algorithmen, Diskriminierung durch Deep Fake und mangelnde Transparenz. Dann wird noch schnell irgendwas dazwischen gestammelt, das Verantwortung suggerieren soll. Sowas wie regelmäßige Audits, ethische Leitlinien und verantwortungsvoller Umgang mit den Daten. Verantwortungsvoller Umgang dauert aber genau solange, bis alles mit dem nächsten technischen Feature wieder von vorne beginnt. Es reicht nicht, wenn man bei der Registrierung jegliche Daten an der eigenen Person an den Betreiber der Plattform abtritt, es wird verdeckt weitergesammelt und gefaked was das Zeug hält und jeder nimmt es machtlos hin.
Die meisten Ethik-Abschnitte lesen sich wie AGBs. Du weißt, dass es sie gibt und du sie gelesen haben solltest. Aber du weißt auch, dass niemand ernsthaft von dir erwartet, dass du es tust. Ein Klick auf Bestätigen reicht aus.
Ich habe AGBs geschrieben. In früheren beruflichen Projekten, als Berater und Teilverantwortlicher. Ich weiß, wie sie aufgesetzt werden. Ein Jurist formuliert, was das Unternehmen absichert. Nicht was den Kunden schützt. Die Sprache klingt neutral und oft verklausuliert. Das Ziel ist also nicht Verständigung, sondern saubere Dokumentation. Denn falls es mal zum Streit kommt, soll nachweisbar sein, dass jeder hinreichend informiert wurde. Jeder hat das ja auch bestätigt.
Die Ethik-Abschnitte in KI-Projekten funktionieren genauso. Sie informieren, aber adressieren nicht. Das ist ein entscheidender Unterschied.
Adressieren würde bedeuten: Hier ist ein konkretes Problem, denn wir erfahren mehr als wir speichern dürfen. Und hier sind die Fragen, die wir noch nicht beantworten können, weil der Chatbot sich nicht verlässlich verhält. Das wäre ehrlich, aber es ist unangenehm, weil es der technischen Innovation zuvorkommen und sie erst mal einbremsen müsste. Denn es würde klar aufzeigen, dass die Probleme real sind und dass es keine einfachen Lösungen gibt.
Stattdessen steht da: Unternehmen sollten regelmäßige Audits durchführen, um die Verzerrungen in ihren KI-Systemen zu identifizieren und zu beheben. Oft geht es um ernsthafte Diskriminierung von Geschlechtern und Minderheiten. Trotzdem wird nichts konkretisiert. Welche Audits sollen durchgeführt werden? In welchen Zeitabständen? Nach welchen Kriterien? Wer führt sie durch? Wer bezahlt sie? Was passiert, wenn der Audit eine Lücke oder einen direkten Verstoß findet? Wird das System abgeschaltet? Angepasst? Weiter betrieben?
Nichts davon wird so konkret beantwortet, als dass es Schutz oder Konsequenz bedeutet. Weil die Antworten nicht nur unbequem wären, sondern weil sie den Betrieb so einschränken würden, dass oft die Wettbewerbsfähigkeit auf dem Spiel steht. Wer ehrlich über die Grenzen von KI-Ethik schreibt und entsprechende technische Parameter implementiert, bekommt weniger Aufmerksamkeit als der, der so tut, als wäre Ethik ein Thema für die Konfiguration.
Ich habe angefangen, in solchen Dokumenten die Ethik-Abschnitte näher zu betrachten, denn überprüfbar waren sie ohnehin nicht. Also versuchte ich nachzuvollziehen, ob aus den Worten auch konkrete Handlungen abgeleitet werden können. Die Antwort ist tendenziell mit nein zu beantworten. Ethik verändert nichts Substanzielles, denn es würde dem Geschäftsmodell entgegenstehen. Wie ein Feuerlöscher, der an der Wand hängt, aber nie geprüft wurde.
Was mich daran stört, ist nicht die Oberflächlichkeit. Es ist die Funktion. Die Ethik-Abschnitte sind nicht oder nur unzureichend vorhanden, weil nicht nur Tech-Ingenieure das Thema Ethik eher untergeordnet in ihrem Lastenheft stehen haben. Sie fehlen meist, weil eine KI-Anwendung mit ethischen Schutzmechanismen sehr viel komplizierter und teurer umzusetzen ist. Das Resultat sind sehr vage Formulierungen, die rechtlich nie standhaft genug sind, um Schutz zu bieten. Wie ein Disclaimer am Ende einer Werbung. Kann Risiken und Nebenwirkungen enthalten.
Echte ethische Auseinandersetzung ist anstrengend. Sie verlangt, Widersprüche auszuhalten und offen zu sagen: Dieses Tool kann diskriminieren und wir wissen noch nicht genau, wie wir das verhindern. Das würde Vertrauen schaffen. Nicht weil die Lösung da ist, sondern weil die Ehrlichkeit da ist. Was stattdessen passiert, ist eine Simulation von Verantwortung. Die Worte stehen da. Die Substanz fehlt. Und der Leser, der nicht genau hinschaut, geht mit dem Gefühl nach Hause, dass Ethik bedacht wurde. Wurde sie nicht. Sie wurde nur erwähnt.
Wie meine Texte entstehen, steht hier.