Erklärbare KI fordern, Black Boxes empfehlen
Es gibt eine Forderung, die in fast jeder KI-Strategie auftaucht und mir wichtig erscheint. KI-Systeme müssen nachvollziehbarer sein. Unternehmen sollten verstehen, wie ihre Modelle zu Entscheidungen kommen, denn Transparenz sei entscheidend für Vertrauen. Für mich heisst das: Ohne Erklärbarkeit kein verantwortungsvoller Einsatz.
Erklärbare und transparente KI ist aus meiner Sicht eine wichtige Forderung.
Die konkreten Werkzeuge, die überall empfohlen werden, sind ChatGPT, Claude, DALL-E, Midjourney und es werden gefühlt täglich mehr. Tools, die auf Large Language Models basieren, deren innere Funktionsweise selbst ihre Entwickler nicht vollständig verstehen. Niemand bei OpenAI kann dir im Detail erklären, warum ChatGPT auf eine bestimmte Frage eine bestimmte Antwort gibt. Nicht ungefähr, sondern im Detail. Und das ist natürlich nicht akzeptabel. Es wird ein Produkt geschaffen, das so unberechenbar ist, dass es keiner versteht. Das geht gar nicht. Doch die Modelle sind zu komplex. Denn sie haben Milliarden von Parametern, deren Zusammenspiel sich jeder menschlichen Nachvollziehbarkeit entzieht.
Das sind Black Boxes, per Definition, nicht als Vorwurf, sondern als technische Tatsache. Es kommt ein Prompt rein und der Output ist sofort da. Ändert sich auch nur ein unbedeutendes Wort im Prompt, dann ist das Ergebnis ein komplett anderes. Es passiert also etwas, das kein Mensch auf der Welt vollständig erklären kann.
Aber diese Leute preisen ihre Tools auf der einen Seite an wie die perfekte Allzweckwaffe für alles und jeden und erklären nichts. Rein gar nichts. Meine ersten Gedanken waren, ob das Unwissenheit ist oder Absicht. Natürlich ist es Absicht, weil es Unwissenheit ist. Man muss etwas mit Absicht verschleiern, weil man es nicht kennt. Die Fassade ist Betriebsgeheimnis und daran haben wir uns als Aussenstehende schon lange gewöhnt. Wir benutzen täglich Tools, die wir nicht mal im Ansatz verstehen. Jeder von uns. Jeden Tag. Ich verstehe nicht im Detail, wie mein Telefon funktioniert und benutze es trotzdem. Aber mein Telefon trifft keine substanziellen Entscheidungen.
Der Unterschied zwischen einem Werkzeug, das du nicht verstehst, und einem Werkzeug, das Entscheidungen trifft, die du nicht verstehst, ist fundamental. Beim ersten vertraust du dem Ergebnis, weil du es überprüfen kannst. Der Text ist gut oder schlecht. Das Bild passt oder passt nicht. Du bist das Korrektiv und besitzt ausreichend Urteilsfähigkeit. Beim zweiten vertraust du dem Ergebnis, weil du keine andere Wahl hast. Die KI sagt: Dieser Bewerber ist geeignet und dieser nicht. Auf Basis von was? Natürlich stecken dahinter ausgereifte Algorithmen und die Antwort ist nicht per se schlecht, aber wer prüft das Ergebnis wirklich nach?
Die ganze Branche bewegt sich zwischen beiden Welten, ohne den Unterschied zu erklären. Sie empfiehlt ChatGPT für Texte und nennt das Produktivität. Sie empfiehlt KI-basierte Analytics für Geschäftsentscheidungen und nennt das Transformation. Aber keiner fordert ernsthaft Erklärbarkeit, weil es Geschäftsgeheimnis ist.
Was mich daran am meisten stört, ist die Beiläufigkeit. Kaum jemand widmet sich der Black Box-Diskussion, obwohl sie dringend nötig wäre. Die Frage ist nämlich nicht, ob KI nützlich ist, sondern ob du dir bewusst bist, dass du Entscheidungen auf Grundlagen triffst, die du nicht nachvollziehen kannst.
Wie meine Texte entstehen, steht hier.