Erklärbare KI fordern, Black Boxes empfehlen
Es gibt eine Forderung, die in fast jeder KI-Strategie auftaucht und vernünftig klingt. KI-Systeme müssen erklärbar sein. Unternehmen sollten verstehen, wie ihre Modelle zu Entscheidungen kommen. Transparenz sei entscheidend für Vertrauen. Ohne Erklärbarkeit kein verantwortungsvoller Einsatz.
Ich stimme zu. Erklärbare KI ist eine sinnvolle Forderung. Das Problem ist, was gleichzeitig passiert.
Die konkreten Werkzeuge, die überall empfohlen werden, sind ChatGPT, GPT-4, DALL-E, Midjourney. Tools, die auf Large Language Models basieren, deren innere Funktionsweise selbst ihre Entwickler nicht vollständig verstehen. Niemand bei OpenAI kann dir im Detail erklären, warum GPT-4 auf eine bestimmte Frage eine bestimmte Antwort gibt. Nicht ungefähr. Im Detail. Es geht nicht. Die Modelle sind zu komplex. Sie haben Milliarden von Parametern, deren Zusammenspiel sich jeder menschlichen Nachvollziehbarkeit entzieht.
Das sind Black Boxes. Per Definition. Nicht als Vorwurf, sondern als technische Tatsache. Input rein, Output raus, und dazwischen etwas, das kein Mensch auf der Welt vollständig erklären kann.
Und dieselben Leute empfehlen diese Tools auf der einen Seite und fordern Erklärbarkeit auf der anderen. Manchmal im selben Dokument. Manchmal im selben Absatz.
Ich habe darüber nachgedacht, ob das Unwissenheit ist oder Taktik. Ich glaube, es ist weder noch. Es ist Gewöhnung. Wir haben uns daran gewöhnt, Tools zu benutzen, die wir nicht verstehen. Jeder von uns. Ich verstehe nicht im Detail, wie mein Telefon funktioniert. Ich benutze es trotzdem. Aber mein Telefon trifft keine Entscheidungen über Kreditvergabe, Personalauswahl oder medizinische Diagnosen.
Der Unterschied zwischen einem Werkzeug, das du nicht verstehst, und einem Werkzeug, das Entscheidungen trifft, die du nicht verstehst, ist fundamental. Beim ersten vertraust du dem Ergebnis, weil du es prüfen kannst. Der Text ist gut oder schlecht. Das Bild passt oder passt nicht. Du bist das Korrektiv. Beim zweiten vertraust du dem Ergebnis, weil du keine Wahl hast. Die Maschine sagt: Dieser Bewerber ist geeignet. Auf Basis von was? Das Modell sagt es so.
Die ganze Branche bewegt sich zwischen beiden Welten, ohne den Unterschied zu markieren. Sie empfiehlt ChatGPT für Texte und nennt das Produktivität. Sie empfiehlt KI-basierte Analytics für Geschäftsentscheidungen und nennt das Transformation. Und dann fordert sie Erklärbarkeit, als wäre das ein Schalter, den man umlegen kann.
Erklärbare KI existiert. Es gibt Modelle, deren Entscheidungswege nachvollziehbar sind. Entscheidungsbäume, lineare Modelle, regelbasierte Systeme. Sie sind weniger mächtig als neuronale Netze. Sie können weniger. Aber du verstehst, was sie tun und warum. Niemand redet über sie. Weil sie nicht beeindrucken. Weil sie nicht die Schlagzeilen liefern, die ChatGPT liefert. Weil eine Strategie, die auf Entscheidungsbäumen basiert, nicht so aufregend klingt wie eine, die auf GPT-4 setzt.
Erklärbarkeit fordern und gleichzeitig Black Boxes empfehlen ist wie ein Ernährungsberater, der dir sagt, du sollst auf deine Inhaltsstoffe achten, und dir dann ein Produkt empfiehlt, dessen Zutatenliste geschwärzt ist.
Was mich daran am meisten stört, ist die Beiläufigkeit. Der Widerspruch wird nicht diskutiert. Er wird nicht einmal bemerkt. Die Forderung steht in einem Abschnitt, die Empfehlung in einem anderen, und dazwischen genug Abstand, dass niemand beides gleichzeitig im Kopf hat.
Aber beides gleichzeitig im Kopf zu haben, ist genau das, was nötig wäre. Weil die Frage nicht ist, ob KI nützlich ist. Die Frage ist, ob du bereit bist, Entscheidungen auf Grundlagen zu treffen, die du nicht nachvollziehen kannst. Und ob du das Transparenz nennst, nur weil du die Forderung danach aufgeschrieben hast.