Die anonymen Praxisbeispiele

Ein mittelständisches Unternehmen implementiert KI im Kundenservice. Innerhalb von sechs Monaten steigt die Kundenzufriedenheit um 35 Prozent. Ein Unternehmen aus der Konsumgüterbranche nutzt KI für die Personalplanung. Die Effizienz steigt um 40 Prozent. Ein Unternehmen setzt KI im Marketing ein. Die Conversion Rate verdoppelt sich.

Kein Name. Keine Firma. Keine Branche, die über eine generische Kategorie hinausgeht. Kein Ansprechpartner. Keine Quelle. Keine Fußnote. Nichts, das man überprüfen könnte.

Ich habe irgendwann angefangen, solche Beispiele zu sammeln. In Ratgebern, Whitepapers, Konferenzvorträgen. Sie folgen alle demselben Muster. Ein Unternehmen hat ein Problem. Es setzt KI ein. Innerhalb von drei bis sechs Monaten verbessern sich die Zahlen um 25 bis 60 Prozent. Keine Komplikationen. Kein Widerstand. Keine Phase, in der es nicht funktioniert hat. Kein Mitarbeiter, der Bedenken hatte. Keine IT-Abteilung, die überlastet war. Keine Kosten, die aus dem Ruder liefen.

Das riecht nicht nach Praxis. Das riecht nach Template.

Ich habe in meinem Berufsleben an vielen Implementierungen teilgenommen. Technologie, Prozesse, Strategien. Keine einzige verlief so, wie diese Beispiele es beschreiben. In der Realität gibt es immer einen Moment, in dem etwas nicht funktioniert. In dem die Daten nicht sauber sind. In dem die Mitarbeiter nicht mitziehen. In dem die Kosten höher sind als geplant. In dem jemand in einem Meeting aufsteht und sagt: Das war eine schlechte Idee.

Dieser Moment fehlt in jedem einzelnen dieser Beispiele.

Es gibt zwei Erklärungen. Entweder wurde nur mit Firmen gesprochen, bei denen alles perfekt lief. Oder die Beispiele wurden so zugeschnitten, dass sie das Argument stützen. Die erste Erklärung ist unwahrscheinlich. Die zweite ist ein Problem.

Anonyme Beispiele sind nicht per se schlecht. Manchmal wollen Firmen nicht genannt werden. Das ist verständlich. Aber wenn jedes Beispiel anonym ist, fällt eine wichtige Kontrolle weg. Niemand kann nachfragen. Niemand kann verifizieren. Niemand kann sagen: Das stimmt nicht, ich kenne die Firma, es war anders.

Diese Kontrolle ist kein akademischer Luxus. Sie ist der Unterschied zwischen einer Fallstudie und einer Behauptung. Eine Fallstudie kannst du prüfen. Eine Behauptung musst du glauben.

Und die Behauptungen folgen alle derselben Dramaturgie. Vorher: langsam, manuell, fehleranfällig. Nachher: schnell, automatisiert, effizient. Die Zahlen liegen immer im selben Korridor. Nie unter 20 Prozent Verbesserung, denn das wäre unspektakulär. Nie über 70 Prozent, denn das wäre unglaubwürdig. Der Sweet Spot der Plausibilität.

Ich frage mich, wer diese Zahlen produziert hat. Ein Berater, der die Implementierung begleitet hat? Der Anbieter der Software? Die Firma selbst, die ihre Investition rechtfertigen muss? Die Quelle fehlt, also bleibt die Frage offen. Und offene Quellenfragen in Texten, die Kaufentscheidungen beeinflussen wollen, sind kein Detail.

Es gibt einen einfachen Test für Praxisbeispiele. Enthalten sie etwas, das dem Argument widerspricht? Etwas, das nicht geplant war? Etwas, das schiefging? Wenn ja, klingen sie nach Praxis. Wenn nein, klingen sie nach Verkauf.

Diese Beispiele enthalten nichts, das schiefging. Kein einziges Mal. In keinem Unternehmen, in keiner Branche, in keiner Anwendung. Entweder ist KI das erste Produkt in der Geschichte der Technologie, das immer funktioniert. Oder es wurde weggelassen, was nicht ins Bild passt.

Ich weiß, wofür ich mein Geld setzen würde.