Vertrauen in Technologie

Ein Satz fiel mir auf, weil er so selbstverständlich klingt: Der Mensch muss entscheiden, wie weit er der KI vertrauen will.

Das Wort Vertrauen hielt mich fest und ließ mich nicht mehr los.

Vertrauen ist etwas, das zwischen Menschen entsteht. Es hat mit Absicht zu tun und mit der Annahme, dass jemand dir gegenüber wohlwollend ist oder zumindest nicht absichtlich gegen dich arbeitet. Vertrauen ist also kein technischer Begriff, sondern ein sehr menschlicher. Er setzt voraus, dass auf der anderen Seite jemand ist, der sich entscheidet, wie er mit dir umgeht.

Ein Algorithmus entscheidet sich nicht, sondern er berechnet. Das ist ein fundamentaler Unterschied, der durch das Wort Vertrauen unkenntlich gemacht wird.

Wenn ich einem Taschenrechner ein falsches Ergebnis zutraue, sage ich nicht: Ich vertraue ihm nicht. Sondern ich sage: Er ist kaputt. Oder: Ich habe was Falsches eingetippt. Das Werkzeug hat keine Absicht, es funktioniert oder es funktioniert nicht. Vertrauen ist da die falsche Kategorie.

Aber bei KI benutzen wir das Wort immer öfter. Wir vertrauen in die KI, die KI ist vertrauenswürdig. Die ganze Regulierungsdebatte dreht sich darum. Und mit dem Wort importieren wir ein ganzes Framework an Erwartungen.

Wenn ich jemandem vertraue und er mich enttäuscht, fühlt es sich nach Verrat an. Wenn ein Werkzeug versagt, fühlt es sich nach Fehlfunktion an. Die emotionale Ladung ist völlig unterschiedlich. Aber wenn wir einem KI Chatbot Vertrauen geben und er ein falsches Ergebnis liefert, reagieren wir nicht wie bei einem kaputten Werkzeug. Wir reagieren wie bei einem Verrat. Wir fühlen uns getäuscht. Obwohl es niemanden gibt, der uns täuschen wollte.

Die gängige Argumentation behandelt Vertrauen als entscheidbares Kriterium. Wenig Vertrauen, viel Vertrauen. Mehr Vertrauen bei guten Erfahrungen, weniger bei schlechten. Was auf den ersten Blick rational klingt, übersieht, was passiert, wenn du einer Sache vertraust, die kein Bewusstsein hat.

Ich sehe das in Unternehmen immer regelmäßiger. Teams, die sich auf KI-Ergebnisse verlassen, weil sie gut aussehen, hören auch auf, das Ergebnis zu hinterfragen, weil die Maschine bisher richtig lag. Das ist kein Vertrauen. Das ist Gewöhnung. Es fühlt sich gleich an, aber der Mechanismus dahinter ist ein anderer. Gewöhnung macht träge, Vertrauen macht verletzlich, aber beides kann auf seine Art gefährlich werden.

Was ich vermisse, ist eine Sprache, die den Unterschied klarstellt. Statt “Vertrauen in KI” könnten wir sagen: Wie zuverlässig ist dieses Werkzeug in diesem Kontext? Das klingt weniger elegant, ist nicht so menschlich und reduziert die Verwechslungsgefahr Mensch gegen Algorithmus.

Die Personifizierung von Technik ist nichts Neues: Wir geben Autos Namen oder fluchen auf Computer. Aber bei KI hat die Personifizierung Konsequenzen, weil die Outputs sprachlich sind und dadurch wie von einem Menschen klingen. Die Form ist menschlich, auch wenn der Inhalt maschinell ist.

Oft höre ich, dass wir mit der Zeit Vertrauen aufbauen, in der die Ergebnisse immer besser werden. Erst kleine Aufgaben, dann die größeren und wenn die KI sich bewährt, geben wir ihr noch mehr Verantwortung. Das ist dasselbe Muster, mit dem man einen neuen Mitarbeiter einarbeitet. Die Sprache macht also keinen Unterschied mehr zwischen Mensch und Werkzeug.

Ich glaube, der eigentliche Punkt ist nicht, ob wir KI vertrauen sollten, sondern dass wir bald aufhören, zwischen einem Werkzeug und einem Gegenüber zu unterscheiden. Und dass ein Wort wie Vertrauen diesen Unterschied stillschweigend verschwinden lässt. Die Frage ist also nicht, wie weit wir der KI vertrauen wollen, sondern, ob ein anderer Begriff der Technik nicht besser passt: Misstrauen.

Wie meine Texte entstehen, steht hier.