Vertrauen in eine Maschine
Ein Satz fiel mir auf, weil er so selbstverständlich klingt: Der Mensch muss entscheiden, wie weit er der KI vertrauen will.
Ich blieb an dem Wort hängen. Vertrauen.
Vertrauen ist etwas, das zwischen Menschen entsteht. Es hat mit Absicht zu tun. Mit der Annahme, dass jemand dir gegenüber wohlwollend ist, oder zumindest nicht absichtlich gegen dich arbeitet. Vertrauen ist kein technischer Begriff. Es ist ein menschlicher. Er setzt voraus, dass auf der anderen Seite jemand ist, der sich entscheidet, wie er mit dir umgeht.
Eine Maschine entscheidet sich nicht. Sie berechnet. Das ist ein fundamentaler Unterschied, der durch das Wort Vertrauen unsichtbar wird.
Wenn ich einem Taschenrechner ein falsches Ergebnis zutraue, sage ich nicht: Ich vertraue ihm nicht. Ich sage: Er ist kaputt. Oder: Ich habe falsch eingegeben. Das Werkzeug hat keine Absicht. Es funktioniert oder es funktioniert nicht. Vertrauen ist die falsche Kategorie.
Aber bei KI benutzen wir das Wort. Ständig. Vertrauen in KI. Vertrauenswürdige KI. Trustworthy AI. Die ganze Regulierungsdebatte dreht sich darum. Und mit dem Wort importieren wir ein ganzes Gerüst an Erwartungen, das nicht passt.
Wenn ich jemandem vertraue und er mich enttäuscht, fühlt es sich nach Verrat an. Wenn ein Werkzeug versagt, fühlt es sich nach Fehlfunktion an. Die emotionale Ladung ist völlig unterschiedlich. Aber wenn wir KI Vertrauen geben und sie ein falsches Ergebnis liefert, reagieren wir nicht wie bei einem kaputten Werkzeug. Wir reagieren wie bei einem Verrat. Wir fühlen uns getäuscht. Obwohl niemand da war, der uns täuschen wollte.
Die gängige Argumentation behandelt Vertrauen als Skala. Wenig Vertrauen, viel Vertrauen. Mehr Vertrauen bei guten Erfahrungen, weniger bei schlechten. Das klingt rational. Aber es übersieht, was passiert, wenn du einer Sache vertraust, die kein Bewusstsein hat.
Ich habe das in Unternehmen gesehen. Teams, die sich auf KI-Ergebnisse verlassen, weil sie gut aussehen. Die aufhören, zu hinterfragen, weil die Maschine bisher richtig lag. Das ist kein Vertrauen. Das ist Gewöhnung. Es fühlt sich gleich an, aber die Mechanik ist eine andere. Gewöhnung macht träge. Vertrauen macht verletzlich. Beides ist gefährlich, aber auf verschiedene Arten.
Was ich vermisse, ist eine Sprache, die den Unterschied macht. Statt “Vertrauen in KI” könnten wir sagen: Wie zuverlässig ist dieses Werkzeug in diesem Kontext? Das klingt weniger elegant. Es ist auch weniger menschlich. Aber genau das ist der Punkt. Es ist kein Mensch.
Die Personifizierung von Technik ist nicht neu. Wir geben Autos Namen. Wir fluchen auf Computer. Aber bei KI hat die Personifizierung Konsequenzen. Weil die Outputs sprachlich sind. Weil sie klingen wie von jemandem. Weil die Form menschlich ist, auch wenn der Inhalt maschinell ist.
Die Standardempfehlung lautet: schrittweise Vertrauen aufbauen. Erst kleine Aufgaben, dann größere. Wenn die KI sich bewährt, mehr Verantwortung. Das ist dasselbe Muster, mit dem man einen neuen Mitarbeiter einarbeitet. Die Sprache macht keinen Unterschied mehr zwischen Mensch und Werkzeug.
Ich glaube, das ist der eigentliche Punkt. Nicht ob wir KI vertrauen sollten. Sondern dass wir aufgehört haben, den Unterschied zu machen zwischen einem Werkzeug und einem Gegenüber. Und dass ein Wort wie Vertrauen diesen Unterschied leise verschwinden lässt.
Die Frage ist nicht, wie weit wir der KI vertrauen wollen. Die Frage ist, warum wir überhaupt in diesen Kategorien denken.