Deine schlechte Laune als Datenpunkt
Es fühlte sich jetzt nicht besonders dramatisch an und es kommt hin und wieder vor, dass ich einen schlechten Tag habe. Doch da war er wieder. Einer dieser Tage, an denen man müde aufwacht und den ganzen Tag müde bleibt. Wenn auch die Tasse Kaffee nicht zu Verbesserung beiträgt und auch nicht die zweite. Abends saß ich auf dem Sofa und scrollte durch Shopping-Portale und Preisvergleichsseiten. Ich suchte eigentlich nur nach Entspannung und ich wusste, dass das keine besonders gute Idee war. Scrollen ist keine Entspannung. Das Internet war mal wieder außerordentlich motiviert, mich zum Kauf zu bewegen. Was mir angezeigt wurde, betraf meine aktuelle Stimmung aber nicht meinen tatsächlichen Bedarf. Ich habe mir also Sachen angeschaut, die ich an einem normalen Tag ignoriert hätte. Ich war empfänglicher.
Ich spürte, dass der Algorithmus heute wieder genau Bescheid wusste.
KI bzw. die Algorithmen dahinter erkennen emotionale Zustände und reagieren in Echtzeit darauf. Ich weiß nicht ob es Verweildauer, Scroll-Verhalten, Browserhistorie, der Zeitpunkt oder all die Cookies waren, die dieses Bild des Moments meiner Schwäche erschaffen haben. Die Branche nennt es “Präzision und Kontext” und feiert es als Fortschritt.
Es gibt Momente im Leben, in denen man verletzlich ist. Eine Trennung, ein Verlust, eine schlaflose Nacht, ein Streit, der noch schwelt. In diesen Momenten trifft man andere Entscheidungen. Man kauft Dinge, die man nicht braucht. Man klickt auf Sachen, die man normalerweise übersieht oder sucht nach etwas, das Trost spendet.
Auch ein verwundbarer Zustand gehört zum Menschsein. Und die Technologie ist darauf ausgelegt, diesen Zustand zu erkennen und zu nutzen.
Nicht nutzen im Sinne von: helfen. Sondern nutzen im Sinne von: monetarisieren. Der Unterschied ist wichtig, denn ein Freund, der merkt, dass es dir schlecht geht und fragt, ob er helfen kann, nutzt emotionale Wahrnehmung für dich. Ein System, das merkt, dass es dir schlecht geht und dir ein Angebot zeigt, nutzt sie gegen dich. Die Wahrnehmung ist dieselbe. Aber die daraus entstehende Absicht nicht.
Die Tech-Branche ist hier bekanntermaßen schamlos. Vorne redet sie von “empathischer KI”, die auf den Gemütszustand des Kunden reagiert und hinterlässt den Eindruck, durchaus zu seinen Gunsten. Doch das Wort Empathie ist in diesem Zusammenhang problematisch. Denn eine Maschine, die deine schlechte Laune erkennt und dir ein Produkt zeigt, das dazu perfekt passt, ist rein rational betrachtet empathisch. Und genau so wird es auch verkauft.
Empathie bedeutet Mitgefühl. Also den Zustand eines anderen zu fühlen und darauf zu reagieren in seinem Interesse. Was hier passiert, ist das Gegenteil. Denn es nutzt zwar die Fähigkeit, den Zustand eines Menschen zu lesen aber die darauf folgende Handlung erfolgt ausschließlich im eigenen Interesse. Das ist dann nicht Empathie, sondern Exploitation. Aber Exploitation liest sich nicht gut in einer Policy.
Ich denke an konkrete Situationen. Ein Mensch, der gerade einen schweren persönlichen Verlust durchmacht und nachts nicht schlafen kann. Wenn er dann scrollt, registriert das System die Uhrzeit, das Verhalten, die Verweilzeit und macht Rückschlüsse auf seinen Zustand. Aus eigener Erfahrung weiß ich, wie extrem fortgeschritten die Algorithmen sind und ich übertreibe nicht, wenn ich behaupte, dass ein System erkennt: diese Person ist jetzt verletzlich. Und zeigt sofort ein Angebot. Das kann eine Reise sein, ein Abo, ein Selbsthilfekurs, irgendwas, das Trost verspricht und sofort konvertiert.
An einem Tag, an dem er ausgeschlafen und klar war, hätte er nicht geklickt, sondern weitergescrollt. Aber das System hat den richtigen Moment erkannt. Und der richtige Moment ist der verwundbare Moment.
Die Zukunft des Marketings sei “kontextsensitiv”, heißt es schon seit Jahren. Kontext bedeutet in dem Zusammenhang, dass das System nicht nur weiß, was du willst, sondern wie du dich gerade fühlst. Es kennt nicht nur deine Präferenzen. Es kennt deinen Zustand. Und es handelt danach.
Natürlich kontrolliert niemand, welche Zustände kommerziell nutzbar sein dürfen und welche nicht. Genauso wie beim Datenschutz gibt es dringend Grenzen einzuhalten, aber die Strafen, die hier und da an Tech-Konzerne bei Verstößen verhängt werden, werden im Silicon Valley eher belächelt. Das heißt, jede Zeile in irgendeinem Ethikkodex, die sagt Trauer ist kein Datenpunkt, Einsamkeit ist kein Conversion-Fenster oder Angst ist kein Targeting-Kriterium ist eine der dreistesten Lügen ins Gesicht von Konsumenten und Gesetzesmachern.
Daten bleiben Daten und jeder Moment kann zu einem Moment gemacht werden, in dem man etwas verkaufen kann. Aber ich frage mich, wie die Leute, die das bauen, es abends ihren Kindern erklären. Papa hat heute daran gearbeitet, wie Maschinen traurige Menschen erkennen und ihnen etwas verkaufen, das sie gar nicht brauchen und das ihnen auch nicht hilft. Manche antworten vielleicht: So war es gar nicht gemeint oder so weit haben wir gar nicht gedacht. Ich wage zu behaupten, dass es oft genau so gemeint ist.
Wie meine Texte entstehen, steht hier.