Manipulationsgefahr als Unterpunkt
In den meisten Texten über KI im Marketing gibt es irgendwo einen Abschnitt über Risiken. Er steht zwischen den Abschnitten über Monetarisierung und Skalierung. Darin geht es um Manipulationsgefahr, psychologische Auswirkungen und auch moralische bzw. ethische Bedenken. Risiken gehören selten zu den ausführlichen Abschnitten in den Texten. Im Verhältnis zum restlichen Text gibt man dem ungefähr so viel Platz, wie man einem bekannten Bug in einem Release-Notes-Dokument gibt.
Kann man daran ablesen, wie die KI-Branche über Moral denkt?
Moralische Fragen werden behandelt wie technische Probleme. Es gibt ein Issue, das geloggt wird, auf der Prioritätsskala nach oben klettert und jemand schreibt einen Fix, damit es in der nächsten Version besser läuft. Das funktioniert bei Software, aber bei moralischen Fragen funktioniert das nicht.
Die Manipulationsgefahr ist Realität. Meta wird nicht umsonst regelmäßig mit Manipulationsvorwürfen vor Gericht gezogen. Aber Moral kann man nicht patchen. Sie ist kein Bug im System. Sie ist das System. Und wenn du eine KI baust, die Menschen beeinflusst und Entscheidungen steuert, ist Manipulation kein Bug, der manchmal auftritt. Es ist vielmehr eine Kernfunktion, die auch zu weit gehen kann. Und das tut sie.
Aber die Branche beschreibt es ganz anders. Sie listet Risiken wie bei der Auflistung von Spezifikationen auf. Manipulationsgefahr bei geringem Selbstwertgefühl und unrealistischen Erwartungen. Punkt. Die Vorschläge, die dann kommen, verkaufen Transparenz, Regulierung, Aufklärung und Optimierung.
Ich habe in meiner Arbeit oft genug erlebt, wie Risikobewertungen funktionieren. Risiken werden aufgeschrieben und dann bewertet. Dann werden entsprechende Maßnahmen zugeordnet. Diese werden abgehakt und jeder ist zufrieden. Ein dokumentiertes Risiko ist gemanagt. Es ist zwar noch nicht automatisch gelöst, aber es ist auf dem Radarschirm und als gemanagt deklariert. Das muss reichen und die Kritiker geben sich zumindest auf politischer Ebene schnell zufrieden. Warum auch immer.
Bei einer Softwareanwendung mit zu hohen Downzeiten oder plötzlich auftauchenden Sicherheitslücken reicht das in der Regel auch. Bei einer “sozialen” Plattform, die das Selbstbild junger Menschen beeinflusst, reicht es aber nicht. Und die Leute, die diese Systeme bauen, verwenden, legen hier die falschen Maßstäbe an. Sie kommen aus der Tech-Welt, und in der Tech-Welt gibt es für jedes Problem eine Lösung. Wenn die Lösung noch nicht existiert, existiert sie nach dem Bugfix.
Ethik ist aber keine Checkliste und Transparenz ist auch kein Feature. Hinzukommt, dass Regulierung die Entwicklungsgeschwindigkeit und den Erfolg lähmen würde.
Was fehlt, ist die Möglichkeit, dass manche Probleme nicht durch bessere Technologie gelöst werden, sondern nur durch die Entscheidung, etwas anders zu tun oder langsamer oder gar nicht. Diese Möglichkeit klingt zunächst nicht geschäftsförderlich und existiert im Denken der Tech-Welt nicht.
Ich denke an ein Gespräch, das ich vor Jahren mit einem Ingenieur geführt habe. Es ging um ein Produkt, das technisch möglich war, aber fragwürdig. Er sagte: Wenn wir es nicht bauen, baut es jemand anders. Also bauen es besser wir, denn wir können es besser bauen als die anderen. Das Argument klingt pragmatisch. In Wahrheit ist es eine Abdankung. Denn es macht deutlich, was niemand klar sagt: Ich bin nicht verantwortlich für das, was ich baue, weil jemand anders es auch bauen würde.
Die gesamte Tech-Branche argumentiert genauso. Die Risiken sind da, aber die Technologie kommt sowieso. Wir können nichts dafür. Es ist also automatisch vernünftig zu sagen, besser selbst gestalten als den Wettbewerb ignorieren. Das hört sich sogar verantwortungsvoll an. Aber es setzt voraus, dass Gestalten ausreicht. Dass man eine Technologie, deren Kernfunktion Beeinflussung ist, also in einer Weise gestalten kann, so dass die Beeinflussung nur gute Ergebnisse hat.
Ich weiß nicht, ob das funktionieren kann. Denn das Problem ist nicht, dass Risiken verschwiegen werden. Sie stehen ja in den Texten. Das Problem ist die Gewichtung der Themen. Die Risiken sind ein Unterpunkt. Die Chancen sind das Hauptthema. Die Moral wird gemanagt.
Wie meine Texte entstehen, steht hier.