Meine Ontologie kenne ich

Ontologie ist die Lehre davon, was es gibt und wie es zusammenhängt. In der Informatik ist es etwas konkreter: eine formale Darstellung von Konzepten und deren Beziehungen zueinander. Die Fragen sind: Was gibt es? Wie hängt es zusammen? Was folgt woraus?

Das ist präzise und nützlich. Aber es beschreibt nicht, was ich damit mache.

Was ich mache, ist angewandte Ontologie. Ich nehme die Struktur und benutze sie als System, um aus Daten systematisch zu einem Ergebnis zu kommen. Nicht Wissen ordnen um des Ordnens willen, sondern Wissen so ordnen, dass jemand eine Entscheidung treffen kann. Die Verschiebung ist klein, aber sie verändert alles. Aus einer Beschreibung von dem was existiert wird ein Werkzeug.

Fünf Prinzipien

Was mich beschäftigt, seit ich ein KI-Agentensystem mit ontologischen Strukturen verbinde: Die Prinzipien hinter meiner Ontologie und die Prinzipien hinter Agentic AI sind die gleichen.

Zerlegung. Ein komplexes Problem in Teile zerlegen. Wenn eine US-Firma nach Europa will, ist das nicht eine Frage, sondern zwanzig. Regulierung, Vertriebskanäle, Preisstruktur, Logistik, Zielgruppen, Wettbewerb. Jede für sich lösbar, zusammen ein System. Ein KI-Agent macht das Gleiche: Er nimmt eine Aufgabe und zerlegt sie in Schritte.

Beziehungen. Verstehen wie die Teile zusammenhängen. Regulierung beeinflusst die Preisstruktur, die bestimmt welche Vertriebskanäle realistisch sind. Und je nach Zielgruppe sieht das Marketing komplett anders aus. In meiner Ontologie sind diese Beziehungen explizit definiert. Ein Agent erkennt sie auch, aber er definiert sie nicht. Er findet sie.

Abhängigkeiten. Wissen was vor was kommen muss. Man kann keine Preisstrategie machen bevor man die Regulierung kennt. Und kein Marketing planen bevor man die Zielgruppe versteht. Reihenfolge ist nicht optional. In einer Ontologie ist die Reihenfolge eingebaut. Ein Agent entscheidet das selbst, während er arbeitet.

Kontext. Ergebnisse hängen von Bedingungen ab. Was in Frankreich funktioniert, funktioniert nicht automatisch in Deutschland. Was für ein Konsumprodukt gilt, gilt nicht für Medizintechnik. Meine Ontologie bildet den Kontext als eigene Ebene ab. Agenten lernen den Kontext aus den Daten, die man ihnen gibt.

Nachvollziehbarkeit. Wissen woher eine Entscheidung kommt. Warum empfehle ich Direktvertrieb statt Einzelhandel? Weil die Margen in diesem Segment zu gering sind für stationären Handel, weil die Zielgruppe online kauft, weil die Regulierung Direktimport erlaubt. In meiner Ontologie ist diese Kette sichtbar. Bei Agenten eher nicht. Der Weg ist zwar transparent, man kann jeden Schritt nachverfolgen. Aber bei komplexen Entscheidungsketten ist es zu viel Trial and Error, zu viel Zeit die draufgeht. Für einfache Darstellungen kommt man schnell ans Ziel. Für alles darüber hinaus noch nicht. Nimmt man die Geschwindigkeit, mit der sich Agentic AI entwickelt, wird das vielleicht nicht mehr lange so bleiben.

Die Spannung

Die Prinzipien sind die gleichen. Aber die Ergebnisse sind es eben nicht.

Ein gut durchdachtes ontologisches Modell funktioniert. Ich weiss warum das Ergebnis so rauskommt und nicht anders, ich kann es jemandem erklären und der versteht es. Wenn sich etwas ändert, weiss ich wo ich korrigieren muss. Es folgt meinem Plan.

Agenten machen, was sie wollen. Das klingt polemisch, ist aber meine tägliche Erfahrung. Ich arbeite jeden Tag mit KI-Agenten und das Ergebnis wird besser, manchmal deutlich besser als das was ich selbst gebaut hätte. Aber es folgt keinem vorgegebenen Plan. Der Agent findet seinen eigenen Weg, und ich verstehe nicht immer warum ausgerechnet diesen.

Die Stärke: Der Agent sieht Verbindungen die ich übersehe und probiert Wege aus, an die ich nicht gedacht hätte. Er ist schneller als ich und hat kein Problem damit, zwanzig Varianten durchzurechnen bevor er sich entscheidet.

Das Problem: Ich kann das Ergebnis nicht immer erklären. Und wenn ich es nicht erklären kann, kann ich es nicht verkaufen. An niemandem.

Was ist besser?

Die Frage ist falsch. Es geht nicht um besser oder schlechter. Es geht darum, was man kontrollieren kann und was nicht.

Meine Ontologie kontrolliere ich. Ich habe sie gebaut, ich kenne jede Verbindung darin, ich weiss wo sie stark ist und wo sie Lücken hat. Wenn etwas schief geht, weiss ich wo ich suchen muss.

Agenten kontrolliere ich nicht. Ich kann ihnen Kontext geben, Werkzeuge, Leitplanken. Aber was sie daraus machen, ist jedes Mal anders.

Dann müsste die richtige Frage sein: Wann liefert Agentic AI ein perfektes ontologisches Modell? Wann baut der Agent die Struktur, die ich heute von Hand baue, selbst? Automatisch, schneller, vielleicht besser?

Ich weiss nicht ob das die richtige Frage ist. Vielleicht ist sie auch falsch. Ich arbeite damit jeden Tag und habe noch keine Antwort die mich überzeugt.

Was ich sicher weiss: Meine Ontologie kenne ich. Die Agenten nicht.