Dr. Oliver Grasl
Dr. Oliver Grasl

CEO, transentis labs GmbH

2026-05-12

Die meisten Unterhaltungen mit einem LLM enden, sobald der Tab geschlossen wird. Was auch immer du dort herausgefunden hast – der neue Begriff, den du geprägt hast, die Struktur, die du durchgesprochen hast, der Kompromiss, den du endlich verstanden hast – existiert nur im Chatverlauf, bis du daran denkst, es an einen sinnvollen Ort zu kopieren. Dieser Ort ist meist ein Google Doc, eine Notion-Seite oder ein Slack-Thread. Nichts davon kann ein LLM beim nächsten Start einer neuen Unterhaltung auf strukturierte Weise wiederlesen.

Wir haben Metapad unter anderem entwickelt, um dieses Problem zu beheben. Und wir nutzen Metapad, um Metapad zu entwickeln. In diesem Beitrag geht es darum, wie dieser Kreislauf tatsächlich funktioniert.


Das Problem mit dem reinen Chat

Behandle ein LLM wie einen Denkpartner, und du wirst schnell etwas feststellen: Das Denken ist gut, aber die Beständigkeit ist schlecht.

Ein typisches Gespräch könnte so aussehen:

  • Fünf neue Begriffe prägen, die du wiederverwenden möchtest
  • Drei Entscheidungen treffen, deren Begründung du dir merken musst
  • Acht Beziehungen zwischen Konzepten aufzeigen, die dir vorher nicht bewusst waren
  • Zu einer strukturellen Erkenntnis gelangen, die du mit dem Team teilen möchtest

Dann endet die Unterhaltung und fast nichts davon bleibt in nutzbarer Form erhalten. Die nächste Sitzung beginnt von vorne. Dein Teamkollege, der nicht im Chat war, hat keine Ahnung, dass all das passiert ist.

Du kannst ein Transkript in ein Wiki einfügen. Du kannst das Gespräch in einem Dokument zusammenfassen. Beides ist besser als nichts. Keines von beiden ist strukturiert genug, damit die nächste LLM-Sitzung deine früheren Überlegungen nachlesen kann, ohne alles von Grund auf neu einlesen zu müssen – und keines hilft deinem Team bei der Frage „Was haben wir zu X beschlossen?“, ohne sich durch einen Berg an Text scrollen zu müssen.


Der Kreislauf: Gespräch → Metamodell → Graph

Hier ist der Arbeitskreislauf, auf den wir uns geeinigt haben.

1. Führe das Gespräch

Öffne einen Chat mit dem LLM. Besprich alles, was du klären möchtest – eine Positionierungsstrategie, einen Projektplan, ein Fachgebiet, das du gerade lernst, eine Architektur, die du entwirfst.

Das ist dasselbe wie zuvor. Das LLM ist gut darin. Nutze es.

2. Achte auf die sich abzeichnende Struktur

Nach ein paar Austauschrunden beginnt sich eine Struktur abzuzeichnen. Das Gespräch enthält:

  • Dinge – Entitäten, Konzepte, Komponenten, Personen, Entscheidungen
  • Eigenschaften dieser Dinge – Status, Verantwortlicher, Frist, Begründung
  • Beziehungen zwischen ihnen – hängt ab von, unterstützt, widerspricht, ersetzt

Das ist der Moment, in dem du innehalten und die Form dessen erfassen solltest, worüber ihr sprecht. Keine Absätze. Typen.

Du sagst zum LLM: „Lass uns ein Metamodell dafür erstellen. Welche Knotentypen brauchen wir? Welche Beziehungstypen? Welche Verbindungen sollten erlaubt sein?“

Das LLM ist auch darin gut. Es wird Typen vorschlagen, sie benennen und seine Auswahl begründen. Du widersprichst. Du führst zusammen. Du benennst um. Nach ein paar Minuten hast du ein kleines, eigenwilliges Schema für den Bereich, an dem du arbeitest.

3. Fülle den Graphen

Nutze nun das LLM, um den Graphen zu füllen. Jedes Element im Gespräch wird zu einem typisierten Knoten. Jede Beziehung wird zu einer typisierten Kante. Eigenschaften werden ausgefüllt. Beschreibungen erfassen die Erzählung, die nicht in ein Eigenschaftsfeld passt.

In Metapad erledigt das LLM dies direkt über MCP. Es ruft create_nodes, create_relationships, update_nodes auf – und baut das Modell in Echtzeit auf, während du zusiehst. Du korrigierst es währenddessen. Du fügst Details hinzu, wo der Text wichtig ist, und kürzt, wo es nicht nötig ist.

Am Ende der Sitzung ist das, was als Chat begann, ein strukturierter, abfragbarer Graph. Die Begriffe haben Definitionen. Die Entscheidungen haben Begründungen. Die Beziehungen sind explizit.

4. Die nächste Sitzung beginnt im Kontext

Öffne morgen einen neuen Chat. Öffne Metapad. Verbinde das LLM über MCP mit dem Modell.

Frage: „Was haben wir letzte Woche bezüglich X beschlossen?“ Das LLM muss sich nicht daran erinnern – das Modell schon. Es ruft search_nodes und get_relationships auf und liest zurück, wozu du dich tatsächlich verpflichtet hast.

Frage: „Wo steht diese neue Idee im Widerspruch zu dem, was wir bereits haben?“ Das LLM kann antworten, weil der bestehende Graph typisiert ist, nicht nur Prosa. Es kann strukturell erkennen, wo die neue Idee passt oder nicht passt.

Das Gespräch ist nicht mehr flüchtig. Es summiert sich.


Was dies zeigt

Dieser Kreislauf ist auch eine stille Demonstration von drei Dingen, die wir für Modellierungstools im Jahr 2026 für wichtig halten.

Modelle, mit denen du sprechen kannst

Jedes Metapad-Modell verfügt über eine eingebettete KI-Schnittstelle. Die KI liest den typisierten Graphen und stützt ihre Antworten auf das, was tatsächlich vorhanden ist, anstatt sich an unstrukturierter Prosa zu orientieren. Der Unterschied ist in der Praxis groß. Eine KI, die über ein Modell spricht, irrt sich oft in den Details. Eine KI, die mit einem Modell spricht, tut dies selten – sie kann die Antwort nachschlagen.

Modellierung als Mannschaftssport

Sobald das Modell in Metapad existiert, ist es nicht mehr an deine Chat-Sitzung gebunden. Dein Teamkollege kann es öffnen, den Graphen durchsuchen, einen Knoten kommentieren, eine fehlende Beziehung vorschlagen. Der Reader Workspace macht das Modell auch für Leute lesbar, die selbst nicht modellieren. Die Unterhaltung, aus der der Graph hervorgegangen ist, ist kein privates Artefakt mehr, sondern wird zu gemeinsamer Infrastruktur.

Modelle, die rechnen

Der Graph ist über eine API abfragbar. Daraus werden Diagramme gerendert. Daraus werden Berichte generiert. Wenn es die Domäne erfordert, laufen Simulationen darauf. Das Modell ist die Quelle der Wahrheit; alles andere ist eine Projektion.


Ein konkretes Beispiel: Unsere eigene Positionierung modellieren

Wir haben diesen Kreislauf kürzlich genutzt, um Metapads eigene Positionierung zu klären.

Die Unterhaltung begann recht locker: „Wozu dient Metapad eigentlich? Für wen ist es gedacht? Warum sind die Leute verwirrt, wenn wir von ‚Business Prototyping‘ sprechen?“

Nach ein paar Stunden des Hin und Her kristallisierte sich eine Struktur heraus. Wir hatten Marken, Angebote, Zielgruppen, Kanäle, Assets, strategische Schritte, Ziele – und die Beziehungen zwischen ihnen. Wir bauten ein Metamodell. Wir füllten ein Diagramm aus. Wir nannten das Modell metapad-marketing.

Dieses Modell befindet sich nun in Metapad. Wenn wir eine neue Unterhaltung über Marketing beginnen – eine neue Kampagne, eine neue Zielgruppe, einen neuen Kompromiss – fangen wir nicht bei Null an. Wir öffnen das Modell und die KI liest es. Die nächste Unterhaltung baut auf dem auf, was in der letzten beschlossen wurde.

Wir werden in einem späteren Beitrag ausführlich über dieses Modell schreiben. Im Moment geht es nur um Folgendes: Die Unterhaltung, aus der die Positionierung hervorgegangen ist, wurde als Diagramm gespeichert und ist nicht im Chat-Verlauf verloren gegangen. Wir können es hinterfragen, weiterentwickeln und mit dem Team teilen.


Warum das besser ist als die Alternativen

Drei Gewohnheiten, auf die Leute zurückgreifen, wenn sie wollen, dass LLM-Denken Bestand hat, und warum keine davon ganz richtig ist:

Transkripte in ein Wiki einfügen. Erfasst den Text, verliert aber die Struktur. Das nächste LLM muss das Ganze erneut lesen, um etwas zu finden. Dein Teamkollege auch.

In ein Dokument zusammenfassen. Erfasst die Struktur, wie du sie damals gesehen hast, aber die Struktur ist nicht durchsuchbar. „Zeig mir alles, was wir über Zielgruppe X beschlossen haben“ wird zu einer Strg-F-Übung.

Benutzerdefinierte GPTs / Speicherfunktionen. Persönlich. An ein Tool gebunden. Für Teamkollegen unsichtbar. Was auch immer sich das LLM „merkt“, ist kein gemeinsames Artefakt, das du lesen, bearbeiten oder weitergeben kannst.

Ein typisierter Graph in Metapad ist nichts davon. Es ist ein erstklassiges Artefakt – lesbar, abfragbar, bearbeitbar, teilbar und mit jedem LLM verbindbar, das MCP spricht.


Probier den Loop aus

Du brauchst keine Unternehmensumstellung, um das auszuprobieren. Such dir etwas aus, worüber du gerade nachdenkst – einen Projektplan, eine Forschungsfrage, ein Fachgebiet, das du gerade lernst. Öffne Metapad. Starte eine Unterhaltung. Lass eine Struktur entstehen. Halte sie fest.

Die Vorgehensweise ist etwas gewöhnungsbedürftig. Es ist verlockend, im reinen Prosa-Modus zu bleiben, weil es sich im Moment schneller anfühlt. Aber die Nachteile zeigen sich, sobald du das Gedankengang ein zweites Mal nutzen willst – und in dem Moment, in dem ein Teamkollege deine Arbeit lesen muss, ohne die ursprüngliche Unterhaltung mitverfolgt zu haben.

Dein nächstes Gespräch sollte auf dem letzten aufbauen.


Möchtest du das Konversationsmodellieren selbst ausprobieren? Erstelle ein kostenloses Metapad-Konto und verbinde dein bevorzugtes LLM über MCP.