... erklärt, warum menschliche Urteilskraft entscheidend beim Umgang mit KI ist.
Liebe KI-Fans,
kurz vor dem Jahreswechsel saß ich an meinem Schreibtisch – und war frustriert.
Ich wollte einen Guide für mein Team schreiben: über Content-Optimierung für LLMs. Zwei Tage intensive Recherche steckten bereits drin, das Dokument war über 30 Seiten lang. Und dann, kurz vor dem Ziel, wurden die KI-Modelle plötzlich unbrauchbar. Mit jedem Prompt vergaßen sie Dinge oder verschlechterten den Text an anderer Stelle. Flapsig gesagt: Was die KI vorne sorgfältig verbessert hatte, hat sie hinten mit dem Hintern wieder eingerissen.
Inzwischen weiß ich: Das ist kein Bedienungsfehler, sondern eine strukturelle Grenze der Technik. Doch es gibt einen Weg, sie zu durchbrechen. Wir können KI von einer unberechenbaren „Wundertüte“ in einen verlässlichen Motor für unser Kerngeschäft verwandeln – wenn wir anfangen, wie Architekten zu denken. Wie genau das geht, erfahrt ihr in dieser Ausgabe.
Das Problem: „Context Rot“ (Kontext-Fäulnis)
Ein großes Kontext-Fenster bedeutet noch lange nicht, dass das Modell diesen Platz auch intelligent nutzen kann. Dazu gibt es extrem spannende Daten im aktuellen Paper des MIT CSAIL: „Recursive Language Models“ (Zhang et al., 2025).
Nehmen wir das Beispiel GPT-5, wie es im Paper untersucht wurde. Das Modell hat eine beeindruckende Kontextlänge von 272.000 Token. Stell dir vor, du gibst dem Modell die kompletten "Kinder- und Hausmärchen" der Gebrüder Grimm (alle 200+ Geschichten). Das Modell schluckt dieses gesamte Werk in einem Stück. Doch die Verarbeitungsqualität hängt extrem von der Komplexität der Aufgabe ab:
Einfache Suchaufgabe (Perfekt): „Wie viele Köpfe hat der Drache im Märchen ‚Die zwei Brüder'?“ Hier ist GPT-5 brillant. Es findet diesen einen Fakt (sieben Köpfe) problemlos, egal ob er auf Seite 10 oder 500 steht.
Lineare Fleißaufgabe (Kritisch): „Geh den Text Schritt für Schritt durch und zähle alle Prinzen, die in Tiere verwandelt wurden.“ Hier passiert das Drama: Laut dem Paper bricht die Leistung bei dieser Art von Aufgabe schon bei 33.000 Token fast komplett ein. Das bedeutet: Von unserem dicken Märchenbuch kann das Modell plötzlich nur noch die ersten ~30 Geschichten effektiv verarbeiten.
Komplexe Verknüpfung (Totalausfall): „Finde alle Paare von Geschwistern in verschiedenen Märchen, die beide von einer bösen Stiefmutter verflucht wurden.“ Das Ergebnis ist schockierend: Schon bei 8.000 Token – das sind gerade einmal 5 bis 10 Märchen – ist selbst GPT-5 komplett überfordert.
Die Grafik für GPT-5 zeigt: Einfaches Suchen (oben) gelingt stabil. Bei Fleißaufgaben (Mitte) und Logik (unten) bricht die Leistung jedoch früh ein. Der rote Bereich markiert das technische Limit des Modells.
Die Lösung: Denke wie ein Software-Architekt
Wie verhindern wir, dass die KI bei komplexen Aufgaben „verrottet“? Die Lösung schauen wir uns bei Software-Entwicklern ab. Wer heute professionell Code mit KI schreibt, weiß: Der Prompt „Programmier mir bitte die komplette App auf einmal“ führt garantiert zu Chaos.
Stattdessen nutzen Profis ein Vorgehen, das sich auch für Texte als absoluter Gamechanger erwiesen hat: Modularisierung.
Sie zerlegen das riesige Monster-Projekt in winzige, isolierte Puzzleteile. Und genau so gehen wir jetzt an unsere Dokumente heran. Statt der KI alle Notizen für den 30-Seiten-Guide auf einmal zu geben, zerlegen wir die Arbeit:
Der Bauplan: Ich diskutiere erst nur Ziel und Gliederung mit der KI. Erst wenn dieser Bauplan steht, geht es an den Text.
Die Module: Dann bearbeitest du jeden Punkt einzeln – sei es ein Kapitel, ein Absatz oder nur eine Folie. Der Clou dabei: Du gibst der KI für „Kapitel 1“ nur die Gliederung und die Notizen für dieses eine Kapitel. Den Rest der 30 Seiten verschweigst du ihr bewusst.
Das Repository: Füttere die KI nicht immer wieder mit dem wachsenden Textberg. Stattdessen kopierst du jedes fertige Puzzleteil sofort raus in dein eigenes "Master-Dokument".
Warum das funktioniert: Du zwingst die KI künstlich zurück in ihre „Komfortzone“. Für das Modell ist das Schreiben dieses einen Abschnitts keine komplexe „Hardest Task“ mehr, sondern eine simple Aufgabe, die es mit maximaler Qualität erledigen kann.
Die Praxis: Ihr seid der Regisseur
Dieser Prozess hat einen riesigen Vorteil, der oft unterschätzt wird: Eure menschliche Urteilskraft bleibt bei jedem Schritt entscheidend. Ihr verlasst euch nicht blind auf die KI, sondern kuratiert die Ergebnisse. Der Output wird so gut, weil ihr bei jedem Modul die Qualitätsschleuse seid.
Der Geheimtipp: Die Treppe der Exzellenz
Ist das Master-Dokument fertig, startet einen frischen Chat für das Finale mit diesem Prompt:
„Tritt bitte zwei Schritte zurück. Das hier war mein ursprünglicher Plan (Zielgruppe/Ziel), und das hier ist das fertige Ergebnis. Funktioniert das Ergebnis für das, was wir erreichen wollen, oder siehst du noch Dinge, die wir anpassen müssen?“
Das ist wie eine „Treppe der Exzellenz“: Da euer Input jetzt schon auf einem sehr hohen Niveau ist, wird auch das Feedback und die Kritik der KI plötzlich viel schärfer und nützlicher.
Fazit: Vom Schreib-Tipp zum Business Impact
Das hier ist mehr als nur ein Tipp für bessere Texte. Es ist eine fundamentale Lektion darüber, wie wir Verlässlichkeit in KI-Prozesse bringen.
Wenn wir Aufgaben zerlegen, machen wir die Ergebnisse vorhersehbar. Und genau das brauchen wir im Business. Wir wollen keine „kreativen Zufälle“, wir wollen Ergebnisse, auf die wir bauen können.
Genau dieses Prinzip der „intelligenten Zerlegung“ nutzen wir auch bei Staffbase, wenn wir KI-Features tief in unsere Plattform integrieren. Wir bauen Architekturen, die komplexe Probleme in lösbare Schritte unterteilen.
Also: Habt keine Angst vor großen, komplexen Aufgaben. Zerlegt sie. Seid der Architekt. Dann liefert die KI auch genau die Qualität, die ihr braucht.
Dein
Über den Autor: Frank Wolf ist Mitgründer der Employee-Experience-Plattform Staffbase. Als Chief Strategy Officer widmet er sich Zukunftstrends in der Unternehmenskommunikation, hat kürzlich sein zweites Buch „The Narrative Age“ veröffentlicht und gilt als Vordenker beim Einsatz von künstlicher Intelligenz in der Kommunikation.
3 weitere KI-Trends:
📣 AI-Native Development Platforms: Software-Entwicklung wird KI-nativ. Plattformen integrieren generative und assistive KI-Funktionen direkt in Entwicklungsprozesse und sollen Produktivität, Qualität und Time-to-Market deutlich verbessern.
📣 KI-getriebene Sicherheit & Compliance: KI-Sicherheits- und Datenschutzmaßnahmen werden zum Kommunikationsthema, weil Unternehmen Vertrauen aktiv erklären müssen.