Einfach zu lang:
Warum Zeichenangaben von KI Modellen ignoriert werden.
Einleitung
Zeichenlimits sind bei Förderanträgen nicht verhandelbar. Sie gewährleisten Struktur und Vergleichbarkeit bei Förderanträgen. Doch die Arbeit mit Künstlicher Intelligenz (KI) bringt genau in diesem Punkt häufig Schwierigkeiten mit sich: Oft werden Zeichenangaben von KI-Tools nicht exakt eingehalten.
Für Fördermittelreferent*innen, die an die Vorgaben gebunden sind, kann das zu erheblichen Mehraufwänden führen. Dieser Artikel beleuchtet die Gründe hinter diesem Problem und zeigt praxisorientierte Ansätze, wie man KI trotzdem effizient nutzen kann.
Warum gibt es Zeichenlimits im Förderwesen?
Im Förderwesen gelten strenge formale Anforderungen. Zu den wichtigsten Vorgaben gehören Zeichenlimits für die einzelnen Abschnitte und Fragen in einem Förderantrag.
Die Gründe für diese Begrenzungen sind vielfältig:
- Vergleichbarkeit sicherstellen: Einheitliche Längen erleichtern die Bewertung von Anträgen und verhindern, dass Umfang und Detailtiefe unübersichtlich variieren.
- Fokus auf das Wesentliche: Die Sachbearbeiter*innen aufseiten der Fördermittelgeber können nur eine begrenzte Menge an Informationen prüfen. Beschränkungen helfen, da der Antragsteller sich auf klare und verständliche Kernbotschaften und -informationen fokussieren muss.
- Einhalten formaler Vorgaben: Zeichenlimits sind in vielen Fällen bindend. Werden sie überschritten, kann dies zur Ablehnung eines Antrags bzw. zur Nichtberücksichtigung der zusätzlichen Informationen führen – unabhängig von dessen inhaltlicher Qualität.
Gerade deshalb haben Fehler bei der Einhaltung von Zeichenangaben im Förderwesen schwerwiegende Konsequenzen. Ein Antrag, der die Grenzen überschreitet, wird im schlimmsten Fall gar nicht erst geprüft – unabhängig von seiner Qualität. Besonders bei engen Fristen oder in stark standardisierten Prozessen bleibt oft keine Zeit für Nachbesserungen.
Schreibt Künstliche Intelligenz wirklich zu lang?
Es kommt einem oft so vor, als schreiben KI-Modelle gerne mehr, als eigentlich verlangt wird. Doch ist das wirklich so oder nur ein subjektiver Eindruck? Zusammen mit Sören Etler (Datenanalyst) habe ich mir das genauer angeschaut. In einer detaillierten Analyse zeigt er, dass es sich hierbei um ein systematisches Problem handelt.
In einem Experiment analysierte er, wie gut KI-Systeme mit Zeichenbegrenzungen umgehen. Als Beispiel nutzte er den Prompt: „Schreibe einen Text über Deutschland.“ An diesen Prompt fügte Sören den einfach Zusatz “Der Text soll nicht länger als 500 Zeichen sein”, um ein Zeichenlimit zu definieren. Das Ergebnis war eindeutig:
Von 100 Anfragen, die an die Schnittstelle gesendet wurden, hielt sich nur eine einzige Antwort an die Vorgabe von exakt 500 Zeichen. Die übrigen Ergebnisse lagen durchgehend darüber – teils bei 555, 560 oder sogar über 700 Zeichen.

In ChatGPT wird momentan das 4o-Sprachmodell von OpenAI verwendet. Andere Sprachmodelle auch von anderen Herstellern können zwar andere Charakteristika aufweisen – die Grundtendenz ist aber immer gleich: Die Texte sind zu lang!
Der Computer behandelt sie eher wie “Empfehlungen”, die in den meisten Fällen ignoriert werden.
Da uns diese ersten Ergebnisse neugierig gemacht haben, haben wir den Test weiter ausgebaut.
Unterscheiden sich die kostenlose und die Bezahlversion von ChatGPT?
Unsere Tests haben bestätigt, dass die meisten KI-generierten Texte die gesetzten Zeichenlimits nicht exakt einhalten. Gleichzeitig gibt es deutliche Unterschiede zwischen den einzelnen Modellen – sowohl hinsichtlich der durchschnittlichen Zeichenlänge als auch der Präzision bei der Einhaltung der Vorgaben.
Vergleich zwischen GPT-4o und GPT-4o mini
Bei unserem Test zeigt sich, dass GPT-4o mini im Durchschnitt fast 100 Zeichen länger schreibt als GPT-4o, selbst wenn beide “versuchen”, das gleiche Zeichenlimit einzuhalten.

Das bedeutet, dass GPT-4o mini das Zeichenlimit systematisch weiter überschreitet als GPT-4o. Die Standardabweichung ist dabei ebenfalls höher., was auf eine größere Varianz in der Textlänge hinweist. Das heißt, dass sich bei mehreren Durchläufen mit dem gleichen Prompt die Textlängen stark unterscheiden.
Welchen Einfluss haben verschiedenen Prompting Strategien auf die Einhaltung des Zeichenlimits?
Ein weiterer interessanter Befund ist, dass bestimmte Formulierungen für die Zeichenbegrenzung besser funktionieren als andere:
• „Der Text soll nicht länger als 500 Zeichen sein.“ und „Der Text darf maximal 500 Zeichen lang sein.“ liefern die besten Ergebnisse.
• „(max. 500 Zeichen)“ ist akzeptabel, aber weniger zuverlässig.
• „Bitte“ als Zusatz macht den Text durchschnittlich etwas länger.
• „Guilt Tripping“ („Ich verliere meinen Job, wenn der Text länger als 500 Zeichen ist.“) funktioniert überhaupt nicht – das Modell ignoriert die Einschränkung fast komplett.
Reasoning-Modelle sind präziser
In der zweiten Testrunde haben wir zusätzlich die neuen Reasoning-Modelle (o1 und o3-mini-high) in die Analyse einbezogen. Dabei zeigte sich, dass diese Modelle sehr viel besser mit Zeichenlimits umgehen als GPT-4o und GPT-4o min. Sie haben sich größtenteils an die Zeichenbegrenzung gehalten und teilweise sogar sehr konservativ mitmir unter 400 Zeichen.
Die Reasoning-Modelle überschreiten die Vorgaben seltener und bleiben näher am geforderten Zeichenlimit als GPT-4o oder GPT-4o mini. Das macht sie besonders interessant für Anwendungsfälle, in denen präzise Zeichenbegrenzungen eingehalten werden müssen.
Was passiert ohne Zeichenbegrenzung?
In einer weiteren Testreihe haben wir untersucht, wie sich die Modelle verhalten, wenn keine Zeichenbegrenzung vorgegeben wird. Das Ergebnis war – wenig überraschend – dass die Texte deutlich länger wurden und eine hohe Varianz aufwiesen.

Auf einen Blick:
- Ohne Zeichenbegrenzung produziert GPT-4o durchschnittlich viermal längere Texte, während GPT-4o mini sogar fünfmal so lange Antworten liefert wie mit Zeichenlimit.
- Schwächere Modelle neigen besonders dazu, längere und ausschweifendere Antworten zu generieren – oft mit mehr Redundanzen und unnötigen Füllwörtern.
- Merke: Schlechtere Sprachmodelle schwafeln mehr.
Fazit
Wer sehr präzise Zeichenlimits einhalten muss, sollte auf Reasoning-Modelle wie o1 oder o3-mini-high zurückgreifen. Sie sind am zuverlässigsten in der Begrenzung der Zeichenanzahl.
Warum Künstliche Intelligenz Zeichenlimits ignoriert
Trotz ihrer Fortschrittlichkeit haben KI-Systeme Schwierigkeiten mit präzisen Zeichenangaben. Wir können nicht abschließend sagen, warum ChatGPT diese und nicht eine andere Antwort gibt. Es ist sehr schwer, in das Innenleben von Sprachmodellen zu gucken. Deshalb bietet Sören hier einige mögliche Erklährungsansätze:
1. Fokus auf Inhalte statt auf Grenzen
KI-Modelle wie GPT sind darauf ausgelegt, inhaltlich ansprechende und umfassende Texte zu generieren. Dabei steht die “Qualität” des Outputs im Vordergrund – nicht die Länge. (Qualität bezieht sich hier darauf, dass der Text möglichst gut klingt, nicht unbedingt darauf, dass die Informationen im Text faktisch richtig sind.) Ihr Trainingsprozess wurde darauf ausgelegt, dieses Ziel zu optimieren – Zeichenbegrenzungen spielten im besten Fall eine Nebenrolle. Begrenzungen wie Zeichenlimits stellen eine Herausforderung dar, weil sie den kreativen Prozess der KI einschränken. So würde es ChatGPT auch schwerfallen, Texte zu schreiben, die nicht den Buchstaben “e” verwenden oder möglichst viele “doppelte Konsonanten” benutzen – wobei die Sprachmodelle bei dieser Art von Aufgaben im letzten Jahr enorme Fortschritte gemacht haben.
2. Komplexität der Zeichenberechnung
Was auf den ersten Blick trivial erscheint, ist technisch anspruchsvoll: Der Grund liegt in der Funktionsweise von Sprachmodellen. Sie basieren auf sogenannten Tokens, den kleinsten Verarbeitungseinheiten von Text, die aus Buchstaben, Silben oder Wörtern bestehen können. Tokens korrespondieren jedoch nicht direkt mit Zeichen oder Wörtern. Diese systembedingte Abweichung erschwert es Sprachmodellen, die Länge eines Textes präzise zu kontrollieren.
3. Schwächen bei der Kürzung von Texten
Darüber hinaus ist KI so konzipiert, dass sie in der Regel ausführlichere Antworten generiert. Diese Tendenz, Texte mit mehr Details und größerem Umfang zu produzieren, basiert auf der Annahme, dass längere Antworten als kompetenter und hilfreicher wahrgenommen werden. Der Nutzer kann aus den zusätzlichen Textabschnitten jene auswählen, die für ihn am relevantesten sind. In langen Texten ist für jede*n etwas dabei. Bei kürzeren Texten läuft das System Gefahr, an der falschen Stelle Dinge wegzulassen. Vielleicht ist es in etwa so wie früher in der Schule, wenn man die Antwort auf eine Frage nicht weiß, fängt man an zu schwafeln.
Ist es denn so wichtig, dass KI Zeichenlimits einhält?
Mira’s Einschätzung: JEIN. Eine strikte Einhaltung ist nicht immer notwendig – besonders in der ersten Phase der Antragsentwicklung.
Beim Schreiben von Förderanträgen mit Unterstützung von KI ist es häufig sinnvoll, Zeichenlimits zunächst als Orientierungshilfe zu betrachten.
Die Erstellung von Texten mit KI ist ein iterativer Prozess:
- Erster Entwurf: Die KI wird genutzt, um den Kontext eines Projekts in eine erste Form zu gießen.
- Analyse: Lücken im Text werden identifiziert, und dazu gezielt Feedback eingeholt.
- Optimierung: Mehrere Entwürfe werden generiert, aus denen die passendsten Passagen ausgewählt werden.
- Feinschliff: Einzelne Satzteile werden verbessert und der Text auf Rechtschreibung und Grammatik geprüft.
Dieser Ansatz spart bis zu 65–80 % der Zeit, auch wenn die KI nicht sofort einen textlich perfekten Antrag liefert. Vor allem ermöglicht er eine schnelle Orientierung, welche Aspekte des Antrags bereits klar formuliert sind und wo noch Überarbeitungen notwendig sind.
Kritisch wird es jedoch in der Überarbeitungsphase:
Wenn ein bestehender Text, beispielsweise aus einem früheren Förderantrag, an die Vorgaben eines neuen Fördermittelgebers angepasst werden muss, spielt die Einhaltung von Zeichenlimits von der KI eine entscheidende Rolle. In solchen Fällen ist Präzision unerlässlich, da Abweichungen in der Textlänge schnell zu Mehraufwand und unnötigen Korrekturschleifen führen.
Daher lautet die Einschätzung: Zeichenlimits sind nicht immer absolut entscheidend, werden jedoch in spezifischen Kontexten – insbesondere bei Überarbeitungen – zu einem wichtigen Kriterium.
Mira Pape

Mira Pape ist zertifizierte Fördermittelberaterin mit Abschlüssen in Umwelt- und Nachhaltigkeitswissenschaften. Sie hat berufliche Erfahrung in verschiedenen Sport- und Umweltorganisationen gesammelt, wo sie im Projektmanagement und der Fördermittelvergabe tätig war.
Im vergangenen Jahr haben über 2.000 Personen an ihren Einstiegsseminaren zum Thema „Künstliche Intelligenz in der Fördermittelgewinnung“ teilgenommen. Sie hat 65 Organisationen im Rahmen ihrer sechswöchigen KI-Weiterbildung intensiv bei der strategischen Implementierung von KI-gestützten Prozessen in der Fördermittelgewinnung begleitet.
Sören Etler

Sören Etler ist Datenanalyst und hat sich auf die Arbeit mit Sprach- und Geodaten spezialisiert. Als Open Data Analyst unterstützt er Organisationen dabei, Erkenntnisse aus ihren Daten zu gewinnen und diese zu kommunizieren. Dazu gehören Analysen, Visualisierungen und Vorträge rund um die Themen Daten und KI.
Er hat Wirtschaftsinformatik studiert und sich in seinem Master auf maschinelles Lernen und Sprachverarbeitung spezialisiert. Er hat bereits in Innovationsabteilungen von IBM und SAP gearbeitet und engagiert sich ehrenamtlich bei CorrelAid e.V., einem gemeinnützigen Netzwerk für Data Scientists.