Blog

Journal

Analyse-Update:

Metriken, Silbenzählung & Lektor-Feedback

Heute habe ich einen größeren Durchgang durch die Analyse-Metriken gemacht und dabei vor allem Grenzfälle, kurze Texte und die Silbenzählung überarbeitet.
• Lektor-Klassifizierung repariert: Die Szenario-Grenzen (LDI/TDI) hatten Off-by-one-Fehler. Werte genau auf der Grenze (z. B. LDI = 70) fielen dadurch teils ins falsche Szenario. Das ist jetzt korrigiert.
• Mindestwortanzahl auf 50 angehoben: Vorher reichten 20 Wörter für eine LDI-Berechnung – das war zu wenig für belastbare Ergebnisse. Bei zu kurzen Texten gibt der Lektor jetzt eine passende Rückmeldung statt einfach leer zu bleiben, inklusive eigener Texte für alle drei Stimmen.
• CV-Berechnung für kurze Texte korrigiert: Bei weniger als drei Sätzen wurde der Variationskoeffizient bisher künstlich auf 1.0 gesetzt. Das habe ich auf einen neutraleren Mittelwert von 0.5 geändert.
• Deutsche Silbenzählung verbessert: Die Erkennung von be-/ge-Präfixen funktioniert jetzt auch innerhalb von Komposita wie „eingeengt“ oder „abgeerntet“, nicht mehr nur am Wortanfang.
• Englische Silbenzählung verbessert: Zischlaute vor „-es“ (z. B. gazes, churches, ages) sind jetzt von der Stumm-Regel ausgenommen. Zusätzlich erkennt der Algorithmus nun auch stummes „e“ vor „-ly“ (lonely, lovely).
• Sweet Spot erweitert: Der bisherige Bereich war zu eng. Ich habe ihn auf LDI 40–68 und TDI 45–72 verbreitert.
• Englischen LSC-Fallback gedämpft: Falls die erweiterte 20k-Wortliste nicht geladen werden kann, wird der Lexical-Scarcity-Wert jetzt halbiert, statt pauschal alle unbekannten Wörter als selten zu behandeln.

Bonus:

iPad-Build-Problem in der Vokabularanalyse behoben: Auf dem iPad wurden die Wortschatz-Datenbanken beim Build nicht mit ins App-Paket übernommen. Dadurch liefen TTR, Lexikalische Seltenheit und der LDI dort mit unvollständiger Datenbasis. Das Mac-Target war nicht betroffen.