Bei den bisherigen Untersuchungen ging es um das freie Assoziieren. Versuchspersonen antworteten auf ein Stimuluswort mit demjenigen anderen Wort, das ihnen als erstes in den Sinn kam, ohne weitere Vorgaben berücksichtigen zu müssen. In diesem Kapitel wird hingegen die Ergänzung fehlender Wörter in Lückentexten betrachtet. Dabei spielen zwar ebenfalls assoziative Prozesse eine Rolle, doch wird die Auswahl möglicher Wörter durch den jeweils vorgegebenen Satzbau eingeschränkt.
Zur Berücksichtigung solcher syntaktischer Vorgaben eignen sich die aus der Linguistik bekannten Grammatiktheorien, die die Entwicklung teilweise bereits in der Praxis verwendbarer Syntaxparser ermöglicht haben. Hier soll jedoch der Frage nachgegangen werden, ob die Syntax einer Sprache außer mit diesen regelbasierten Systemen auch mit statistischen Modellen erklärt werden kann. Die Untersuchung stützt sich auf statistische Theorien, die in einer Vielzahl von Veröffentlichungen zumeist unter den Stichworten ``Markov-Modelle'', ``bedingte Wahrscheinlichkeiten'' oder ``n-Gramm-Modelle'' behandelt und insbesondere im Bereich der maschinellen Spracherkennung mit Erfolg angewandt werden (Brainard, 1976; Brown et al., 1992; Hilberg, 1989; Meyer, 1990; Rabiner, 1990; Rapp, 1991b; Rapp, 1993; Waibel et al., 1988).
Das hier vorgestellte statistische Modell ermittelt zunächst die Auftretenshäufigkeiten der in einem Textkorpus vorkommenden Wortfolgen und macht anschließend auf der Grundlage dieses Datenmaterials Vorhersagen zur Abfolge von Wörtern, zur Wortergänzung in Lückentexten und zur Korrektheit von Sätzen oder ganzer Texte. Die Ergebnisse werden anhand einer Reihe von Simulationsläufen dargestellt.