Diese Arbeit behandelt die theoretische Erfassung und prototypische Erzeugung komplexer Musterdokumente mit synchronisiertem »Volltext« und »Bewegtbild«. Dabei werden wesentliche Randbedingungen für die Dokumentengliederung ermittelt. Diese Randbedingungen erlauben es dann, unterhalb der Plattformebene (des »reinen« Buchs und des »reinen« Films) neue multimediale Hybrideditionen auf Basis elektronischer Publikationsformate als Ausgabeplattform »sinnvoll« zu generieren.
Empirisch wird der Fall einer Synchronisation von textlichen Beschreibungen mit bildlichen Darstellungen untersucht, in denen die Äußerungssituation des Textes repräsentiert ist. Dann liefert das Bild für eine Menge von textlichen Inhaltsstücken relevante Kontextinformationen, so dass eine Synchronisation nicht nur eine Geschmacksfrage ist, sondern einer »inneren Logik« unterliegt. Auf Basis einer syntagmatischen und situationstheoretischen Analyse eines Spielfilms wird demonstriert, wie eine entsprechend plausible Strukturierung des Bildmaterials vorgenommen werden kann.
Mit Hilfe von regelbasierten Zusammenhangsbeschreibungen der Inhaltsfragmente wird dann dynamisch eine intermediale Synchronisation zwischen den in ihrer Struktur gänzlich verschiedenen Inhaltsarchitekturen »Volltext« und »Film« für den Beispielfilm »Eyes Wide Shut« mit zugehöriger Navigation tatsächlich erzeugt.