Die 1980er Jahre waren eine Zeit rasanten Wandels in der Computertechnik, und besonders der Bereich des Schriftsatzes durchlief eine tiefgreifende Transformation. Die Epoche vor der breiten Verfügbarkeit von PostScript und Desktop-Publishing-Systemen war geprägt von großen Herausforderungen, insbesondere was Effizienz, Kosten und Flexibilität beim Erstellen von Druckvorlagen anging. In diesem Kontext stehen die bahnbrechenden Experimente der University of Nottingham, die fast alle ihre Prüfungsunterlagen eigenständig mit Hilfe von UNIX-basierten Systemen und den Programmen troff, tbl und eqn zu setzen begann. Diese Entwicklung ist nicht nur eine Anekdote aus der Computergeschichte, sondern eine Grundlage für viele moderne Ansätze im Bereich der Dokumentenerstellung und des sogenannten Document Engineering. Der Startpunkt dieser technologischen Reise lag im Jahr 1982, als die Universität beschloss, die Arbeiten zur Erstellung von Prüfungsunterlagen nicht mehr extern vergeben zu müssen, sondern selbst inhouse durchzuführen.
Zu diesem Zweck wurden umfassende Investitionen getätigt, die damals überraschende 80.000 Pfund kosteten – ein Betrag, der heute für vergleichbare Leistung mit einem handelsüblichen Computer und Laserdrucker in einem Bruchteil anfallen würde. Trotz der hohen Kosten legte die Universität damit den Grundstein für ein System, das nicht nur wirtschaftlich effizient war, sondern auch neue Maßstäbe in der Flexibilität setzte. Der Kern des Systems basierte auf dem UNIX-Betriebssystem, das auf einem DEC PDP11-Rechner lief. UNIX bot die notwendige Stabilität und Programmierbarkeit, um die damals noch sehr spezialisierten Schriftsatzprogramme wie troff einzusetzen.
Troff war ursprünglich auf den Graphics Systems Inc. CAT-Phototypesetter ausgelegt, wurde aber in einer geräteunabhängigen Version erworben, welche die Anpassung an verschiedene Ausgabegeräte ermöglichte. Diese Entscheidung war wegweisend, da sie den Verzicht auf alternative Schriftsatzsysteme wie Don Knuths TEX provozierte, welches zwar in puncto Qualität überzeugen konnte, jedoch den Einsatz kostspieliger DEC VAX-Rechner erfordert hätte und somit das Budget überschritten hätte. Die Kombination aus troff für den Textsatz, tbl für die tabellarische Formatierung und eqn zur Darstellung von mathematischen Gleichungen ermöglichte es, komplexe Dokumente standardisiert und automatisiert zu produzieren. Obwohl diese Programme auf der Eingabe von Befehlen und makros basierten und nicht nach dem Prinzip einer WYSIWYG-Oberfläche (What You See Is What You Get) arbeiteten, boten sie den Vorteil, dass sie eine strengere Kontrolle über das endgültige Layout erlaubten.
Gerade in der Produktion von Prüfungsunterlagen mit hohem Formalitätsgrad und oft komplexen mathematischen Inhalten war dies von großem Vorteil. Der Einsatz dieses Systems erforderte zwar eine gewisse Einarbeitungszeit, doch konnte das notwendige Personal ohne vorherige Erfahrung im Schriftsatz geschult werden. Entscheidender war die Lernbereitschaft und Flexibilität der Anwender. Trotz einiger technischer Widrigkeiten, wie Fehler im Softwarecode oder mechanischen Problemen bei den angeschlossenen Druckgeräten, machten die Ergebnisse die Mühen lohnenswert. Die so produzierten Dokumente setzten neue Standards hinsichtlich Einheitlichkeit und Fehlerreduzierung.
Ein weiterer interessanter Aspekt ist der historische Wert des Projekts hinsichtlich der Archivierung und Weiterverwendung von Daten. Ursprünglich war das verfasste Papier zur Einführung in das System vollständig in troff-Code verfasst und wurde als Kamera-fertiges Bromid ausgeliefert. Leider ging der Quelltext im Zuge eines Systemwechsels vom VAX auf SUN-basierte UNIX-Systeme verloren. Die Wiederherstellung erfolgte erst viel später mittels Scannen und Texterkennung (OCR), verbunden mit einer erneuten Satzarbeiten, was den Aufwand und die Herausforderungen der Datenarchivierung vor Augen führt. Das Engagement der University of Nottingham zeigte außerdem, wie wichtig es ist, über technische Neuerungen hinaus auch kulturelle und organisatorische Veränderungen zu bewältigen.
Ein technisches System kann noch so gut sein, wenn es nicht von den Anwendern akzeptiert und verstanden wird, kann der angestrebte Fortschritt nicht erreicht werden. Die Erfahrungen der Mitarbeiter, die sich mit Geduld und Kreativität in die neuen Programme einarbeiteten, spiegeln deshalb eine bedeutende Errungenschaft wider. Heute, viele Jahrzehnte später, erscheinen die damaligen Systeme vielleicht antiquiert, doch ihre Bedeutung ist unvermindert gegeben. Das Konzept eines geräteunabhängigen Schriftsatzes, die Automatisierung der Dokumentenerstellung und die Integration von mathematischen und technischen Inhalten sind Grundpfeiler der modernen Textverarbeitung und des Desktop-Publishing. Auch der Grundgedanke, dass Software durch nutzerdefinierte Makros und Befehle präzise und reproduzierbar gesteuert werden kann, ist in heutigen Workflows präsent, sei es in LaTeX-Umgebungen oder in professionellen Publishing-Softwares.
Die Versuche der 1980er Jahre erinnern zudem eindrucksvoll an die rasante Entwicklung von Hardware und Software-Technologien. Wo ehemals mehrere zehntausend Pfund für die Anschaffung nötig waren, reichen heute preiswerte Geräte und Open-Source-Programme aus, um vergleichbare oder gar bessere Ergebnisse zu erzielen. Nicht nur technologische Innovation sondern auch wirtschaftliche Faktoren veränderten somit die Produktionsabläufe in der Verlagswelt grundlegend. Die Pionierleistung der Universität Nottingham war auch eine Inspiration für viele andere Institute und Unternehmen, die den Wert automatisierter Schriftsatzsysteme erkannten. Die Verbreitung von UNIX als Betriebssystem und die Entwicklung von Standards für geräteunabhängigen Satzsoftware legten das Fundament für die Computerintegration im Verlagswesen und in der akademischen Dokumentation.
Ihre Geschichte ist ein Beispiel dafür, wie technischer Fortschritt mit dem Bedürfnis nach Qualität und Effizienz im Druckbereich kombiniert werden kann. Zusammenfassend lässt sich sagen, dass die Schriftsatzerfahrungen der 1980er Jahre an der University of Nottingham eine bedeutende historische Rolle einnehmen. Sie spiegeln sowohl die Herausforderungen als auch die Chancen einer technikgetriebenen Transformation wider und zeigen, wie aus der Notwendigkeit innovativer Lösungen nachhaltige Entwicklungen hervorgehen können. Die Kombination von UNIX, troff und ergänzenden Tools wie tbl und eqn stellte einen frühen, erfolgreichen Meilenstein dar, der bis heute Einfluss auf das digitale Text- und Dokumentenmanagement besitzt und gewissermaßen den Grundstein für das moderne Document Engineering legte.