Grundschutzprofil für Hochschulen als Community Draft veröffentlicht

Das Grundschutzprofil für Hochschulen, für den ich ein paar Bausteine mitgeschrieben habe, ist in einem Community Draft veröffentlicht.

Hochschulen haben Informationssicherheit nicht im Griff

Aufhänger waren die Sicherheitsvorfälle an Hochschulen, besonders Universitäten, die in diesem Jahr bekannt wurden. Sie legen für die Öffentlichkeit offen, was für diejenigen, die mit Informationssicherheit an Hochschulen zu tun haben, seit langem Grund zur Sorge ist: Diese Bildungseinrichtungen sind nicht vorbereitet, wenn sie ins Visier geraten.

Intrinsische Motivation scheint nicht zu reichen

Die Selbstverwaltung der akademischen Einrichtungen scheinen noch nicht genügend intrinsische Motivation aufzubringen, Informationssicherheit mitzudenken. Dokumente wie das Grundschutzprofil helfen als Richtschnur, aber nur, wenn der Entschluss gefallen ist, sie als solche zu anzunehmen.

Unmittelbarkeit

Etwas unbefriedigt schloss ich meine Überlegungen ab, warum die Textproduktion für den eigenen wissenschaftlichen Beitrag mit Tools gemacht wird, zu denen Nerds viele Gegenargumente einfallen. Nicht, dass die Einwände von Nerds einen Textproduzenten interessieren, aber möglicherweise stecken dahinter rationale, nachvollziebare Schlüsse. Es muss also was Überzeugenderes als ignorierte Argumente geben.

Zufälle in der Lese-Timeline

Wie es der Zufall so will, hat er mir den Vortrag „Schreibende Staatsquallen“ von Kathrin Passig aus dem Jahr 2015 auf den Lesestack geschoben. In ihm gibt es sehr kluge Gedanken zum Schreibprozess mit digitalen Mitteln. In ihm findet sich die vielleicht entscheidende Antwort auf die unbefriedigende offene Stelle: Unmittelbarkeit.

Ein Aspekt der Digitalisierung ist, vieles so zu beschleunigen, dass ehemals wochenlange Prozesse nun sofort verfügbar sind. Daraus ist eine Haltung entstanden, die anderswo als Sofortness bezeichnet wird. Wo ehemals wochenlang auf das entwickelte Foto aus dem Labor gewartet werden musste, zeigt das digitale Foto direkt auf dem Display das Ergebnis. Für den Lerneffekt ist das wunderbar, der Zusammenhang zwischen Einstellungen des Apparats und dem Ergebnis kann sofort abgeglichen werden.

Der ähnliche Mechanismus wirkt in der Textproduktion. Ich will etwas hervorheben, also mache ich es kursiv oder fett. Ich will einen Text gliedern, also mache ich die Schrift größer, mehr Abstand vorne und hinten und so weiter.

Und wenn die Textstruktur wichtig wird, ist es zu spät und sehr viel Arbeit.

Unmittelbarkeit steht gegen später nutzbare Systematik. Das ist keine besonders überraschende Erkenntnis. Gegen den Drang zur Unmittelbarkeit gehört Disziplin. Um sie hochzuhalten, hilft vielleicht die Einsicht, ab welcher Grenze im Schreibprozess Strukturen, gerne selbst gewählte, einem selbst und anderen weiterhelfen.

Historisch-kritische Editionen und Versionsverwaltungen

Die historisch-kritische Edition ist für Literaturwissenschaftler:innen einer der wichtigsten Untersuchungsgegenstände, und die Mitarbeit an einem Projekt zur Erschließung von Material in einer solchen Ausgabe ist für Wissenschaftler:innen aus diesem Fachbereich ein Wunschtraum. Selten rückt man einem Schriftsteller, einer Schriftstellerin oder einer bedeutsamen Persönlichkeit so nahe wie bei einer solchen Arbeit. Die Mitarbeit an einer solchen Edition erfordert viel Geduld, Ausdauer und vor allem Gewissenheit.

Königsdisziplin Edition

Die Wikipedia zitiert Cammann mit der Bezeichnung „Königsdiziplin“ Editionswissenschaft im Bereich der Geisteswissenschaftler:innen, die mit großen Textkonvoluten arbeiten. Betrachten wir die Merkmale von solchen Ausgaben:

  • Es werden Überlieferungen, Varianten erschlossen und in einem Textapparat aufbereitet. Damit sollen Verläufe, Abhängigkeiten und die Genese von kanonischen Werken nachgezeichnet werden können. Das ist der historische Anteil.
  • Im kritischen Anteil wird abgewogen, was gültige Aussagen des Urhebers oder der Urheberin sind und was durch Hinzufügungen von anderen Personen in den Text kam.

Editorisch gibt es verschiedenen Wege, diese Varianten in den Griff zu bekommen, so dass in der Interpretation von Texten darauf zurückgegriffen werden kann. Es gehört Erfahrung und die schon angesprochene Gewissenhaftigkeit dazu, um einen solchen Textapparat in gleichbleibender Qualität und für Leser:innen brauchbar zusammenzustellen.

Fragt man eine Informatiker:in, wie Varianten von Zeichenketten – denn nichts anderes sind Texte – in ihren Abhängigkeiten und historischen Verläufen organisiert werden können, wird sie zu einem Versionsverwaltungssystem raten.

Ein solches System organisiert Textdateien so, dass jederzeit alte Varianten angezeigt werden können, Versionen von verschiedenen Autor:innen zu einer Version zusammengeführt werden können und dennoch über nachvollziehbare Workflows ein Stand als gültig publiziert ist. Im Zusammenhang mit der Informationstechnologie wird dieser gültige Stand derjenige sein, mit dem ein Programm kompiliert oder ein Webdienst online gestellt wird.

Warum spielt dieses Tool in den Geisteswissenschaften faktisch keine Rolle? Es gibt Beispiele und Erfahrungsberichte, die die problematischen Seiten von gängigen Textverarbeitungen auf die lange Sicht thematisieren wie zum Beispiel von Tenen und Wythoff oder Schmidt

Der Aufwand zum Lernen von Versionsverwaltungssystemen an sich kann es nicht sein. Er ist nicht wirklich höher als der für das Lernen einer handelsüblichen Textverarbeitung. mit einer guten Einweisung wird man innerhalb weniger Stunden produktiv mit beispielsweise Git arbeiten können. Online-Lernumgebungen – Buzzword MOOC für Massive Open Online Courses – erlauben einen seriösen Einstieg ohne Warten auf einen Kurstermin.

Versioniertes Schreiben nicht attraktiv?

Mir fallen mehrere mögliche Gründe ein, warum das Versionieren der eigenen Textproduktion für Geisteswissenschaftler:innen nicht attraktiv ist.

Der erste, der mir einfällt, wäre, mit Git oder einer anderen Versionsverwaltung muss man in der Regel etwas Zusätzliches lernen. Es wird niemandem im akademischen Umfeld geben, der nicht mindestens ein Textverarbeitungsprogramm beherrscht. Damit lassen sich nach einer Einarbeitungszeit akzeptable Ergebnisse bei der Textproduktion erzielen. Wie viel Zeit das wirklich in der Summe kostete, haben die meisten vergessen. Die Form der Texterstellung ist mit einem solchen nahe an der Überlieferung, nach der die Autor:in mit einem Stift in der Hand am Schreibtisch vor einem leeren Stapel Papier zu sitzen hat und die Inhalt von Exzerpten, Zettelkästen und eigenen Überlegungen zu einem Text amalgamieren muss, Fußnoten nicht vergessen. An diesem grundsätzlichem Setting hat sich mit der Schreibmaschine und dem Personal-Computer nichts wesentliches geändert. Die Technologie zur Textverarbeitung entstand aus einer anderen Notwendigkeit, der Rationalisierung von Serienbriefen mit Floskelsequenzen, mit dem Aufkommen des Personal-Computer konnte diese Technologie in einen Schreibprozess integriert werden, ohne das Ideal einer Autor:in anzugreifen. Ein Detail dieser Nichtentscheidung war das Festhalten am Ergebnis Papierausdruck als Maßstab für die Produktivität. Vorgelagerte Schritte sind in dieser Wertschätzung eher bedeutungslos.

Ein weiterer Grund ist der Konformitätsdruck im Textaustausch mit anderen, ob weitere Autor:innen, Verlage, Berichtsempfänger etc. Man muss Texte verschicken oder Texte verarbeiten, ohne dass diese Übergabe zu Komplikationen führt. Der Umgang mit Formaten und Konvertierungen gehört nicht zum Standardwissen der Textverarbeitung. Dieser Schritt wird vor der Benutzer:in eher versteckt. Deswegen wird der Weg mit den geringsten erwarteten Schwierigkeiten gewählt. Er geht von der Annahme aus, dass jeder die Formate der Textverarbeitung verarbeiten kann, die den größten Marktanteil hat.

Hier soll noch eine weitere Vermutung angeführt werden, warum die Nachvollziehbarkeit des eigenen Schreibprozesses eine so geringe Bedeutung für Autor:innen hat. In dem Aufwand, der für die historisch-kritische Erschließung investiert wird, steckt eine hohe Wertschätzung gegenüber der Person, die zum Gegenstand wurde. Mit einer solchen Edition wird eine Schriftsteller:in zum Kanon oder ein historisches Epos wird zum nationalen Schatz. Während man einen Text schreibt, berücksichtigt man nicht, dass genau dieser Scheibprozess Gegenstand einer wissenschaftlichen Betrachtung werden könnte. Als Wissenschaftler:in, die sich um Transparenz ihres Erkenntnisprozesses bemüht, wäre die Vorbereitung, jemand anderem den Zugriff auf die Textentstehung mit den Irrwegen zu geben, im eigenen Interesse.

Diesen Zugriff praktisch automatisch und sogar zum eigenen Vorteil zu ermöglichen ist ein in Git eingebautes Feature. Git ist in 2020 die Versionsverwaltung mit der größten Verbreitung. Eine Textvariante, die zur Sackgasse und daher verworfen wurde, in einer Textverarbeitung ohne Versionsverwaltung nachzuzeichnen, führt zu komplizierten, fast unmöglichen Dekonstruktionsarbeiten. In Git ist ein Auswählen eines früheren Standes. Solche Zwischenstände werden Commit genannt. Man kann ihn exakt wiederherstellen und sich in Ruhe den zeitlich exakt definierbaren Kontext anschauen.

Nicht wirklich erklärt

So richtig überzeugen diese Erklärungen alle nicht. Selbst technikaffine Wissenschaftler:innen, die Latex-Code herunterschreiben, werden ihre Texte eher selten gegen ein Versionstool schreiben. Am ehesten wird sich das bei technischen Dokumentationen im Open-Source-Bereich finden.

So soll der Gedanke hier abgebrochen werden, dass der Aufbau historisch-kritischer Editionen in Geisteswissenschaften und das Produzieren von Text über Versionsverwaltungen strukturelle Ähnlichkeiten haben und sich dennoch in verschiedenen Universen abspielen.

Referenzen

Borchers, Detlef. „Eine kleine Geschichte der Textverarbeitung“. c’t Magazin. Zugegriffen 16. April 2020. https://www.heise.de/ct/artikel/Eine-kleine-Geschichte-der-Textverarbeitung-4558977.html.

„Historisch-kritische Ausgabe“. In Wikipedia, 12. Oktober 2019. https://de.wikipedia.org/w/index.php?title=Historisch-kritische_Ausgabe&oldid=193070228.

Tenen, Dennis, und Grant Wythoff. „Sustainable Authorship in Plain Text using Pandoc and Markdown“. Programming Historian. Zugegriffen 8. November 2017. https://programminghistorian.org/lessons/sustainable-authorship-in-plain-text-using-pandoc-and-markdown.

Schmidt, Benjamin M. „Markdown, Historical Writing, and Killer Apps | Benjamin M. Schmidt“, 2014. http://benschmidt.org/2014/09/05/markdown-historical-writing-and-killer-apps/.

Datenmanagementplan

Mit einem Datenmanagementplan organisiert man die Daten, die bei der wissenschaftlichen Arbeit erworben, produziert, verarbeitet, analysiert und verdichtet werden. Das passiert eigentlich immer, sobald man mit einem Computer arbeitet. Millionen von Wissenschaftler:innen arbeiten mit Computern, ohne einen solchen Plan zu haben. Zu diesen Computern zählen nicht nur die unter dem Tisch oder die Laptops auf dem Tisch, sondern auch Tablets, mit denen Antworten auf Umfragen protokolliert werden, oder Smartphones, mit denen Pflanzen zur späteren Bestimmung fotografiert werden.

Der Umgang mit Daten muss man organisieren, weil es zu viele werden und sie damit unübersichtlich werden. Es hängt zu viel von ihnen ab. Alleine die Notizen, selbst protokollierten Daten, Textentwürfe usw. sind für jede Forscher:in existenziell.

Es ändern sich auch die Erwartungshaltungen. Es wird verlangt, nicht allein bei den Referenzen auf wissenschaftliche Publikationen korrekt zu arbeiten, sondern auch die Primärdaten korrekt zu verarbeiten. Nachprüfbarkeit erschöpft sich nicht mehr allein im richtigen Zitieren, sondern sie verlangt nach öffentlicher Darlegung und Referenzierung dieser Primäredaten. Die verwendeten Daten sollten also spätestens mit der Veröffentlichung der damit erzeugten Publikation zugänglich sein.

Wie das geschehen kann, damit beschäftigt sich sich das noch recht junge Feld des Forschungsdatenmanagements.

FDM

FDM ist die Abkürzung für Forschungsdatenmanagement. Arbeiteten Wissenschaftler:innen vormals auf die Publikation ihrer wissenschaftlichen Ergebnisse hin, gehört der systematische und transparente Umgang mit ihnen zu den Methoden, die sie beherrschen sollten.

Geldgeber wie die DFG verlangen bei von ihnen geförderten Projekten eine Veröffentlichung von primären Forschungsdaten. Diese Anforderungen gelten für die Wissenschaftler:innen, sie können sie aber nur erfüllen, wenn es angemessene institutionelle Angebote gibt.

Auf solche Angebote zu warten, ist jedoch ebensowenig eine Lösung. Forscher:innen müssen sich selbst bemühen einen Weg zu finden und parallel auf ihre Institution einwirken.

Als wissenschaftlicher Mitarbeiter am Rechenzentrum der Universität Freiburg wirke ich an der Research Data Management Group (RDMG) mit, universitätsweit eine lokale Infrastruktur aufzubauen. Eine andere Aufgabe ist, im Rahmen des Möglichen Angehörigen der Universität schon vorher Antworten oder Hilfestellungen geben zu können.

Was ich dabei als Text produziere und nicht anderswo publiziere, veröffentliche ich hier, fast im Sinne einer Resteverwertung. Das dient zur Selbstvergewisserung, weil erst das schriftliche Niederlegen von Gedanken oder Überlegungen eigenen Fortschritt sichtbar macht und das Kreisen um schon Gedachtes und Vergessenes verhindert (siehe „Hannah Arendt im Gespräch mit Günter Gaus“, Min. 6:35).

Informationssicherheit

Unter dem Schlagwort Informationssicherheit sammele ich Texte, die aus meiner Arbeit an der Universität Freiburg, der Mitarbeit an Arbeitskreisen und der eigenen Auseinandersetzung mit diesem Thema entstehen.

Ich habe ein Zertifikat „ISO 27001 Lead Implementer (PECB)“ im Oktober 2018 erworben. Außerdem arbeite ich am Grundschutz-Profil für Hochschulen mit, das von einem Arbeitskreis des ZKI e.V. in Zusammenarbeit mit dem BSI geschrieben wird.