Zertifizierung nach ISO:IEC 27001:2017

Vergangene Woche hat der TÜV SÜD der Universität Freiburg das Zertifikat übergeben, mit dem der normgerechte Betrieb im Maschinensaal II im universitätseigenen Rechenzentrum bestätigt wird. Das waren zwei Jahre Bohren von dicken Brettern.

Anstoß

Angestoßen wurde der Zertifizierungsprozess vom BMBF und dem de.NBI-Prozess. Es gelang, die Beteiligten von der Chance einer Scope-Erweiterung zu überzeugen und über die Zertifizierung hinaus ein strategisches Signal zu setzen für Forschungsdatenmanagement sowie skalierende IT-Strukturen für Forschung, Verwaltung und Lehre. Solche Ziele erfordern die Erfüllung von Managementaufgaben nach gängigen Standards. Das wird durch die Übergabe symbolisiert.

Eigene Ansätze

Wir sind durchaus stolz, die Prozesse des Informationssicherheitsmanagements und deren Dokumentation vollständig mit Open-Source zu organisieren. Dass es funktioniert, wird ebenso durch das Zertifikat belegt.

Wie wir das konzipiert und umgesetzt haben, berichten Marc Herbstritt und ich auf der kommenden 29. DFN-Konferenz.

Beitrag zum Kräfteverhältnis zwischen Hochschulen und globalen Softwarefirmen bei der Beschaffung

In der Zeitschrift „Wissenschaftsmanagement“ habe ich zusammen mit Dirk von Suchodoletz den Beitrag „Deutsches Vergaberecht gegen globale Softwareindustrie“ mit dem Untertitel „Suche nach Spielräumen durch intelligente Planung eigener Clouddienste“ veröffentlicht.

Selbst angelegte Fesseln

Er beleuchtet die Frage, wie Hochschulen sich neue Spielräume bei der Beschaffung von Software erarbeiten können. Ausgehend von der Analyse, die das zweifellos vorhandene Machtgefälle zusätzlich vergrößern, werden Empfehlungen erarbeitet. Diese Empfehlungen werden auf drei Ebenen differenziert, die sich durch den Grad der Handlungsautonomie unterscheiden. Oder anders gewendet, durch den Grad der Kooperation zwischen Hochschulen oder in der Hochschulpolitik.

Ambition

Entscheidend für das Gewinnen neuer Spielräume ist Ambition und strategische Klarheit. Sie sind die Voraussetzung, um zu einem Vorgehen zu finden, das die Machtverhältnisse ändert.

Ähnliche Überlegungen hat der IT-Planungsrat im Januar 2021 vorgestellt. Dort werden strategische Ziele benannt, die auf den Bereich der Software zielen. Software ist Werkzeug. Im Zentrum sollten die Dienste stehen, für deren Erfüllung die Software benötigt wird.

Anregungen durch Workshop „Single-Source-Publishing […]“ an TUHH

Anregungen aus einen Workshop an TUHH

Diese Woche nahm ich am Workshop Single-Source-Publishing mit Markdown, GitLab, pandoc und OJS: ausprobieren, diskutieren, Perspektiven entwickeln teil, weil in der Ankündigung genügend Schlagwörter waren, um mein Interesse zu wecken. Er war sehr interessant und brachte mir neue Einsichten und auch Bestätigungen.

In ihm wurde ein gemeinsames Projekt der Hochschulen in Hamburg vorgestellt, bei dem ein Workflow zum Publizieren entwickelt werden soll, der Open-Science verwirklicht. Der Workflow baut auf Open-Source-Komponenten, die nach der Unix-Philosophie ineinandergesteckt werden. Das Projekt ging bei der Planung von der Annahme aus, dass Wissenschaftlerïnnen zum großen Teil in Word schreiben und sich das so schnell nicht ändern wird.

Das möchte ich nicht weiter beschreiben, es steht genügend auf der Webseite. Für mich möchte ich nur folgendes notieren:

  • Gitlab wird als Content-Management-System verwendet, das kollaboratives Schreiben ermöglicht.
  • Es darf nicht die technische Lösung in den Vordergrund gestellt werden, der Workflow muss sich in die Praktiken der Anwenderïnnen fügen.
  • Die Praktiken der Anwenderïnnen sollten nicht zu einer Workflow-Gestaltung führen, die an den gängigen Marktangeboten kleben bleibt. Der Weg aus Closed-Source ist auch möglich, wenn sie zur Textproduktion verwendet wird.
  • Die Ergebnisse sehen schön aus. Und sie gefallen dem Auge in verschiedenen Ausgabenkanälen, wenn sorgfältig und pragmatisch geplant und gearbeitet wird.
  • Tools wie Zettlr und Zotero, die ich seit kurzem und seit langem einsetze, sind auch anderswo als nützlich erkannt.

Ansprechperson für Forschungsdatenmanagement an der Universität Freiburg

Seit dem 1. Juli 2020 bin ich Ansprechperson der „Researh Data Management Group“ an der Universität Freiburg. Die RDMG war zunächst eine virtuelle Organisation, in der sich Personen aus Rechenzentrum, Universitätsbibliothek und dem Freiburg Research Service zusammenfanden, um die Universität zu institutionellen Antworten auf drängende Fragen des Forschungsdatenmanagements zu schieben. In der Ankündigung sind die Tätigkeitsfelder beschrieben:

  • Vorbereitung von Leitlinien der Universität und in den Fakultäten
  • Aufbau von Beratungsangeboten zum Umgang mit Forschungsdaten und dem Schreiben von Datenmanagementplänen
  • Entwicklung von Diensten
  • Aufbau von Workshops und Lehrmodulen
  • Anstoßen von Diskussionen zwischen Fakultäten, Instituten und Fachcommunities

Entscheidung Lizenzen

Bislang hatte ich noch keine rechte Lösung, wie ich Texte unter verschiedenen Lizenzen veröffentlichen sollte. Besonders die Unterscheidung zwischen Texten, die ich auch einer kommerziellen Verwendung frei gebe, und solchen, wo ich ein kommerzielles Interesse verfolge und die Freigabe nicht wünsche, war schwierig.

Nun habe ich folgende Lösung: Ich verteile sie auf zwei verschiedene Seiten mit verschiedenen Domains. Alles, was ich eher im Zusammenhang meiner Arbeit an der Universität Freiburg produziere und in die Diskussion geben möchte, veröffentliche ich auf dieser Webseite mit der Lizenz CC BY 4.0. Die anderen Texte poste ich unter der Lizenz CC BY-NC-SA 4.0 unter https://eigene-kennung.de.

Auf die Frage, warum ich gerade die Themen im Zusammenhang mit meinem Hauptberuf freigebe, antworte ich mit Stand September 2020:

Ich bin nicht originär Wissenschaftler, denke aber als Mitarbeiter einer IT-Einrichtung darüber nach, wie diese mit IT umgehen, um die Vorteile der Digitalisierung zu nutzen. Das geschieht in einem rationalen, durch Argumente gestützten Diskussionsprozess, wo referenziert, zitiert wird und die umlaufenden Gedanken neu zusammengesetzt werden. Ein Musiker, eine Musikerin würde sagen, wo remixt wird.

Remixen geht nur, wo das Urheberrecht und abgeleitete oder ausgedachte Nutzungsansprüche keine absurden Schranken setzen. Also muss ich das, will ich das frei stellen, was ich als meinen Beitrag zu diesem Diskurs sehe. Und weil dieser Diskurs von Leuten geführt wird, die als Akademikerïn damit ihr Geld verdienen, sich also geschäftsmäßig damit auseinandersetzen, gebe ich gerade die kommerzielle Verwendung frei.

Warum ich andere Texte nicht der kommerziellen Verwendung freigebe, will ich nicht hier erläutern.

Grundschutzprofil für Hochschulen als Community Draft veröffentlicht

Das Grundschutzprofil für Hochschulen, für den ich ein paar Bausteine mitgeschrieben habe, ist in einem Community Draft veröffentlicht.

Hochschulen haben Informationssicherheit nicht im Griff

Aufhänger waren die Sicherheitsvorfälle an Hochschulen, besonders Universitäten, die in diesem Jahr bekannt wurden. Sie legen für die Öffentlichkeit offen, was für diejenigen, die mit Informationssicherheit an Hochschulen zu tun haben, seit langem Grund zur Sorge ist: Diese Bildungseinrichtungen sind nicht vorbereitet, wenn sie ins Visier geraten.

Intrinsische Motivation scheint nicht zu reichen

Die Selbstverwaltung der akademischen Einrichtungen scheinen noch nicht genügend intrinsische Motivation aufzubringen, Informationssicherheit mitzudenken. Dokumente wie das Grundschutzprofil helfen als Richtschnur, aber nur, wenn der Entschluss gefallen ist, sie als solche zu anzunehmen.

Unmittelbarkeit

Etwas unbefriedigt schloss ich meine Überlegungen ab, warum die Textproduktion für den eigenen wissenschaftlichen Beitrag mit Tools gemacht wird, zu denen Nerds viele Gegenargumente einfallen. Nicht, dass die Einwände von Nerds einen Textproduzenten interessieren, aber möglicherweise stecken dahinter rationale, nachvollziebare Schlüsse. Es muss also was Überzeugenderes als ignorierte Argumente geben.

Zufälle in der Lese-Timeline

Wie es der Zufall so will, hat er mir den Vortrag „Schreibende Staatsquallen“ von Kathrin Passig aus dem Jahr 2015 auf den Lesestack geschoben. In ihm gibt es sehr kluge Gedanken zum Schreibprozess mit digitalen Mitteln. In ihm findet sich die vielleicht entscheidende Antwort auf die unbefriedigende offene Stelle: Unmittelbarkeit.

Ein Aspekt der Digitalisierung ist, vieles so zu beschleunigen, dass ehemals wochenlange Prozesse nun sofort verfügbar sind. Daraus ist eine Haltung entstanden, die anderswo als Sofortness bezeichnet wird. Wo ehemals wochenlang auf das entwickelte Foto aus dem Labor gewartet werden musste, zeigt das digitale Foto direkt auf dem Display das Ergebnis. Für den Lerneffekt ist das wunderbar, der Zusammenhang zwischen Einstellungen des Apparats und dem Ergebnis kann sofort abgeglichen werden.

Der ähnliche Mechanismus wirkt in der Textproduktion. Ich will etwas hervorheben, also mache ich es kursiv oder fett. Ich will einen Text gliedern, also mache ich die Schrift größer, mehr Abstand vorne und hinten und so weiter.

Und wenn die Textstruktur wichtig wird, ist es zu spät und sehr viel Arbeit.

Unmittelbarkeit steht gegen später nutzbare Systematik. Das ist keine besonders überraschende Erkenntnis. Gegen den Drang zur Unmittelbarkeit gehört Disziplin. Um sie hochzuhalten, hilft vielleicht die Einsicht, ab welcher Grenze im Schreibprozess Strukturen, gerne selbst gewählte, einem selbst und anderen weiterhelfen.

Historisch-kritische Editionen und Versionsverwaltungen

Die historisch-kritische Edition ist für Literaturwissenschaftler:innen einer der wichtigsten Untersuchungsgegenstände, und die Mitarbeit an einem Projekt zur Erschließung von Material in einer solchen Ausgabe ist für Wissenschaftler:innen aus diesem Fachbereich ein Wunschtraum. Selten rückt man einem Schriftsteller, einer Schriftstellerin oder einer bedeutsamen Persönlichkeit so nahe wie bei einer solchen Arbeit. Die Mitarbeit an einer solchen Edition erfordert viel Geduld, Ausdauer und vor allem Gewissenheit.

Königsdisziplin Edition

Die Wikipedia zitiert Cammann mit der Bezeichnung „Königsdiziplin“ Editionswissenschaft im Bereich der Geisteswissenschaftler:innen, die mit großen Textkonvoluten arbeiten. Betrachten wir die Merkmale von solchen Ausgaben:

  • Es werden Überlieferungen, Varianten erschlossen und in einem Textapparat aufbereitet. Damit sollen Verläufe, Abhängigkeiten und die Genese von kanonischen Werken nachgezeichnet werden können. Das ist der historische Anteil.
  • Im kritischen Anteil wird abgewogen, was gültige Aussagen des Urhebers oder der Urheberin sind und was durch Hinzufügungen von anderen Personen in den Text kam.

Editorisch gibt es verschiedenen Wege, diese Varianten in den Griff zu bekommen, so dass in der Interpretation von Texten darauf zurückgegriffen werden kann. Es gehört Erfahrung und die schon angesprochene Gewissenhaftigkeit dazu, um einen solchen Textapparat in gleichbleibender Qualität und für Leser:innen brauchbar zusammenzustellen.

Fragt man eine Informatiker:in, wie Varianten von Zeichenketten – denn nichts anderes sind Texte – in ihren Abhängigkeiten und historischen Verläufen organisiert werden können, wird sie zu einem Versionsverwaltungssystem raten.

Ein solches System organisiert Textdateien so, dass jederzeit alte Varianten angezeigt werden können, Versionen von verschiedenen Autor:innen zu einer Version zusammengeführt werden können und dennoch über nachvollziehbare Workflows ein Stand als gültig publiziert ist. Im Zusammenhang mit der Informationstechnologie wird dieser gültige Stand derjenige sein, mit dem ein Programm kompiliert oder ein Webdienst online gestellt wird.

Warum spielt dieses Tool in den Geisteswissenschaften faktisch keine Rolle? Es gibt Beispiele und Erfahrungsberichte, die die problematischen Seiten von gängigen Textverarbeitungen auf die lange Sicht thematisieren wie zum Beispiel von Tenen und Wythoff oder Schmidt

Der Aufwand zum Lernen von Versionsverwaltungssystemen an sich kann es nicht sein. Er ist nicht wirklich höher als der für das Lernen einer handelsüblichen Textverarbeitung. mit einer guten Einweisung wird man innerhalb weniger Stunden produktiv mit beispielsweise Git arbeiten können. Online-Lernumgebungen – Buzzword MOOC für Massive Open Online Courses – erlauben einen seriösen Einstieg ohne Warten auf einen Kurstermin.

Versioniertes Schreiben nicht attraktiv?

Mir fallen mehrere mögliche Gründe ein, warum das Versionieren der eigenen Textproduktion für Geisteswissenschaftler:innen nicht attraktiv ist.

Der erste, der mir einfällt, wäre, mit Git oder einer anderen Versionsverwaltung muss man in der Regel etwas Zusätzliches lernen. Es wird niemandem im akademischen Umfeld geben, der nicht mindestens ein Textverarbeitungsprogramm beherrscht. Damit lassen sich nach einer Einarbeitungszeit akzeptable Ergebnisse bei der Textproduktion erzielen. Wie viel Zeit das wirklich in der Summe kostete, haben die meisten vergessen. Die Form der Texterstellung ist mit einem solchen nahe an der Überlieferung, nach der die Autor:in mit einem Stift in der Hand am Schreibtisch vor einem leeren Stapel Papier zu sitzen hat und die Inhalt von Exzerpten, Zettelkästen und eigenen Überlegungen zu einem Text amalgamieren muss, Fußnoten nicht vergessen. An diesem grundsätzlichem Setting hat sich mit der Schreibmaschine und dem Personal-Computer nichts wesentliches geändert. Die Technologie zur Textverarbeitung entstand aus einer anderen Notwendigkeit, der Rationalisierung von Serienbriefen mit Floskelsequenzen, mit dem Aufkommen des Personal-Computer konnte diese Technologie in einen Schreibprozess integriert werden, ohne das Ideal einer Autor:in anzugreifen. Ein Detail dieser Nichtentscheidung war das Festhalten am Ergebnis Papierausdruck als Maßstab für die Produktivität. Vorgelagerte Schritte sind in dieser Wertschätzung eher bedeutungslos.

Ein weiterer Grund ist der Konformitätsdruck im Textaustausch mit anderen, ob weitere Autor:innen, Verlage, Berichtsempfänger etc. Man muss Texte verschicken oder Texte verarbeiten, ohne dass diese Übergabe zu Komplikationen führt. Der Umgang mit Formaten und Konvertierungen gehört nicht zum Standardwissen der Textverarbeitung. Dieser Schritt wird vor der Benutzer:in eher versteckt. Deswegen wird der Weg mit den geringsten erwarteten Schwierigkeiten gewählt. Er geht von der Annahme aus, dass jeder die Formate der Textverarbeitung verarbeiten kann, die den größten Marktanteil hat.

Hier soll noch eine weitere Vermutung angeführt werden, warum die Nachvollziehbarkeit des eigenen Schreibprozesses eine so geringe Bedeutung für Autor:innen hat. In dem Aufwand, der für die historisch-kritische Erschließung investiert wird, steckt eine hohe Wertschätzung gegenüber der Person, die zum Gegenstand wurde. Mit einer solchen Edition wird eine Schriftsteller:in zum Kanon oder ein historisches Epos wird zum nationalen Schatz. Während man einen Text schreibt, berücksichtigt man nicht, dass genau dieser Scheibprozess Gegenstand einer wissenschaftlichen Betrachtung werden könnte. Als Wissenschaftler:in, die sich um Transparenz ihres Erkenntnisprozesses bemüht, wäre die Vorbereitung, jemand anderem den Zugriff auf die Textentstehung mit den Irrwegen zu geben, im eigenen Interesse.

Diesen Zugriff praktisch automatisch und sogar zum eigenen Vorteil zu ermöglichen ist ein in Git eingebautes Feature. Git ist in 2020 die Versionsverwaltung mit der größten Verbreitung. Eine Textvariante, die zur Sackgasse und daher verworfen wurde, in einer Textverarbeitung ohne Versionsverwaltung nachzuzeichnen, führt zu komplizierten, fast unmöglichen Dekonstruktionsarbeiten. In Git ist ein Auswählen eines früheren Standes. Solche Zwischenstände werden Commit genannt. Man kann ihn exakt wiederherstellen und sich in Ruhe den zeitlich exakt definierbaren Kontext anschauen.

Nicht wirklich erklärt

So richtig überzeugen diese Erklärungen alle nicht. Selbst technikaffine Wissenschaftler:innen, die Latex-Code herunterschreiben, werden ihre Texte eher selten gegen ein Versionstool schreiben. Am ehesten wird sich das bei technischen Dokumentationen im Open-Source-Bereich finden.

So soll der Gedanke hier abgebrochen werden, dass der Aufbau historisch-kritischer Editionen in Geisteswissenschaften und das Produzieren von Text über Versionsverwaltungen strukturelle Ähnlichkeiten haben und sich dennoch in verschiedenen Universen abspielen.

Referenzen

Borchers, Detlef. „Eine kleine Geschichte der Textverarbeitung“. c’t Magazin. Zugegriffen 16. April 2020. https://www.heise.de/ct/artikel/Eine-kleine-Geschichte-der-Textverarbeitung-4558977.html.

„Historisch-kritische Ausgabe“. In Wikipedia, 12. Oktober 2019. https://de.wikipedia.org/w/index.php?title=Historisch-kritische_Ausgabe&oldid=193070228.

Tenen, Dennis, und Grant Wythoff. „Sustainable Authorship in Plain Text using Pandoc and Markdown“. Programming Historian. Zugegriffen 8. November 2017. https://programminghistorian.org/lessons/sustainable-authorship-in-plain-text-using-pandoc-and-markdown.

Schmidt, Benjamin M. „Markdown, Historical Writing, and Killer Apps | Benjamin M. Schmidt“, 2014. http://benschmidt.org/2014/09/05/markdown-historical-writing-and-killer-apps/.

Datenmanagementplan

Mit einem Datenmanagementplan organisiert man die Daten, die bei der wissenschaftlichen Arbeit erworben, produziert, verarbeitet, analysiert und verdichtet werden. Das passiert eigentlich immer, sobald man mit einem Computer arbeitet. Millionen von Wissenschaftler:innen arbeiten mit Computern, ohne einen solchen Plan zu haben. Zu diesen Computern zählen nicht nur die unter dem Tisch oder die Laptops auf dem Tisch, sondern auch Tablets, mit denen Antworten auf Umfragen protokolliert werden, oder Smartphones, mit denen Pflanzen zur späteren Bestimmung fotografiert werden.

Der Umgang mit Daten muss man organisieren, weil es zu viele werden und sie damit unübersichtlich werden. Es hängt zu viel von ihnen ab. Alleine die Notizen, selbst protokollierten Daten, Textentwürfe usw. sind für jede Forscher:in existenziell.

Es ändern sich auch die Erwartungshaltungen. Es wird verlangt, nicht allein bei den Referenzen auf wissenschaftliche Publikationen korrekt zu arbeiten, sondern auch die Primärdaten korrekt zu verarbeiten. Nachprüfbarkeit erschöpft sich nicht mehr allein im richtigen Zitieren, sondern sie verlangt nach öffentlicher Darlegung und Referenzierung dieser Primäredaten. Die verwendeten Daten sollten also spätestens mit der Veröffentlichung der damit erzeugten Publikation zugänglich sein.

Wie das geschehen kann, damit beschäftigt sich sich das noch recht junge Feld des Forschungsdatenmanagements.