Zum Abschluss wurde es heute erneut spannend: Wir bekamen interessante Einblicke in die Berufspraxis unserer Dozenten, ein Aspekt, der mir bis jetzt noch etwas gefehlt hatte. Denn obwohl das Modul ja sehr praxisorientiert aufgebaut war, fehlte mir noch etwas die Übersicht, wie diese Kenntnisse nun als Ganzes in der Arbeitswelt angewendet werden. Die beiden Beispiele brachten die gelernte Theorie in einen allgemeineren Kontext, durch den sie mir sofort viel klarer erschien.

Beim ersten Beispiel ging es um das Deutsche Literaturarchiv (DLA) Marbach. Das Archiv führt mehrere Bestände, sowie Normdaten, die im ursprünglichen Katalog jeweils einzeln durchsucht werden konnten. Ziel des Projekts war es, den Nutzern eine Suche anzubieten, die sich über alle Bestände spannt, aber gleichzeitig die Vorteile der bestehenden Unterteilung und der bereits erfassten Normdaten beibehält. Die Arbeit gliederte sich ganz ähnlich wie unsere Vorlesung, wie folgendes Schaubild zeigt:

Schaubild Praxisprojekt

Auch hier gab es ein Quellsystem mit Bestandsdaten. Im Bild nicht ersichtlich ist, dass es sich dabei auch um Daten mit unterschiedlichen Datenstrukturen handelte. Die Daten wurden (minimal) prozessiert und ins CSV Format übernommen. In OpenRefine wurden die Daten dann homogenisiert und in das tsv Format gebracht. Nach einer erneuten Bearbeitung konnten die Daten im CSV in das Solr System eingespiesen werden.

Beim zweiten Projekt ging es um Datenharvesting und Datentransformation. Das Ziel dabei war es unterschiedliche Datenbestände über Volltextsuche durchsuchbar zu machen. Es ging also darum, Daten in ein bestimmtes Metadatenformat (METS/MODS) zu übertragen und sie dann so in das System einzuspeisen, dass sie entsprechend auffindbar werden.

Für weitere Vorlesungen könnte man sich eventuell überlegen, solch übergreifende Praxisprojekte schon viel früher zu besprechen. Gerade für Studierende wie mich, denen der Einblick in die entsprechende Arbeitswelt ganz fehlt, wäre das eine Chance, die Theorie schon früher an praktische Elemente anzuknüpfen. Trotz der vielen Übungen und der praktischen Anwendung der Systeme konnte ich nie ganz einordnen, wie das Ganze denn in der Berufspraxis aussieht (also die einzelnen Systeme schon, aber das übergreifende Schaubild nicht). Dadurch blieb es für mich trotz der praktischen Ausrichtung der Vorlesung doch meist nur graue Theorie. Dies hat sich mit diesen Einblicken nun geändert. Darüber freue ich mich sehr, gibt diese letzte Vorlesung doch dem Modul als Ganzes nochmals eine ganz andere Tiefe.

Zum Abschluss des Moduls wurden zwei neuere Metadatenstandards, die- im Gegensatz zu den Vorgängern - auf Linked Data Paradigmen basieren, vorgestellt: BIBFRAME und RiC (Records in Contexts).

BIBFRAME Datensätze sind nicht wie beim Vorgänger MARC21, das der klassischen Datenstrukturierung folgt, tabellarisch strukturiert, sondern die Informationen werden zueinander in Beziehung gesetzt. Sprich, anstelle dass alle Informationen jeweils in allen entsprechenden Datensätzen aufgelistet werden, werden verschiedene individuelle Datensätze angelegt, die dann miteinander verlinkt werden. So können redundante Einträge vermieden und ganz neue Verbindungen aufgezeigt werden, die bei anderen Formaten wie MARC21 nicht explizit sichtbar sind. Zudem können die Daten einmal dezentral abgelegt werden, und es muss nicht jede Bibliothek ihre eigenen Daten pflegen.

Auch Records in Context (RiC) basiert auf Linked-Data Prinzipien. Diesen Standard hatten wir ganz am Anfang des Studiums - ich glaube im ersten Semester - bereits einmal kennengelernt. Damals fehlte mir aber das Hintergrundwissen über solche verlinkten Modelle, so dass ich Mühe hatte, die Theorie zu verstehen.

Heute konnte ich die beiden Modelle aber gut mit bestehendem Wissen zu anderen Modellen wie Ontologien und Entity-Relations Modellen verknüpfen und sie erschienen mir somit viel einfacher und leicht verständlich. Es scheint also in den letzten Jahren doch einiges hängen geblieben zu sein, was mich natürlich freut.