Schaubild Modul BAIN

In der heutigen ersten Vorlesung ist mir dieses Schaubild zu den Lehrinhalten besonders aufgefallen. Es soll darstellen, was wir in diesem Kurs machen wollen. Folgendes habe ich daraus verstanden: Auf dem Bild ganz links sind die Systeme aufgeführt, die wir selber auf unseren virtuellen Maschinen installieren sollen und auf welchen wir arbeiten werden:

  • koha, ein System für Bibliotheken
  • ArchivesSpace, wie der Name zeigt, ein System für Archive
  • DSpace, ein OA-Repository

Auf diesen Systemen werden wir Beispieldatensätze eintragen und simulieren. So ergeben sich also drei verschiedene Systeme, aus welchen wir Daten ziehen können. Über die Schnittstelle OAI-PMH werden die Daten mit einem Harvester exportiert, heruntergeladen und abgespeichert. Dies in den für das jeweilige System typischen Metadatenstandards (MARC21-XML für die Bibliothek, EAD für das Archiv, Dublin Core für das Repository).

Um das genau zu verstehen, muss ich einen kleinen Exkurs machen. Eine kurze Online Recherche zeigt, für was OAI-PMH steht und was ein "Harvester" macht: Gemäss unser aller Lieblingsnachschlagewerk Wikipedia steht OAI für die Open Archives Initiative, welche unter anderem das OAI Protocol for Metadata Harvesting (OAI-PMH) entwickelt hat. Dieses Protokoll dient dem Einsammeln (to harvest: ernten) und Weiterverarbeiten von Metadaten. Auf der Seite der Deutschen Nationalbibliothek habe ich zudem weitere Angaben zu der OAI-Schnittstelle, dem Protokoll und dem Harvester gefunden. Diese Seite habe ich jedoch (noch) nicht detailliert durchgelesen, weil ich annehme, dass wir das im Laufe der Vorlesung noch genauer behandeln werden. Was ich aber beim Überfliegen verstanden habe, ist, dass die Bibliothek (oder das Archiv, das Repository, etc) die OAI-Schnittstelle bereitstellt. Wer die Metadaten einsammeln will, braucht dafür einen OAI-Harvester. Da beide mit demselben Protokoll arbeiten, können sie zusammen kommunizieren, sprich, der Harvester kann die Metadaten der Bibliothek abgreifen. So weit, so gut. Aber zurück zu unserem Modul.

Die von uns so exportierten Daten aus den drei verschiedenen Beständen werden dann in einer Datei (marcEdit (XSLT)) mit dem Standard MARC21-XML zusammengeführt (Nachtrag: Siehe Korrektur zu diesem Punkt im Blogbeitrag zu VL8). Zusammen mit einfachen Tabellendaten (der Pfeil ganz unten) werden sie auf einen Suchindex gespeichert (Solr), der dann mit VuFind auf einer Webseite durchsucht werden können soll.

Klingt in der Theorie logisch, ich bin gespannt
a) ob ich das alles richtig verstanden habe
b) wie das dann in der Praxis tatsächlich umgesetzt wird

Als ersten Schritt um diese Aufgabe zu bewältigen, musste ein Arbeitsumgebung eingerichtet werden. Als der Begriff "Virtuelle Maschine" zum ersten Mal fiel, ging ein Raunen durch die Klasse. Nur allzu gut erinnern wir uns noch an die erste ARIS Vorlesung, in welcher wir versuchten – viele von uns vergeblich – eine virtuelle Maschine auf unseren Rechnern zu installieren. Bei meinem Laptop klappte das bis zum Schluss des Semesters nicht. Soll also nochmals ein Versuch gestartet werden? Zum Glück nicht. Dieses Mal wird die virtuelle Maschine über die FH zur Verfügung gestellt. Und siehe da: Zumindest im Browser funktioniert alles ganz ohne Probleme. Die nächste Aufgabe ist nun, die Umgebung auch über den Client öffnen zu können, den ich mir bereits für das Modul DPMS auf dem Laptop installiert hatte. Der erste Versuch schlug leider fehl: Es war nicht klar, was im Client als Serverdomain gesetzt werden muss. Für mich logisch: Die URL, die auch im Dokument genannt wird (https://horizon.fhgr.ch/). Leider kam da beim Anmelden aber die Fehlermeldung: Falscher Domainname oder falsches Passwort. Nach einem Upgrade des Clients auf die neuste Version hat es nun aber geklappt.
Bleibt noch, die GitHub Seite für dieses Lerntagebuch zu gestalten. Wenn ihr/Sie diesen Text lesen könnt/können, ist mir das anscheinend auch gelungen. :-D