Lerntagebuch BAIN

Willkommen zu meinem Lerntagebuch

Ich freue mich, dass Du da bist. Ich schreibe hier über meine Erfahrungen im Kurs Bibliotheks- und Archivinformatik.

Posts

  • Abschluss: Was habe ich (nicht) gelernt?

    Ganz generell gab uns diese Vorlesung einen guten Überblick über verschiedene Systeme, aber auch die Arbeit mit verschiedenen Metadatenstandards. Dank dem Schaubild war die Übersicht über die Themen jederzeit gegeben und es war immer klar, wie die verschiedenen Aspekte zusammenhängen und wieso wir uns zum gegebenen Zeitpunkt mit einem bestimmten Thema beschäftigen. Die letzte Vorlesung war ein wunderbarer Gesamtüberblick, wie dieser Prozess denn jetzt in der Praxis genau aussieht, und für mich auch nochmals eine Repetition darüber, was wir in diesem Modul alles gemacht haben.

    So weitgreifend dieser Gesamtüberblick auch war, für mich war die Behandlung der einzelnen Systeme dadurch etwas zu oberflächlich. Ich hätte lieber weniger Systeme angeschaut, diese dafür aber detaillierter. Zumindest was die Bibliothekssoftware betrifft, gelang es mir aber, mir im Selbststudium noch weitere Einblicke zu erarbeiten (siehe weiter unten).

    Interessant fand ich vor allem die Themenblöcke zu den Bibliothekssystemen und den Gastvortrag zu ALMA, da ich nach dem Studium in einer Bibliothek arbeiten werde. Die ersten Gehversuche mit koha haben mir geholfen, eine Übersicht zu erlangen, was ein solches System überhaupt leisten muss. Dadurch motiviert habe ich mich im Selbststudium nochmals mit dem System auseinandergesetzt, welches die Bibliothek hier in Eglisau nutzt: BiblioMaker. Ich habe Manuals gelesen und YouTube Videos geschaut. Bei einem Probetag im Rahmen des Bewerbungsprozesses in der Bibliothek hatte ich dann sofort einen viel besseren Überblick darüber, wie das System aufgebaut ist und unter welchen Menupunkten ich welche Funktionen finde. Das hatte mir bei "Schnuppertagen" im Sommer letzten Jahres noch gefehlt. Die Vorgesetzte war begeistert, und – auch wenn ich bezweifle, dass es nur an den BiblioMaker Kenntnissen lag – ich habe die Stelle bekommen. :-D Insofern hat mir die Vorlesung direkt etwas für meinen praktischen Alltag gebracht.

    Was ich auch zu meinen persönlichen Erkenntnissen aus dieser Vorlesung zähle, ist die Repetition des Terminals und der Kommandozeile. Dabei geht ein grosses Dankeschön an die Dozenten, die uns die entsprechenden Befehlszeilen jeweils nicht nur einfach kopieren liessen, sondern immer detailliert kommentierten, für was die einzelnen Befehle und Befehlsteile genau stehen. Mit dem Basiswissen, das ich mir im Studium bis jetzt über das Terminal erarbeitet habe, konnte ich diese Erläuterungen jeweils sehr gut nachvollziehen. Es war für mich deshalb jedes Mal eine sehr wertvolle Übung und gab mir eine gewisse Routine in der Handhabung des Terminals. Hatte ich früher nach Schweissausbrüche, jedes Mal, wenn ein Terminal geöffnet wurde, bewege ich mich unterdessen doch mit einer gewissen Selbstsicherheit darin.

    Zu guter Letzt war die Vorlesung für mich eine gute Repetition und auch eine Vertiefung der verschiedenen Metadaten Standards. Dabei konnte ich – im Gegensatz zum ersten Studienjahr – an bestehendes Wissen aus dem Studium anknüpfen, was mir sehr geholfen hat. Dadurch und durch die vielen praktischen Übungen war es viel einfacher, diese Standards zu verstehen. Das freut mich, hatte ich mir das doch genau so in meinem ersten Blogeintrag auch erhofft.

    Alles in allem fand ich die Vorlesung mit den vielen praktischen Übungen sehr interessant und ich freue mich darauf, zumindest einen Teil des Gelernten bald in die Praxis umsetzen zu können.

  • VL9: Abschluss

    Zum Abschluss wurde es heute erneut spannend: Wir bekamen interessante Einblicke in die Berufspraxis unserer Dozenten, ein Aspekt, der mir bis jetzt noch etwas gefehlt hatte. Denn obwohl das Modul ja sehr praxisorientiert aufgebaut war, fehlte mir noch etwas die Übersicht, wie diese Kenntnisse nun als Ganzes in der Arbeitswelt angewendet werden. Die beiden Beispiele brachten die gelernte Theorie in einen allgemeineren Kontext, durch den sie mir sofort viel klarer erschien.

    Beim ersten Beispiel ging es um das Deutsche Literaturarchiv (DLA) Marbach. Das Archiv führt mehrere Bestände, sowie Normdaten, die im ursprünglichen Katalog jeweils einzeln durchsucht werden konnten. Ziel des Projekts war es, den Nutzern eine Suche anzubieten, die sich über alle Bestände spannt, aber gleichzeitig die Vorteile der bestehenden Unterteilung und der bereits erfassten Normdaten beibehält. Die Arbeit gliederte sich ganz ähnlich wie unsere Vorlesung, wie folgendes Schaubild zeigt:

    Schaubild Praxisprojekt

    Auch hier gab es ein Quellsystem mit Bestandsdaten. Im Bild nicht ersichtlich ist, dass es sich dabei auch um Daten mit unterschiedlichen Datenstrukturen handelte. Die Daten wurden (minimal) prozessiert und ins CSV Format übernommen. In OpenRefine wurden die Daten dann homogenisiert und in das tsv Format gebracht. Nach einer erneuten Bearbeitung konnten die Daten im CSV in das Solr System eingespiesen werden.

    Beim zweiten Projekt ging es um Datenharvesting und Datentransformation. Das Ziel dabei war es unterschiedliche Datenbestände über Volltextsuche durchsuchbar zu machen. Es ging also darum, Daten in ein bestimmtes Metadatenformat (METS/MODS) zu übertragen und sie dann so in das System einzuspeisen, dass sie entsprechend auffindbar werden.

    Für weitere Vorlesungen könnte man sich eventuell überlegen, solch übergreifende Praxisprojekte schon viel früher zu besprechen. Gerade für Studierende wie mich, denen der Einblick in die entsprechende Arbeitswelt ganz fehlt, wäre das eine Chance, die Theorie schon früher an praktische Elemente anzuknüpfen. Trotz der vielen Übungen und der praktischen Anwendung der Systeme konnte ich nie ganz einordnen, wie das Ganze denn in der Berufspraxis aussieht (also die einzelnen Systeme schon, aber das übergreifende Schaubild nicht). Dadurch blieb es für mich trotz der praktischen Ausrichtung der Vorlesung doch meist nur graue Theorie. Dies hat sich mit diesen Einblicken nun geändert. Darüber freue ich mich sehr, gibt diese letzte Vorlesung doch dem Modul als Ganzes nochmals eine ganz andere Tiefe.

    Zum Abschluss des Moduls wurden zwei neuere Metadatenstandards, die- im Gegensatz zu den Vorgängern - auf Linked Data Paradigmen basieren, vorgestellt: BIBFRAME und RiC (Records in Contexts).

    BIBFRAME Datensätze sind nicht wie beim Vorgänger MARC21, das der klassischen Datenstrukturierung folgt, tabellarisch strukturiert, sondern die Informationen werden zueinander in Beziehung gesetzt. Sprich, anstelle dass alle Informationen jeweils in allen entsprechenden Datensätzen aufgelistet werden, werden verschiedene individuelle Datensätze angelegt, die dann miteinander verlinkt werden. So können redundante Einträge vermieden und ganz neue Verbindungen aufgezeigt werden, die bei anderen Formaten wie MARC21 nicht explizit sichtbar sind. Zudem können die Daten einmal dezentral abgelegt werden, und es muss nicht jede Bibliothek ihre eigenen Daten pflegen.

    Auch Records in Context (RiC) basiert auf Linked-Data Prinzipien. Diesen Standard hatten wir ganz am Anfang des Studiums - ich glaube im ersten Semester - bereits einmal kennengelernt. Damals fehlte mir aber das Hintergrundwissen über solche verlinkten Modelle, so dass ich Mühe hatte, die Theorie zu verstehen.

    Heute konnte ich die beiden Modelle aber gut mit bestehendem Wissen zu anderen Modellen wie Ontologien und Entity-Relations Modellen verknüpfen und sie erschienen mir somit viel einfacher und leicht verständlich. Es scheint also in den letzten Jahren doch einiges hängen geblieben zu sein, was mich natürlich freut.

  • VL8: Suchmaschinen und Discovery-Systeme

    Heute ging es darum, die Arbeit, die wir in den vorgängigen Vorlesungen gemacht haben, in einem letzten Schritt abzuschliessen, indem wir die Daten, die wir erstellt und geharvestet haben und die unterdessen alle im einheitlichen MARCXML Format vorliegen, in einem Suchindex zusammenbringen.

    Die kurze "Motivation" zu Beginn mit dem Einblick in die Praxis des Metadaten-Managements fand ich spannend. Es hilft mir immer sehr zu sehen, wie die im Studium behandelten Themen dann wirklich auch im Berufsalltag umgesetzt werden. Das in den Vorlesungsunterlagen verlinkte Interview mit der Metadaten-Managerin Kirsten Jeude gab einen zusätzlichen Einblick in die Praxis und hat das Thema auch sehr schön kurz und einfach zusammengefasst.

    Hauptteil der heutigen Vorlesung war aber die Arbeit mit VuFind und Solr. Die Beispiele, die zu Beginn kurz gezeigt wurden, zeigten nochmals schön auf, was auch in der Übung auf heute klar geworden war: VuFind lässt sich stark individuell konfigurieren und als Open Source Software auch gut mit eigenen Funktionalitäten erweitern.

    Die Ausführungen von Herrn Meyer zu Solr und VuFind zu Beginn fand ich interessant. Ich hatte mich auch gefragt, wie VuFind und Solr zusammengehören bzw wie die zwei verbunden sind. Solr ist die Suchmaschine, die den gesamten Suchindex zur Verfügung stellt. Die Benutzeroberfläche (Eingabe der Suche, Ausgabe der Trefferliste, etc.) muss aber durch eine andere Software gestellt werden. In unserem Fall ist diese Software VuFind. Solr hat zwar auch eine rudimentäre Adminstratorenschnittstelle, diese ist aber nicht dazu gedacht, dass sie dem Nutzer zur Verfügung gestellt wird. In einer ersten Übung wurden die zwei sich auch direkt gegenübergestellt, indem die gleiche Suche auf beiden ausgeführt wurde. Es zeigte sich, dass die VuFind Oberfläche intuitiver und einfacher zu bedienen ist. Dies nicht nur bei der Eingabe der Suche (bei Solr sind schon die Bezeichnungen der Eingabefelder nicht immer klar), sondern auch bei der Anzeige der Treffer, die in Solr im JSON Format ausgegeben werden, was – gerade für Laien wie mich – doch sehr schwer zu lesen ist. VuFind liefert dieselben Treffer in einer klassischen Übersicht, die für Nutzende auf einen Blick verstanden werden kann. Die Daten sind nicht nur anders dargestellt, sondern auch gefiltert und sortiert – je nach Konfiguration gibt VuFind andere Parameter an Solr weiter – während in Solr der komplette Datensatz angezeigt wird.

    Hauptpunkt der Vorlesung war aber die abschliessende Übung, in welcher unsere Daten (bzw die zur Verfügung gestellten Beispieldaten) in VuFind/Solr importiert wurden, um das im Schaubild der ersten Vorlesung dargestellte Projekt vollumfänglich abzuschliessen. So schliesst sich also der Kreis und das Modul neigt sich dem Ende zu. Ich habe diesen Moment zum Anlass genommen, nochmals meine Ausführungen zur VL1 "Technische Grundlagen" durchzulesen. Ich hatte damals schon sehr genau beschrieben, wie ich das Schaubild zur Vorlesung verstanden habe. Erfreut nehme ich zu Kenntnis, dass ich das da schon fast richtig in eigene Worte gefasst habe. Einzig die Konvertierung in MARCXML hatte ich falsch verstanden. Natürlich werden nicht alle Dateien in eine Datei gespeichert, sondern die Dateien in verschiedenen Formaten wurden alle in Dateien vom Format MARCXML konvertiert. Die einzelnen Dateien blieben aber als solches bestehen. Zudem wurde DSpace nicht als System auf der virtuellen Maschine installiert, aber das ist ja eine Kleinigkeit. Bleibt noch eine Vorlesung: In dieser sollen nochmals Projekte aus der Praxis vorgestellt werden, worauf ich mich schon freue.

    Nachtrag: Anders als andere Software in diesem Kurse wurde VuFind ja von allen als Hausaufgabe installiert. Ich fand es toll, wie so direkt auf die Kritik aus den früheren Vorlesungen reagiert wurde, die besagte, dass viel wertvolle Unterrichtszeit mit Installationen verbracht würde.

  • VL7 Übung: Konfiguration Suche und Facetten

    In der Übung ging es darum, wie wichtige Konfigurationsdateien von VuFind entsprechend den eigenen Wünschen verändert werden können. Hilfestellung dazu gaben ein Tutorial-Video sowie das dazugehörige Transkript. Für die Übung habe ich mir erst das Transkript durchgelesen, um einen ersten Überblick über die behandelten Themen zu erlangen. Danach habe ich mir die für mich relevanten Themen im Video angeschaut und versucht, die entsprechenden Anweisungen nachzuvollziehen.

    So könnten in der Datei searches.ini zum Beispiel folgende Konfigurationen zu den Sucheinstellungen gemacht werden:

    • Die Reihenfolge der zu durchsuchenden Felder kann geändert werden
    • Die Namen der Felder können geändert werden. So könnte man zum Beispiel die englischen mit deutschen Begriffen ersetzen.
    • Die Anzeige der Suchresultate kann individuell konfiguriert werden. So könnte ein DropDown Menu erstellt werden, in welchem die Benutzenden selber auswählen können, wie viele Einträge pro Seite angezeigt werden sollen.

    In der Datei facets.ini werden Konfigurationen zu den Facetten gemacht, die die Suchen weiter eingrenzen (zum Beispiel Sprache). Auch hier kann die Reihenfolge und die Bezeichnung geändert werden. Zudem können zum Beispiel Checkboxes oder "Ranges" (also Zahlenstrahlen, mit Hilfe deren die Nutzenden Bereiche eingrenzen können) mit zusätzlichen Suchfacetten eingefügt werden.

    Das Video gab auch erste Einblicke dazu, wie die Suche mit Solr vonstatten geht und wie die Resultate geordnet werden (Relevance Ranking), was ich interessant fand. Auch hier kann direkt Einfluss genommen werden, indem gewisse Felder "geboosted" werden.

    Alles in allem hat das Video gezeigt, dass sehr viele Aspekte in VuFind direkt nach den eigenen Wünschen konfiguriert werden können, womit die Nutzeroberfläche – hier in unserem Beispiel die Suche und die Ausgabe der Suchresultate –individuell angepasst werden kann.

  • VL7: Metadaten modellieren und Schnittstellen nutzen 2/2

    Heute ging es um die Software OpenRefine und die Möglichkeiten, die sie bietet, Daten zu vereinheitlichen und zu bereinigen. Oder wie es auf der Webseite heisst: “A free, open source, powerful tool for working with messy data”. Nach einer allgemeinen Einführung installierten wir OpenRefine auf der virtuellen Maschine, um danach direkt damit arbeiten zu können. Die Installation verlief bei mir ganz ohne Probleme.

    Da ich noch immer nur einen kleinen Bildschirm habe (in diesem Aspekt scheine ich sehr lernresistent zu sein), schaute ich mir die Präsentation der Basisfunktionen an, ohne aktiv mitzuarbeiten. Es war spannend zu sehen, welche Unstimmigkeiten in den Daten auftreten können und wie diese behoben werden können. Gerade die Cluster Funktion fand ich sehr interessant, weil sie die Möglichkeiten, aber auch die Grenzen eines maschinellen Algorithmus aufzeigt. Trotz automatischer Auflistung muss alles noch manuell bestätigt werden, sprich intellektuell überprüft werden, ob die Maschine die richtigen Rückschlüsse gezogen hat.

    Ein kleines Erfolgserlebnis hatte ich beim kurzen Exkurs in Richtung Scriptsprachen beim Erstellen einer neuen Spalte: Ich konnte die einzelnen Befehle erstaunlich gut nachvollziehen. Anscheinend ist da doch einiges hängen geblieben in den letzten Semestern. Solche kleinen Aha-Erlebnisse freuen mich doch immer sehr.

    Nach dieser Einführung in das Tool OpenRefine, folgte der Hauptteil der heutigen Vorlesung: Die Modellierung einer MARCXML Datei. Zur Einstimmung schauten wir uns ein MARCXML Objekt an. Da ich aber noch immer nicht ganz gesund war, musste ich die Vorlesung an dieser Stelle verlassen und mir den Rest des Stoffes aus der Aufzeichnung erarbeiten.

    Im Unterschied zu MarcEdit, das wir ja in der letzten Vorlesung angeschaut haben, kann bei OpenRefine das "Template", welches zur Transformation einer Datei genutzt wird, direkt bearbeitet werden. Ich fand diese Modellierung sehr interessant, da durch sie detailliert aufgezeigt wurde, wie so ein Format genau aufgebaut ist. Wir hatten uns ja bereits hin und wieder eine Datei genauer angeschaut, aber es war nochmals ein Unterschied, einfach passiv durch die Zeilen zu lesen oder sie aktiv selber zu modellieren. Die zwei Gruppenübungen halfen, die benutzte Scriptsprache (GREL) nochmals genauer anzuschauen. Ich fand das Thema sehr interessant. Alleine bin ich natürlich nicht auf alle Funktionen gekommen: Das bereits früher in der Vorlesung erwähnte value.split (aufteilen) sagte mir was und unter value.replace (ersetzen) konnte ich mir auch etwas vorstellen. Andere Befehle und Befehlsteile kannte ich nicht, deshalb war es spannend zu hören, was die Gruppen in der Vorlesung erarbeitet hatten und was dann auch Herr Lohmeier dazu sagte (so kümmert sich zum Beispiel der Befehl .escape('xml') um die richtige Transformation von Sonderzeichen wie & und Umlauten in die entsprechenden Ausdrücke von XML). Den Ausführungen – auch denen zur erforderlichen Schleife – konnte ich dann auch gut folgen und auch die zweite Übung, die von Herrn Lohmeier ja vorgeführt wurde, habe ich gut verstanden, was mich natürlich freute. Zumindest das "passive Verständnis" scheint also zu funktionieren.

  • VL6: Metadaten modellieren und Schnittstellen nutzen 1/2

    Für mich ist leider der Worst Case eingetroffen: Anfang Dezember war die ganze Familie krank und so verpasste ich nicht nur die Vorlesung am 2.12., sondern auch einen grossen Teil der Vorlesung am 3. 12., und kam dadurch mit dem Stoff sehr ins Hintertreffen. So konnte ich diese Vorlesung erst später über die Webex Aufnahme schauen.

    Interessant fand ich die Frage zu OPAC und Katalog. Mir war nicht bewusst, dass manche Bibliotheken zwei Systeme verwenden, oft ein klassisches für die Verwaltung und ein moderneres für den Online-Katalog, da dieser bei den klassischen Systemen oft veraltet und wenig nutzerfreundlich ist. Da fehlt mir – wie schon so oft – die praktische Erfahrung. Ich stelle mir das doch eher ineffizient in der Handhabung vor. Auch der Unterschied zwischen OPAC (einem klassischen Online Public Access Catalogue) und einem Discovery-System (ein Marketing-Begriff für modernere OPACs mit einer überarbeiteten und vereinfachten User Experience) kannte ich nicht. Entsprechend spannend fand ich die Ausführungen von Felix Lohmeier.

    Das Zwischenfazit mit Hilfe des altbekannten Schaubilds gab eine gute Übersicht über die Themen, die wir bereits behandelt haben, sowie einen Ausblick, was in den nächsten Lektionen noch ansteht. Nach meiner längeren "Zwangspause" in diesem Modul war dies eine willkommene Zusammenfassung, die mir den Wiedereinstieg sehr erleichterte.

    Im Folgenden wurden drei Austausch- oder Übertragungsprotokolle für Metadaten vorgestellt. Z39.50 und SRU eignen sich vor allem für den Einzelabzug, also zum Beispiel, wenn gleichzeitig in mehreren Katalogen gesucht werden soll. In dieser Vorlesung arbeiten wir aber mit der OAI-PMH Schnittstelle, die ich ja nach der ersten Vorlesung bereits gegoogelt hatte und die sich vor allem für Gesamtdatenabzug eignet. Damit wollen wir nun also die Daten aus koha und ArchivesSpace "harvesten".

    Die Endpoints waren zum Glück beide problemlos erreichbar, somit konnte ich mich direkt an die Installation von VuFind machen. Auch diese klappte auf Anhieb, worüber ich sehr froh bin. Ich hatte befürchtet, dass es zu Problemen kommt, welche ich dann mühsam per Mail hätte lösen müssen, da die Vorlesung ja schon eine Weile zurücklag.

    Die Übung mit dem Harvesting klappte Dank Herrn Meyers detaillierter Erklärung auch problemlos. Ich konnte sowohl die Daten aus koha wie auch aus ArchivesSpace "ernten" und die entsprechenden Dateien auf meinem Rechner abspeichern.

    Ziel des zweiten Teils der VL war es dann, die so erhaltenen Daten, die in verschiedenen Metastandards vorliegen (die Daten aus koha in MARC21-XML, diejenigen aus ArchivesSpace in EAD und die Daten aus DSpace im Standard Dublin Core) in einen einheitlichen Standard, nämlich MARC21-XML zu konvertieren. Dieses Vorgehen nennt sich Crosswalk. Mit Hilfe eines "Mappings" werden Regeln aufgestellt, welche Felder des ursprünglichen Formats welchen Feldern im Zielformat entsprechen. Herr Lohmeyer zeigte dies in einem Beispiel einleuchtend auf. Die Gesamtheit dieser Regeln stellt dann den "Crosswalk" dar, also den Zebrastreifen, auf welchem man sicher von einem zum anderen Standard kommt.

    Wir nutzen dazu MarcEdit, eine Software, die seit 20 Jahren von einer einzelnen Person, Terry Reese, gepflegt wird (dies zeigt sich dann auch im eher altbackenen Logo und dem Foto des Hundes des Entwicklers, der helfend zur Seite stehen soll). Eine kleine Zusatzinformation, die ich doch sehr spannend fand, weil sie – wie Herr Lohmeier auch zu bedenken gab, zeigt, dass wir uns doch in einer sehr kleinen Branche in einem Nischenbereich bewegen.

    Die Installation von MarcEdit war kein Problem. Zwar wurde beim ersten Aufstarten des Programms der Dateipfad, den man noch manuell ändern sollte, bei mir ganz anders aufgeführt. Nach einem Neustart konnte ich die in der Vorlesung angesprochene Änderung dann aber durchführen und die Daten entsprechend konvertieren.

  • VL5 Übung: Repository-Software DSpace

    Bequemer als alles manuell zu erfassen ist es natürlich, eine bestehende Datei aus einem anderen System zu importieren, vorzugsweise bereits mit den vorhandenen Metadaten. Oder aber umgekehrt aus einem anderen System die in DSpace vorhandenen Daten über eine Schnittstelle anzuzapfen. Für letzteres verfügt DSpace über eine OAI-PMH Schnittstelle: Über diese Schnittstelle können die Daten aus DSpace direkt “geerntet” (oder neudeutsch geharvestet) werden. Dies sollen wir in einer weiteren Übung als Hausaufgabe ausprobieren. Die OAI-PMH Daten können auf der Seite http://demo.dspace.org/oai/request?verb=ListSets eingesehen werden.

    Da die Daten am Samstagabend jeweils gelöscht werden und unsere Vorlesung am Freitagnachmittag stattfand, war es mir wichtig, die Aufgabe direkt danach noch zu lösen. Leider waren die Daten auf der Seite aber auch eine Stunde nach Ende der Vorlesung noch nicht aktualisiert worden, so dass ich mir am Samstag doch noch ein paar Minuten für die Übung freischaufeln musste. Dank einem guten Tipp von Sebastian Meyer sollte das Ganze aber relativ schnell erledigt sein: Um nicht die gesamte Seite mehrmals durchzuscrollen, sollten wir eine beliebige Sub-Community aufrufen und die letzten drei Ziffern der URL mit den Ziffern unserer in der Vorlesung erstellten Community ergänzen. Aber auch das klappte leider nicht: Die Seite war den ganzen Samstag nicht abrufbar und auch am Sonntag bestand das Problem immer noch.

    So kam ich erst Ende Woche wieder dazu, mich um die Aufgabe zu kümmern: Es war wieder Freitag. Um das Debakel der Vorwoche zu vermeiden, entschied ich mich, nicht nochmals ein Dokument anzulegen (das alte war ja gelöscht worden), sondern einfach direkt die Metadaten einer bestehenden Publikation zu kopieren. So musste ich nicht wieder einen Tag warten, bis mein Dokument auf der Seite angezeigt wurde. Auf diese Weise hatte ich die nötigen Metadaten innert kürzester Zeit gefunden, konnte sie kopieren und auf der virtuellen Maschine abspeichern.

  • VL5: Repository-Software für Publikationen und Forschungsdaten

    Nach der Besprechung der ArchivesSpace-Übung und einer kurzen Zusammenfassung über die Themen, die wir bisher bereits besprochen haben, ging es heute um eine Einführung in die Software DSpace. Nach den Bereichen Bibliotheksysteme (koha) und Archivsysteme (ArchivesSpace) wenden wir uns nun also dem dritten Teilbereich aus dem Schaubild der ersten Vorlesung zu: Den Repositorien. DSpace ist in diesem Bereich sehr vielseitig einsetzbar und eignet sich sowohl für Forschungsdaten als auch für Publikationen (und als Erweiterung DSpace-CRIS auch für Forschungsinformationen).

    In einer ersten Übung wurden wir mit der Struktur bzw der Hierarchie von DSpace, bestehend aus Communities und Collections, vertraut gemacht. Der Grund für diese verschiedenen Hierarchieebenen wurde bereits im gemeinsamen Dokument genannt: "Der Grund, warum es zusätzlich zu Collections auch noch Communities gibt, ist das Rechtemanagement. In der Community wird festgelegt wer die (ggf. mehrere zugehörige) Collections verwalten darf. Das möchte man nur an einer Stelle und nicht an jeder Collection definieren. Außerdem können ganze Communities “geharvestet” werden, also Daten einer Einrichtung über die Schnittstellen abgefragt werden." In einem Open-Access Repository tummeln sich also je nach Nutzungsart ganz verschiedene Communities, die alle verschiedene Rechte vergeben möchten. Innerhalb dieser Communities gibt es Collections, die wiederum spezifische Workflows besitzen und entsprechende Rechte vergeben möchten. Collections können direkt in einer Community oder auch in einer Sub-Community angelegt werden.

    In unserer ersten Übung ging es darum, in einer bestehenden Community erst einmal eine Sub-Community und darin dann eine Collection anzulegen. Das war an sich keine Hexerei. Ich merke aber, dass es mir schwerfällt, erst eine Demo zu schauen und dann alles nochmals genau gleich zu reproduzieren. Wenn ich aber während der Demo mitmache und parallel dazu bereits die Übung löse, verpasse ich auf meinem kleinen Laptop-Bildschirm schnell einen Schritt, so dass ich es dann doch nochmals machen muss. In diesem Fall ist mir der Zwischenschritt der Sub-Community entgangen, so dass ich meine Collection erst direkt unter der Sample Community angelegt hatte. Sobald ich die Übung aber nochmals durchgelesen habe, habe ich meinen Fehler entdeckt und behoben. In solchen Momenten ist die Arbeit mit den Aufzeichnungen jeweils einfacher, da man die Videos einfach schnell pausieren kann.

    In der zweiten Übung ging es darum, eine Publikation selber einzureichen. Je nach Einstellungen wird diese Arbeit dann geprüft und gegebenenfalls freigeschaltet. Um das Ganze zu vereinfachen, haben wir nur mit einem Account gearbeitet. In der Praxis wird die Arbeit natürlich meist von den Autoren selber eingereicht und dann von einem Administrator geprüft und freigeschaltet. Als Beispiel nahm ich den Titel meiner Lizentiatsarbeit (ohne den eigentlichen Text) von 2010, die damals nicht publiziert wurde, und war nach dem Speichern hocherfreut, nach über zehn Jahren zumindest einmal einen Test Handle-Identifier für diese Publikation zu erhalten. :-)

    Generell fand ich die Arbeit mit dem DSpace JSPUI sehr intuitiv. Ich hatte mich erst beim XML User Interface eingeloggt, habe mich da aber auf den ersten Blick gar nicht zurechtgefunden und schnell zum JSP Interface gewechselt. Hier fand ich mich gut zurecht. Das Einzige, das ich etwas mühsam fand, war das wiederholte Durchklicken durch die vielen Hierarchieebenen, um wieder auf die Collection zu kommen. So viel ich herausfinden konnte gibt es dafür aber keinen schnelleren Pfad.

  • VL4 Übung: Import Export

    Die erste Herausforderung, die sich bereits während der letzten Vorlesung stellte, war es, sinnvolle Datensätze zu erstellen. Bei der entsprechenden Übung war ich zu Beginn noch dabei, da ich die Vorlesung dann aber etwas verfrüht verlassen musste, versuchte ich im Nachhinein, einen weiteren Datensatz zu erstellen. Dabei habe ich gemerkt, dass mir die ganzen Begrifflichkeiten zum Thema Archiv nicht mehr so geläufig sind, vor allem nicht in Englisch. Wir hatten im ersten Semester eine Einführung zum Thema Archiv und dann im zweiten Semester eine Vertiefung. Da die Archivarbeit aber nicht zu meiner Vertiefungsrichtung gehört, hatte ich vieles bereits wieder vergessen.

    Ich habe also etwas in meinen alten Notizen und Zusammenfassungen gekramt, um nach Definitionen zum Aufbau eines Archivs zu suchen. Diese Definitionen habe ich versucht mit den englischen Begriffen aus der Software zu verbinden. Mit diesen Erkenntnisse habe ich dann versucht, in der Übung zur Erstellung einer Accession (Briefnachlass von Elisabeth Hürlimann 1939-1944) und einer Ressource (Brief von Walter Hürlimann vom 16.08.1942) im Archive Space anzuwenden (siehe unten).

    Exkurs zu Script of Description: Hier musste ich erst einmal überlegen, was damit gemeint sein könnte. Als ich dann darauf kam, dass es um das verwendete Alphabet gehen muss, musste ich erst einmal überlegen, wie denn das von uns verwendete Alphabet überhaupt heisst. Die Auswahl half mir auf die Sprünge: Natürlich das lateinische Alphabet. Es ist doch immer wieder gut, wenn man bei alltäglichen Dingen ins Stocken gerät und die Kenntnisse mal wieder auffrischt. :-)

    Briefnachlass

    Brief

    Datensätze

    Die Übung zum Import selber klappte mithilfe der Beschreibungen dann aber problemlos. Die gewünschte Datei wurde heruntergeladen und gespeichert und dann mit den angegebenen Befehlen in ArchivesSpace importiert. Auch der Export funktionierte – Dank dem Tipp, wo die Funktion zu finden ist – schnell und reibungslos. Beim Vergleich der Dateien stellte sich aber heraus: Weder Import noch Export haben verlustfrei funktioniert.

  • VL 4: Gastreferat ALMA, Funktion und Aufbau von Archivsystemen

    Heute stand das ALMA-Referat an, von welchem ich mir im Vorfeld tiefere Einblicke aus der Bibliothekspraxis erhofft habe. Die Referentinnen waren Charlotte Frauchiger und Selina Hodel, die an der FHNW im Team e-Ressourcen für die Umsetzung der SLSP tätig sind. Zur Einleitung erklärten uns die zwei, um was es bei SLSP und ALMA überhaupt geht. Wie bereits im Blogeintrag zu VL2 notiert, ist das Ziel der SLSP – der Swiss Library Service Plattform – eine einheitliche nationale Plattform zu stellen, die alle wissenschaftlichen Informationen in der Schweiz bündelt. Sie hat damit 2020 andere Plattformen wie z.B. Nebis abgelöst. ALMA ist das zugehörige Bibliothekssystem. Entwickelt wurde es von ExLibris, die das System auch weiterhin betreut, die SLSP war aber massgeblich an der Weiterentwicklung beteiligt. ALMA ist cloudbasiert und kann ohne Updates und Installationen direkt über einen Browser benutzt werden. Die monatlichen Releases von ExLibris werden für alle zeitgleich direkt ins System eingespeist.

    Die Zentralisierung und Standardisierung von ALMA ist wirklich verblüffend. Sie hat viele Vorteile, da vieles einfach automatisch passiert und so viel Zeit gespart werden kann. So sind zum Beispiel Benutzerrollen von SLSP festgelegt. Berechtigungen sind an diese Rollen gebunden. Je nach Berechtigung sieht auch das Menu anders aus. Auch ändert sich das Menu je nach Arbeitsplatz: So werden die einen Menupunkte nur angezeigt, wenn an einem bestimmten Arbeitsplatz gearbeitet wird. Natürlich gibt es aber auch Nachteile: So erzählt uns Selina, dass Daten, die lokal geändert werden, wieder überschrieben werden, wenn auf der Netzwerkebene eine Änderung gemacht wird. Deshalb ist es wichtig, Fehler direkt an ExLibris zu melden, damit Änderungen direkt zentral für alle angeschlossenen Institute durchgeführt werden können, und eben nicht jede Änderung lokal von den einzelnen Bibliotheken gemacht werden muss. Was mich fasziniert hat, ist, dass, obwohl ALMA so zentralisiert ist, es doch sehr flexibel und individualisierbar zu sein scheint. Vieles ist von SLSP vorgegeben, man kann aber doch flexibel individuelle Anpassungen machen, so dass sich das System trotz hoher Standardisierung auf die eigene Bibliothek übertragen lässt.

    Die Übungen am Ende des Referats waren für mich – die ich ja gar keine Arbeitserfahrung in Bibliotheken habe – etwas sehr theoretisch, aber es war spannend zu hören, was andere dazu zu sagen hatten. Was mir dann doch etwas fehlte waren die erhofften Geschichten aus dem Nähkästchen, wie das neue System denn von den Mitarbeiterinnen angenommen wurde. Ich verpasste aber leider irgendwie den Augenblick, um da nochmals nachzuhaken.

    Dem Gastreferat folgte der erste Teil der Vorlesungen über Archivsysteme. Der darin enthaltene Theorieteil über Standards in Archiven war eine gute Wiederholung. Die Vorlesungen zu diesem Thema liegen ja doch schon zwei Jahre zurück.

    Zudem wurde heute ein Ersatztermin für die ausgefallene Vorlesung vom 20. Oktober gefunden: Am Donnerstagabend, 2. 12. soll sie nachgeholt werden. Da ich nur am Dienstag und Freitag freie Kapazitäten habe, um für die FH zu arbeiten, wird es für mich schwierig sein, die Vorlesung live zu sehen. Höchstwahrscheinlich werde ich sie nachschauen müssen.

  • VL3: Funktion und Aufbau von Bibliothekssystemen 2/2

    Zu Beginn der Vorlesung habe ich mich über zwei Nachrichten sehr gefreut. Einerseits, dass am 5. November ein Gastreferat zum Thema ALMA stattfinden soll: Ein Bericht aus der Praxis, wie ich ihn mir in meinem letzten Eintrag gewünscht habe. Andererseits erwähnte Sebastian Meyer, dass die für uns Bibliotheksneulinge noch etwas abstrakt wirkenden Datenformate mit dem heutigen Block klarer werden sollen, da wir praktisch mit koha arbeiten werden. Bei diesem zweiten Punkt bin ich mir nicht sicher, ob das tatsächlich gelungen ist. :-D Wir haben aber definitiv einen praktischen Einblick in koha bekommen.

    Nach den einleitenden 20 Minuten wurde die normale Vorlesung aber erst einmal für 2 Stunden unterbrochen, um letzte IT-Probleme zu beheben. Das war für mich etwas ärgerlich: Eigentlich wäre die Installation ja Hausaufgabe auf diese Lektion gewesen. Ich begrüsse natürlich, dass sich die Dozenten um die Studierenden kümmern, und es ihnen wichtig ist, dass alle auf dem gleichen Stand sind. Meiner Meinung nach gehören individuelle Probleme, die so viel Bearbeitungszeit brauchen, aber nicht in die Vorlesung. Als Alternative schlage ich vor, einen Coaching – Termin anzubieten, an welchem diese individuellen Probleme gelöst werden können, so dass nicht die halbe Vorlesungszeit für IT-Support genutzt werden muss. Für die Installation von ArchivesSpace ist die Installation wohl auch so geplant.

    Kapitel 2 und 3 waren schnell durchgearbeitet. Bei Kapitel 2 war ich erst etwas unsicher, wie die Tatsache, dass Export, Änderung und Import des Frameworks nicht durchgeführt wurden, sich auf die weitere Arbeit mit koha auswirken würde. Dies wurde dann aber in der weiteren Vorlesung klar: Wenn ich das richtig verstanden habe, diente die Änderung des Frameworks in Kapitel 2 dazu, die Anzahl Felder weiter zu reduzieren, um die Arbeit bei der Katalogisierung zu vereinfachen. Wir müssen nun etwas mehr scrollen… Das Framework lässt sich aber auch direkt über die Webseite anpassen, was weniger fehleranfällig ist (auch wenn es auch da ein paar Usability-Probleme gibt).

    Der Rest der Vorlesung wurde dann zum gemeinsamen Bearbeiten von Übungen genutzt, welche mir als Bibliotheksneuling doch einiges brachten. Ich hatte in meinem Praktikum bereits mit der Bibliothekssoftware BiblioMaker (unterdessen habe ich den Namen nachgefragt) zu tun und fand es spannend, nochmals in ein solches System Einsicht zu erhalten und vor allem auch einen Blick hinter die Kulisse (Administrationsebene) zu erhalten. Das ist das, was ich mir eigentlich von dieser Vorlesung erhofft hatte. Die Marktübersicht zum Schluss musste dann sehr abgekürzt werden und war für mich auch etwas gar schnell. Schade, dass da die Zeit gefehlt hat. Ich werde mir diese letzten Minuten dann in der Aufnahme nochmals anschauen müssen.

    Als Bibliotheksneuling interessiert mich vor allem auch die Sicht aus der Praxis und diese habe ich auch in diesem Block vermisst. Ich war sehr dankbar für die kurzen Zwischenbemerkungen während der Durchführung der Übung (zum Beispiel zu Barcodeleser zur Ausleihe, etc.), die dieses Beispiel in der tatsächlichen Praxis verankerten. Genau das sind die Dinge, die mich besonders interessieren und ich fände es spannend auch von den Kommilitoninnen zu hören, wie sie das handhaben. Wie gestaltet sich der Einsatz dieser Systeme im Alltag der Bibliothekarinnen? Was sind die Vorteile dieser Systeme? Was sind die Frustrationen und Probleme? Um doch noch einen Bogen zur Praxis zu spannen, informierte ich mich nach der Vorlesung genauer über die Bibliothekssoftware BiblioMaker. Ich las im Benutzerhandbuch, das ich online fand, und schaute mir diverse YouTube Videos dazu an. Dies gab mir einen guten Überblick über den Aufbau und die Funktionen des Systems, der mir bisher gefehlt hatte.

    Als nächstes werden wir uns mit Archivsystemen bearbeiten. ArchivesSpace ist installiert und scheint zu laufen – zumindest konnte ich mich als Admin einloggen – ich bin also vorbereitet.

  • VL2: Funktion und Aufbau von Bibliothekssystemen 1/2

    Da ich aus familiären Gründen nicht direkt online bei dieser Vorlesung dabei sein konnte, schaute ich mir über das Wochenende die Aufnahme an. Eine erste Herausforderung war bereits, gleichzeitig das Webex Recording, die virtuelle Maschine und ein Worddokument für die Notizen auf meinem kleinen Laptopbildschirm zu öffnen. Für die nächsten Vorlesungen muss definitiv ein zweiter Bildschirm her. Als mir bewusst wurde, dass in der Vorlesung auch einiges installiert werden musste, hatte ich ein etwas mulmiges Gefühl, da ich fürchtete, dann irgendwo stecken zu bleiben ohne direkt nach Hilfe fragen zu können. Es hat aber alles wunderbar geklappt und das Schauen der Videoaufzeichnung stellte sich sogar als Vorteil heraus: Sobald ich eine Aufgabe erledigt hatte, konnte ich die Aufnahme vorspulen und musste nicht abwarten. So zum Beispiel, wenn Fragen gestellt wurden, die mich nicht betrafen. Trotzdem freue ich mich, die nächste Lektion wieder “live” zu erleben.

    Ich konnte der ersten Übung, bei der es darum ging, den Link zum Lerntagebuch im Skript zu ergänzen, gut folgen. Jeder Schritt wurde detailliert erklärt. Als ich bei Schritt 3 die Read Me Datei aus dem "geklonten" Verzeichnis auf der VDI öffnete, stellte sich dann aber heraus, dass mein Link anscheinend bereits (von den Dozenten?) auf die Seite kopiert worden war und ich die Schritte 3 – 5 somit eigentlich gar nicht mehr ausführen musste. Ich habe mir dann erlaubt, einfach meinen Nachnamen zu ergänzen, damit ich die letzten Schritte doch auch noch durchführen konnte.

    Auch die Installation von koha verlief ohne Probleme. Wir sind in einer anderen Vorlesung bereits schonmal auf diese Bibliothekssoftware gestossen und ich konnte mich erinnern, dass koha in der Sprache der Maori ein Geschenk ist. Ich fand das damals schon eine tolle Idee: Ein Geschenk für die Gemeinschaft. Hier der Eintrag im Maori Dictionary.

    Als Bibliotheksneuling wollte ich mich bis zur nächsten Stunde im Selbststudium zu den Themen SLSP und Swisscovery schlau machen. Da doch einige unserer Klasse in einer Bibliothek arbeiten, war die Umstellung auf SLSP Ende letzten Jahres ein Thema in unserem Klassenchat (wir haben uns ja selten persönlich getroffen…). Ich wusste also, dass es eine neue Plattform gibt und dass viele wissenschaftliche Bibliotheken in der Schweiz auf diese Plattform umgestellt haben bzw umstellen mussten. Wirklich detailliert damit beschäftigt hatte ich mich aber noch nicht. Ein bisschen googeln und die immensen Dimensionen der neuen Biblotheksplattform Swisscovery werden klar:

    • 475 Bibliotheken
    • 40 Millionen Bücher
    • 30 Milliarden elektronische Artikel
    • Mehrere Jahre Vorbereitungszeit
    • 15 Millionen Franken
    • 800'000 Nutzerinnen und Nutzer
    • Hunderte von Beteiligten
    • Für eine einzige nationale Bibliotheksplattform
    Zahlen übernommen aus diesem NZZ-Artikel vom 5.12.2020.

    Spannend für uns vor allem auch dieses Zitat aus dem oben erwähnten NZZ-Artikel: "In erster Linie ist die hinter Swisscovery stehende Swiss Library Service Platform indessen ein Dienstleister für die Bibliotheken selbst. Er bietet ihnen nicht nur ein gemeinsames Bibliothekssystem an, sondern auch die Verwaltung von Daten, Nutzerstatistiken, die Schulung von Mitarbeitern, die koordinierte Anschaffung von Verbrauchsmaterialien oder die Verrechnung von Gebühren. Gerade für mittelgrosse Bibliotheken ist ein solcher Verbund oft die einzige Möglichkeit, um in einem dynamischen Umfeld mit der technologischen Entwicklung Schritt zu halten."

    Eine Aussage, die für mich Sinn ergibt, hat doch die Digitalisierung in den letzten Jahren/Jahrzehnten zu sehr vielen, oft sehr schnellen Veränderungen auch im Bibliotheksbereich geführt. Was mich interessiert und was hoffentlich in der nächsten Stunde auch angesprochen wird: Wie ist das Projekt denn jetzt tatsächlich angelaufen? Kommen die Bibliotheken, die Mitarbeitenden, mit der neuen Plattform klar? Ich bin gespannt, ob wir im nächsten Block ein paar Stimmen aus der Berufspraxis mit Swisscovery/SLSP hören werden.

  • VL1: Technische Grundlagen

    Schaubild Modul BAIN

    In der heutigen ersten Vorlesung ist mir dieses Schaubild zu den Lehrinhalten besonders aufgefallen. Es soll darstellen, was wir in diesem Kurs machen wollen. Folgendes habe ich daraus verstanden: Auf dem Bild ganz links sind die Systeme aufgeführt, die wir selber auf unseren virtuellen Maschinen installieren sollen und auf welchen wir arbeiten werden:

    • koha, ein System für Bibliotheken
    • ArchivesSpace, wie der Name zeigt, ein System für Archive
    • DSpace, ein OA-Repository

    Auf diesen Systemen werden wir Beispieldatensätze eintragen und simulieren. So ergeben sich also drei verschiedene Systeme, aus welchen wir Daten ziehen können. Über die Schnittstelle OAI-PMH werden die Daten mit einem Harvester exportiert, heruntergeladen und abgespeichert. Dies in den für das jeweilige System typischen Metadatenstandards (MARC21-XML für die Bibliothek, EAD für das Archiv, Dublin Core für das Repository).

    Um das genau zu verstehen, muss ich einen kleinen Exkurs machen. Eine kurze Online Recherche zeigt, für was OAI-PMH steht und was ein "Harvester" macht: Gemäss unser aller Lieblingsnachschlagewerk Wikipedia steht OAI für die Open Archives Initiative, welche unter anderem das OAI Protocol for Metadata Harvesting (OAI-PMH) entwickelt hat. Dieses Protokoll dient dem Einsammeln (to harvest: ernten) und Weiterverarbeiten von Metadaten. Auf der Seite der Deutschen Nationalbibliothek habe ich zudem weitere Angaben zu der OAI-Schnittstelle, dem Protokoll und dem Harvester gefunden. Diese Seite habe ich jedoch (noch) nicht detailliert durchgelesen, weil ich annehme, dass wir das im Laufe der Vorlesung noch genauer behandeln werden. Was ich aber beim Überfliegen verstanden habe, ist, dass die Bibliothek (oder das Archiv, das Repository, etc) die OAI-Schnittstelle bereitstellt. Wer die Metadaten einsammeln will, braucht dafür einen OAI-Harvester. Da beide mit demselben Protokoll arbeiten, können sie zusammen kommunizieren, sprich, der Harvester kann die Metadaten der Bibliothek abgreifen. So weit, so gut. Aber zurück zu unserem Modul.

    Die von uns so exportierten Daten aus den drei verschiedenen Beständen werden dann in einer Datei (marcEdit (XSLT)) mit dem Standard MARC21-XML zusammengeführt (Nachtrag: Siehe Korrektur zu diesem Punkt im Blogbeitrag zu VL8). Zusammen mit einfachen Tabellendaten (der Pfeil ganz unten) werden sie auf einen Suchindex gespeichert (Solr), der dann mit VuFind auf einer Webseite durchsucht werden können soll.

    Klingt in der Theorie logisch, ich bin gespannt
    a) ob ich das alles richtig verstanden habe
    b) wie das dann in der Praxis tatsächlich umgesetzt wird

    Als ersten Schritt um diese Aufgabe zu bewältigen, musste ein Arbeitsumgebung eingerichtet werden. Als der Begriff "Virtuelle Maschine" zum ersten Mal fiel, ging ein Raunen durch die Klasse. Nur allzu gut erinnern wir uns noch an die erste ARIS Vorlesung, in welcher wir versuchten – viele von uns vergeblich – eine virtuelle Maschine auf unseren Rechnern zu installieren. Bei meinem Laptop klappte das bis zum Schluss des Semesters nicht. Soll also nochmals ein Versuch gestartet werden? Zum Glück nicht. Dieses Mal wird die virtuelle Maschine über die FH zur Verfügung gestellt. Und siehe da: Zumindest im Browser funktioniert alles ganz ohne Probleme. Die nächste Aufgabe ist nun, die Umgebung auch über den Client öffnen zu können, den ich mir bereits für das Modul DPMS auf dem Laptop installiert hatte. Der erste Versuch schlug leider fehl: Es war nicht klar, was im Client als Serverdomain gesetzt werden muss. Für mich logisch: Die URL, die auch im Dokument genannt wird (https://horizon.fhgr.ch/). Leider kam da beim Anmelden aber die Fehlermeldung: Falscher Domainname oder falsches Passwort. Nach einem Upgrade des Clients auf die neuste Version hat es nun aber geklappt.
    Bleibt noch, die GitHub Seite für dieses Lerntagebuch zu gestalten. Wenn ihr/Sie diesen Text lesen könnt/können, ist mir das anscheinend auch gelungen. :-D

  • Wo bin ich gestartet

    Mein Name ist Simone Behr, ich bin 39 Jahre alt und lebe mit meiner Familie in Eglisau am schönen Rhein. Nach dem Abschluss meines Studiums (Englische Sprach- und Literaturwissenschaften, Wirtschaftswissenschaften) an der Universität Zürich habe ich mehrere Jahre als Personalberaterin im Informatikbereich gearbeitet. Mit der Geburt unseres Sohnes und der darauffolgenden Elternzeit wurde mir bewusst, dass ich mich beruflich gerne neu orientieren möchte. Sehr gerne wollte ich in einer Bibliothek arbeiten. Ein Einstieg ohne entsprechende Qualifikationen und Berufserfahrung erwies sich aber als schwierig, weshalb ich mich dazu entschied, mich in diesem Bereich weiterzubilden. Das Teilzeitstudium an der FHGR bot sich dafür an, da ich so auch genügend Zeit für die – wachsende – Familie aufbringen konnte (unsere Tochter kam in der letzten Woche des ersten Semester zur Welt :-D). Da es mir aber neben Studium und Familie unmöglich ist, zusätzlich auch noch zu arbeiten, habe ich bis auf ein paar Schnuppertage in unserer kleinen Gemeindebibliothek, die ich im Rahmen meines Fachpraktikums absolvieren durfte, keinerlei praktische Erfahrung, weder im Bibliotheks- noch im Archivbereich.

    Auch in diesen Schnuppertagen habe ich das System, welches die Bibliothek nutzt, gar nicht richtig wahrgenommen, sondern einfach als Anwenderin gesehen. Ich weiss deshalb nicht einmal, wie es heisst. Aufgrund dieser fehlenden praktischen Erfahrung konnte ich mir unter dem Modultitel “Bibliotheks- und Archivinformatik” nicht viel vorstellen. Was enthält so eine Bibliotheksinformatik? Welche Systeme gehören da dazu? Welche Technologien werden verwendet? Welche Tätigkeiten fallen im Bereich der Bibliotheks- und Archivinformatik an? Es zeigt sich: Mir fehlt der Gesamtüberblick. Hoffentlich gelingt es mir, diesen im Laufe dieses Moduls zu erlangen.

    Zur Vorbereitung auf die heutige Vorlesung habe ich mir also die Modulbeschreibung etwas genauer angesehen, da ich mir unter dem Titel alleine noch nicht viel vorstellen konnte. Bei der Durchsicht der Modulinhalte fiel mir dann aber doch der eine oder andere Begriff ins Auge, den ich bereits einmal im Rahmen des Studiums gehört oder gelesen hatte. “Repositories” zum Beispiel: Zu diesem Thema hatten wir letzten Herbst ein längeres Paper geschrieben. Es ging dabei um das Repository der FHNW und wie dieses verbessert und standardisiert werden könnte. Hier weiss ich also zumindest, um was es sich handelt.

    “Metadatenstandards” ist ein weiterer bekannter Begriff, der aber eher unangenehme Erinnerungen an langweilige Theorie weckt. Dublin Core, MARC21… Dadurch, dass ich diese Begriffe damals schon nicht mit praktischen Erfahrungen verknüpfen konnte, blieben sie für mich “graue Theorie”. Ob sich das mit diesem Modul wohl ändern wird? Die Beschreibung lässt vermuten, dass in diesem Modul aktiver mit diesen Standards umgegangen wird: So heisst es in der Beschreibung, dass unterschiedliche Datenbestände zusammengenommen und auf diese Sammlung dann verschieden Suchtechnologien angewandt werden sollen. Ich bin gespannt und hoffe, dass das Modul die richtigen Anwendungsbeispiele zeigt, die es mir ermöglichen, diese für mich noch etwas diffusen Beschreibungen etwas besser einordnen zu können.

subscribe via RSS