Informationswissenschaft: Theorie, Methode und Praxis
Latest Publications


TOTAL DOCUMENTS

20
(FIVE YEARS 19)

H-INDEX

0
(FIVE YEARS 0)

Published By University Of Bern

2297-9069

2020 ◽  
Vol 6 (1) ◽  
pp. 1-443
Author(s):  
Gaby Knoch-Mund ◽  
Barbara Roth-Lochner ◽  
Ulrich Reimer

Travaux du/Arbeiten aus dem Master of Advanced Studies in Archival, Library and Information Science, 2016-2018


2020 ◽  
Vol 6 (1) ◽  
pp. 441-443
Author(s):  
Georg Büchler

Verzeichnis der Abschlussarbeiten des sechsten Studiengangs 2016-2018


2020 ◽  
Vol 6 (1) ◽  
pp. 424-440
Author(s):  
Simona Generelli

Die DEZA weiss nicht, was die DEZA weiss. Mit dieser Arbeit wollte ich untersuchen, wie viel Wahr-heit in dieser Redewendung steckt. Dafür habe ich zunächst definiert, was unter Wissens- und Infor-mationsmanagement verstanden wird. Besonders habe ich die Geschichte dieser Disziplin geschildert und die wichtigsten Begriffe, Modelle und Methoden vorgestellt. Dabei wurde auch klar, dass eine Bewertung des Wissensmanagements eine schwierige Aufgabe ist149. Für diese Analyse habe ich mich entschieden, die Wissensstrategie der DEZA und die implementierten Tools zu überprüfen. Die Resultate haben klar gezeigt, dass die Situation weniger gravierend ist, als erwartet. In den letzten Jahren wurde schon viel gemacht, auch wenn nicht immer alles gut funktioniert hat. Neben einigen technischen Aspekten (wie zum Beispiel dem Intranet), besteht das Problem vor allem darin, dass in den letzten Jahren zu wenig Aktualisierung, Promotion und Nutzung stattgefunden hat. Das hat dazu geführt, dass die Mitarbeitenden nicht nur ungenügend involviert sind, sondern auch die verschiede-nen Angebote und Möglichkeiten nur unzureichend kennen. Sie unterschätzen zudem die existentielle Rolle des Wissensmanagements für eine Organisation und beteiligen sich zu wenig. Es ist auch er-staunlich, dass sie sich einerseits darüber beschweren, dass die DEZA nicht weiss, was die DEZA weiss, andererseits auch nichts machen, um diese Situation zu verbessern. Wie am Anfang dieser Arbeit als Hypothese angenommen wurde, steht die Wahrheit in der Mitte. Der Informationsfluss und das Wissensmanagement haben Aktualisierungsbedarf und können verbessert werden, die Dimension Mensch darf aber nicht vernachlässigt werden. Dabei geht es nicht nur um die Mitarbeitenden, son-dern auch um die Vorgesetzten, welche ihre führende Rolle wieder übernehmen sollten.Mit dieser Arbeit habe ich nicht das ganze Wissensmanagementsystem der DEZA untersucht, son-dern nur einige Aspekte. Hoffentlich wird sie jedoch helfen, die ersten Schritte in Richtung Aktuali-sierung zu machen. Das Thema Wissensmanagement sollte innerhalb der DEZA bald wieder ange-sprochen und die Leute mehr involviert werden. Idealerweise sollte am Ende dieses Prozesses die Redewendung angepasst werden: die DEZA weiss, wo das Wissen zu finden ist und benutzt es konse-quent.


2020 ◽  
Vol 6 (1) ◽  
pp. 245-260
Author(s):  
Ursula Loosli
Keyword(s):  

Die Gewährleistung des langfristigen Erhalts von und Zugangs zu Informationen ist eine der Kernaufgaben einer wissenschaftlichen Bibliothek. Diese nimmt die Universitätsbibliothek Bern (UB Bern) auch für digitale Materialien in den Beständen wahr. Um Langzeitarchivierung auch als forschungsunterstützende Dienstleistung so anbieten zu können, dass bestehende Bedarfe der Forschenden abgedeckt werden, müssen diese zuerst erhoben werden.Diese Masterarbeit unternimmt einen Vorstoss in eine erste Fachrichtung, die Geisteswissenschaften. Anhand von drei Forschungsprojekten, die als Fallbeispiele betrachtet werden, wird gezeigt, was für Forschungsdaten vorliegen und welche Bedürfnisse, Möglichkeiten und Schwierigkeiten bei der Frage der Langzeitarchivierung bestehen. Dazu werden teilstrukturierten Interviews durchgeführt. Zudem werden unterschiedliche Möglichkeiten vorgeschlagen, wie die UB Bern auf diese Bedürfnisse reagieren könnte. Dabei wird verglichen, was andere Institutionen in der Schweiz anbieten und es werden Ergebnisse eines abteilungsübergreifenden Austauschs von UB-Bern-Mitarbeitenden einbezogen.Die Arbeit zeigt, dass in den Geisteswissenschaften Forschungsdaten in simpler und komplexer Form vorliegen und sich die Bedürfnisse stark unterscheiden können. Während das Bedürfnis für die Langzeitarchivierung beim untersuchten Fallbeispiel mit simplen Forschungsdaten noch am Entstehen ist, ist es bei den untersuchten Fallbeispielen mit komplexen Forschungsdaten (Datenbankprojekt und digitale Edition, beide mit Webzugang) schon sehr ausgeprägt. Simple Forschungsdaten könnten in Forschungsdatenrepositorien publiziert und (langzeit-)archiviert werden, wobei der zeitliche Aspekt für geisteswissenschaftliche Forschungsdaten meist zu kurz ist. Für komplexe (und auch simple) geisteswissenschaftliche Forschungsdaten kann ein Datenzentrum wie das Data and Service Center for the Humanities (DaSCH) langfristige und auch individuelle Lösungen anbieten. Dabei werden die Daten erhalten und auch deren Benutzbarkeit, sowie die Funktion des Webzugangs.Die Arbeit schlägt Möglichkeiten vor, welche Formen von Infrastruktur angeboten werden könnte. Falls es zu keinem Ausbau der eigenen Infrastruktur kommen sollte, muss mindestens ein hochwertiges, auch individuelles, Beratungsangebot angeboten werden. Dabei kann an entsprechende Infrastrukturen verwiesen werden. Idealerweise wird das Beratungsangebot mit einer ersten, allgemeinen Anlaufstelle für Forschungsprojekte, speziell für die Geisteswissenschaften, kombiniert.


2020 ◽  
Vol 6 (1) ◽  
pp. 312-423
Author(s):  
Fabian Würtz

Eine Kernaufgabe der Archive ist die Erschliessung des Archivguts. Bisher wurden Archivbestände meist als hierarchische und isolierte Einheiten verzeichnet. Die zunehmende Digitalisierung, neue Fachbereiche wie die Digital Humanities oder Entwicklungen wie das Semantic Web bzw. Linked Open Data haben jedoch neue Ideen in die Archivwelt getragen. Einer der deutlichsten Vorboten dieser neuen Welt ist Records in Context (RiC). Der neue Verzeichnungsstandard des wichtigen International Council on Archives (ICA) ist konzeptionell auf Linked Open Data und das Semantic Web ausgerichtet. Doch was bedeutet es für die Archive, wenn aus den bisher isolierten Beständen verlinkte und maschinenlesbare Netzwerke entstehen sollen? Wie sollen archivalische Metadaten und Datenmodelle in Linked Open Data aussehen und an welche Qualitätsansprüche sollen diese neu berücksichtigen?Um diese Fragen zu beantworten hat die Arbeit das Konzept und die Technologien die Linked Open Data zugrunde liegen vorgestellt. Danach wurden Qualitätsmerkmale für Linked Open Data zusammengetragen und der momentane Stand von Linked Open Data im Archivbereich beleuchtet. Dabei wurde unter anderem bereits existierende Ansätze und Anwendungen aus dem Archivbereich vorgestellt und mit den Qualitätsmerkmalen verglichen. Die Überprüfung der Praxistauglichkeit der Qualitätsmerkmale erfolgte am Fallbeispiel der Metadaten des Schweizerischen Sozialarchivs.Auf Basis der erarbeitenden Resultate spricht die Arbeit eine Reihe von Empfehlungen aus. Diese richten sich an Archive, die sich mit dem Thema Linked Open Data beschäftigen oder eine Anwendung in diesem Bereich planen.


2020 ◽  
Vol 6 (1) ◽  
pp. 209-223
Author(s):  
Elke Huwiler
Keyword(s):  
Top Down ◽  

Archivbestände digitalisiert im Netz zu finden wird aus Nutzersicht heutzutage immer selbstverständlicher. Doch nicht nur um diesen Nutzungsbedürfnissen zu entsprechen, sondern auch aus Gründen der Erhöhung der Sichtbarkeit als Archiv gegen aussen, aus konservatorischen Gründen sowie aus Gründen der Bereitstellung des digitalisierten Materials für Forschung oder zu musealen Zwecken digitalisieren immer mehr Archive ihre Bestände.Um solche Digitalisierungsprojekte durchführen zu können, formulieren Archive Digitalisierungsstrategien, die unter den Aspekten Ziele, Ressourcen, Juristische Grundlagen, Auswahlkriterien, Standards, Erschliessung, Bereitstellung und Langzeitarchivierung die Handhabung des Archivs im Digitalisierungsprozess regeln.Die Arbeit untersucht die Digitalisierungsstrategien der beiden Gedächtnisinstitutionen Deutsches Literaturarchiv (Marbach) und Schweizerisches Literaturarchiv (Bern), die unterschiedlich mit dem Bereich der Digitalisierung umgehen: Während das Deutsche Literaturarchiv bisher kaum sichtbar Material digitalisiert und bereitgestellt hat, nun aber zu diesem Zweck ein Digitalisierungszentrum errichtet hat und die Koordination der entsprechenden Projekte „top-down“ regeln will, hat das Schweizerische Literaturarchiv schon mehrere Digitalisierungsprojekte durchgeführt, allerdings ohne selber formulierte Digitalisierungsstrategie; es orientiert sich für die Rahmenbedingungen an der Digitalisierungsleitlinie der Schweizerischen Nationalbibliothek und führt eigene Projekte nach einer „bottom-up“-Handhabung mit variierenden Regelungen je nach Projekt durch.Der Vergleich der beiden Strategien zeigt unter anderem, dass sich die beiden Literaturarchive zwar in der digitalisierten Erschliessung und Bereitstellung von Metadaten sehr fortschrittlich positionieren, bei der eigentlichen Digitalisierung von Archivgut jedoch sehr zurückhaltend vorgehen. Die Gründe dafür werden in der Untersuchung analysiert, und es werden Optimierungsvorschläge formuliert. Ein deutliches Fazit der Arbeit ist, dass die Digitalisierung von Archivgut und die Bereitstellung der Digitalisate im Semantic Web enorme Chancen für die Literaturarchive bietet und dieser Prozess somit vorangetrieben und optimiert werden sollte.


2020 ◽  
Vol 6 (1) ◽  
pp. 298-311
Author(s):  
Michael Hertig

Ce travail cherche à décrire l’enrichissement automatique de l’indexation ainsi que les différentes manières de l’appliquer aux données bibliographiques, notamment dans le réseau vaudois de bibliothèques Renouvaud. L’enrichissement automatique de l’indexation consiste à ajouter des informations à une ressource documentaire concernant son contenu. Il s’agit d’une pratique faisant l’objet d’un nouvel intérêt dans les bibliothèques, car elle permet de résoudre des problèmes associés à l’indexation matière utilisant des vocabulaires contrôlés. Il s’agit principalement des problèmes de la masse des documents à indexer et de l’hétérogénéité des référentiels utilisés. Dans un premier temps, l’enrichissement automatique de l’indexation est introduit dans le contexte de remise en question de l’indexation matière et est présenté comme solution à ces deux problèmes. Dans un deuxième temps, ce travail examine la possibilité d’implémenter un système d’enrichissement automatique sur les données du réseau Renouvaud. Un état des lieux de l’indexation est présenté et débouche sur une analyse établissant si l’enrichissement automatique est envisageable. Enfin, l’on présente une tentative d’enrichissement automatique concrète, au moyen du système de gestion Alma utilisé dans Renouvaud.


2020 ◽  
Vol 6 (1) ◽  
pp. 44-90
Author(s):  
Christa Ackermann
Keyword(s):  

Wie können bei der Bearbeitung von historischen Quellen entstandene Forschungsdaten langfristig und nachnutzbar (FAIR) online zur Verfügung gestellt werden? Dieser Frage wird in drei Schritten nachgegangen: Zuerst werden die Grundlagen des digitalen Datenaustauschs anhand der wichtigsten einschlägigen Standards bzw. Konzepte erarbeitet (Unicode, TEI, Linked Data und IIIF). In einem weiteren Schritt wird eine Auswahl von Editionssoftware bzw. -plattformen auf deren Tauglichkeit für kleine Editionsvorhaben geprüft. Die in den Vordergrund gestellten Projekte (FuD, Corpus Corporum, NIE-INE und Juxta Editions) verfolgen teilweise sehr unterschiedliche Ziele. Keines bietet eine ideale Lösung für ein kleines Editionsprojekt, alle haben jedoch gute Ansätze. Im letzten Teil geht es um die Frage, was eine ideale Editionsplattform für die Speicherung von Kleineditionen und bruchstückhaften Editionsergebnissen bieten würde. Während es viele mehr oder weniger dringende Eignungskriterien gibt, ist der Kern der Anforderung überschaubar: die Daten müssen FAIR aufbereitet werden, der einfache Zugang zur Editionsplattform muss in finanzieller und technischer Hinsicht gewährleistet sein und ein Minimum an gängigen einschlägigen Standards muss berücksichtigt werden. Aufgrund dieser minimalistischen Anforderungen ist zu hoffen, dass bald ein entsprechendes Produkt auf den Markt kommen wird.


2020 ◽  
Vol 6 (1) ◽  
pp. 28-43
Author(s):  
Gaby Pfyffer

Spezialarchive wie das Archiv für Zeitgeschichte (AfZ), die Nachlässe von Privatpersonen sammeln, sind mit dem Übergang ins digitale Zeitalter vor grosse Herausforderungen gestellt. Wie alle Institutionen, die Quellen – und damit je länger je mehr auch digitale Quellen – sichern, müssen sie sich intensiv damit beschäftigen, wie diese Quellen übernommen, aufbereitet und langzeitarchiviert werden können, damit sie Nutzern und Nutzerinnen auch in Zukunft als authentische Dokumente zur Verfügung stehen.Die vorliegende Arbeit versucht, anhand der aktuellen Forschungsliteratur, einer eigenen bei einigen exemplarisch ausgewählten Archiven durchgeführten Umfrage sowie anhand von bereits vorhandener Praxiserfahrung im AfZ und weiteren Archiven zu klären, welche Vorgehensweisen bei der Sicherung von digitalen Nachlässen und Personenarchiven verfolgt werden können bzw. in der Praxis bereits als Konzepte existieren oder gar schon Teil des laufenden Archivbetriebs sind. Das Augenmerk liegt dabei auf der strategisch-organisatorischen Ebene, weniger auf technischen Fragen. Die Phase der Bestandsbildung – also die vorarchivische Phase – wird als zentraler Ansatzpunkt für Massnahmen identifiziert, um eine spätere geordnete und möglichst vollständige Übernahme von Personenarchiven in die Archivinstitution zu gewährleisten. Die Frage, wie Bestandsbildner betreut und begleitet werden sollen sowie diejenige nach der Bewertung von digitalen Unterlagen und dem Verhältnis dieser beiden Fragen zueinander, stehen im Zentrum.Die Arbeit schliesst mit einem vorläufigen Fazit und Empfehlungen für das AfZ.


2020 ◽  
Vol 6 (1) ◽  
pp. 294-297
Author(s):  
Ulrich Reimer

Einleitung Teil III


Sign in / Sign up

Export Citation Format

Share Document