Planet History

Autor: Katrin Moeller

Digitales Praxislabor 2022 (Digital History)

Eine Veranstaltungsreihe der AG Digitale Geschichtswissenschaft Aufgrund der hohen Nachfrage bietet dies AG Digitale Geschichtswissenschaft (VHD) auch in diesem Jahr eine Veranstaltungsreihe zu digitalen Methoden und Tools rund um die historische Forschung an. Sie sind herzlich eingeladen, eine oder mehrere dieser Veranstaltungen wahrzunehmen. Das Programm bietet ein reiches Spektrum von Angeboten im Umgang mit qualitativen […]

Quantitative Analyse mit Normdaten – SPSS in der Historischen Forschung

Katrin Moeller, Historisches Datenzentrum Sachsen-Anhalt (Martin-Luther-Universität Halle-Wittenberg) Termin: Donnerstag, 23.06.2022, 14:00-17:00 Uhr Beschreibung: Gemeinsam genutzte Normdaten spielen in der gegenwärtigen Diskussion um Datenmanagement und Forschungsdatenaufbereitung webbasierter Sammlungen eine prominente Rolle (Linked Open Data, Semantic Web etc.), bleiben aufgrund der Möglichkeiten zur automatisierten Entitätserkennung aber auch immer noch eine Herausforderung. Welche neuen Angebote es hierzu gibt und wie nutzbringend solche Normdatenstände dann tatsächlich für die Analyse von Massendaten Anwendung finden können, soll anhand der Einbindung von berufsbezogenen Vokabularen gezeigt und gemeinsam diskutiert werden. Dies wird … „Quantitative Analyse mit Normdaten – SPSS in der Historischen Forschung“ weiterlesen

Von genormten Daten und strukturierten Texte. Einstieg in die Quellenedition

Anna Menny, Daniel Burckhardt, Institut für die Geschichte der deutschen Juden, Moses Mendelssohn Zentrum für europäisch-jüdische Studien Termin: Donnerstag, 19.05.2022, 10:30-12:30 Beschreibung: Die vom Institut für die Geschichte der deutschen Juden realisierten Hamburger Schlüsseldokumente zur deutsch-jüdischen Geschichte sind eines der größten digitalen Archive für Quellen zur deutsch-jüdischen Geschichte. Das Modellprojekt integriert gängige Standardformate wie MODS/METS (Digitalisate), TEI P5 (Textauszeichnung der Transkriptionen und Übersetzungen), DOI (persistente Adressierung) und GND-Beacon-Dateien für Normdaten und steht als Open-Source-Lösungen zur Nachnutzung bereit. Die Online-Quellenedition ist ein zentrales Modul des … „Von genormten Daten und strukturierten Texte. Einstieg in die Quellenedition“ weiterlesen

Wissenschaftliches Bloggen mit de.hypotheses

Celia Burgdorff, Britta Hermans, De.hypotheses Termin: Mittwoch, 18.05.2022, 11:00-13:00 Uhr Beschreibung: Der Workshop ist in zwei Teile gegliedert: Zunächst werden konzeptionelle und wissenschaftliche Aspekte des Bloggens allgemein thematisiert und einige best-practice-Beispiele aus dem Bereich der Geistes- und Sozialwissenschaften vorgestellt. Behandelt werden dabei u.a. die Fragen: Wie sieht ein guter wissenschaftlicher Blogbeitrag aus? Wie funktioniert die Interaktion mit den Leser:innen? Welche Sprache, welcher Stil ist bei wissenschaftlichen Blogs angemessen? Wann ist ein Blog erfolgreich? Anschließend wird selbst gebloggt: Alle Teilnehmenden erhalten ein Schulungsblog auf der … „Wissenschaftliches Bloggen mit de.hypotheses“ weiterlesen

Data Stories – neue Erzählformate für die Digital History

Silke Schwandt, Julia Becker, Christian Wachter, Universität Bielefeld, Universität Göttingen Termin: Dienstag, 02.08.2022, 14:00-16:30 Beschreibung: Traditionell werden in der Geschichtswissenschaft Forschungsgegenstände und Interpretationen als textbasierte Narrationen wiedergegeben. Im Zuge der Datafication historischer Forschung sind im angloamerikanischen Raum neuere Erzählformate wie Data Stories verbreitet worden, haben sich in der deutschen Geschichtswissenschaft allerdings noch nicht etablieren können. Der Workshop möchte dem Phänomen Raum geben und ist zwei Zielen gewidmet: Beispiele innovativer Data Stories sollen vorgestellt sowie eine Auswahl an Tools erkundet werden, die sich für die … „Data Stories – neue Erzählformate für die Digital History“ weiterlesen

Historische Schulbücher analysieren mit DiaCollo und Co.

Dr. Maret Nieländer, Frank Wiegand, Leibniz-Institut für Bildungsmedien | Georg-Eckert-Institut, Berlin-Brandenburgische Akademie der Wissenschaften Termin: Montag, 05.09.2022, 9:00-12:30 Beschreibung: Der Workshop führt ein in Korpusanalyse und -vergleich mit der Korpusmanagement-Umgebung D* und den dort verfügbaren Werkzeugen für einfache und komplexe Suchanfragen, Frequenzanalysen und diachrone Kollokationsanalysen. Wir nutzen dabei das „GEI-Digital-2020“-Korpus mit 5036 Schulbüchern aus den Jahren 1648 bis 1921. Es enthält v.a. deutschsprachige Realienkundebücher, Fibeln und Lesebücher sowie Bücher für die Fächer Geographie, Geschichte, Politik und Religion, aber auch Werke für die Lehrer:innen-Ausbildung. Neben … „Historische Schulbücher analysieren mit DiaCollo und Co.“ weiterlesen

Mit FuD zu FAIRen Daten. Ein Softwaresystem für das Forschungsdatenmanagement in qualitativ arbeitenden Forschungsprojekten

Marina Lemaire, Universität Trier. Servicezentrum eSciences Termin: Dienstag, 26.07.2022, 10:00-13:00 Beschreibung: Das Hands-On Lab bietet den Teilnehmenden die Möglichkeit, die virtuelle Forschungsumgebung FuD (fud.uni-trier.de) und ihre vielfältige Einsatzmöglichkeiten kennenzulernen und erste Erfahrungen zu sammeln. Das Softwaresystem ist für die geistes- und sozialwissenschaftliche Forschung entwickelt worden und seit mehr als 15 Jahren in ca. 50 Projekten im Einsatz. Es besticht durch seine hohe Flexibilität, um unterschiedlichste Projekte von der Datenerfassung und ‑verwaltung, über die Volltexterstellung inklusive text- und sachkritischer Kommentierung sowie inhaltlicher Erschließung bis hin … „Mit FuD zu FAIRen Daten. Ein Softwaresystem für das Forschungsdatenmanagement in qualitativ arbeitenden Forschungsprojekten“ weiterlesen

Einführung in OpenRefine für Historiker:innen

Torsten Hiltmann, Professur für Digitel History, Humboldt-Universität zu Berlin Termin: Mittwoch, 05.10.2022, 10.00-16.00 Uhr Beschreibung: Als Historiker:innen arbeiten wir immer wieder mit Listen und Tabellen, um die für unsere Forschung wichtigen Daten zu Personen, Orten, Dokumenten usw. zusammenzutragen und auszuwerten. Häufig stammen diese Daten jedoch aus unterschiedlichen Quellen bzw. wurden ohne konsistente Regeln erstellt. Die Folge sind unterschiedliche Schreibweisen von Namen und Begriffen, abweichende Formate bei Datumsangaben usw. – kurz gesagt: „schmutzige“ Daten, die zunächst einmal gründlich zu reinigen und zu vereinheitlichen sind. Mit … „Einführung in OpenRefine für Historiker:innen“ weiterlesen

Einführung in Python für Historiker:innen

Martin Dröge, Melanie Althage, Professur für Digital History, Humboldt-Universität zu Berlin Termin: Dienstag, 08.11.2022, 10.00-16.00 Uhr Beschreibung: Das Programmieren mit Python erfreut sich immer größerer Beliebtheit: Mit der höheren Mehrzweck-Programmiersprache können sowohl numerische als auch textuelle Daten gut verarbeitet werden – zudem ist sie einfach zu erlernen. Das Ziel des Workshops ist es, Historiker:innen ganz praktisch an die Skriptsprache Python heranzuführen und deren Potentiale für weitere Forschungsansätze aufzuzeigen. Die Einführung gibt zunächst einen Überblick über die Eigenschaften von Python, vermittelt Grundkenntnisse in Syntax und … „Einführung in Python für Historiker:innen“ weiterlesen

Semantic Web und Linked Open Data in der Digitalen Geschichtswissenschaft

Johanna Danielzik, Bärbel Kröger und Jörg Wettlaufer, Akademie der Wissenschaften zu Göttingen (Digitale Akademie) Termin: Freitag, 17.06.2022, 09:00 – 15:30 Uhr Beschreibung: Im Rahmen der Workshopreihe “Praxislabors Digitale Geschichtswissenschaft” der AG Digitale Geschichtswissenschaft plant die Göttinger Digitale Akademie einen Workshop mit dem Titel “Semantic Web und Linked Open Data in der Digitalen Geschichtswissenschaft”. Der Workshop richtet sich an Interessierte ohne Vorkenntnisse in den Bereichen Semantic Web, Linked Open Data und SPARQL. Er beinhaltet eine Einführung in die Grundlagen des Semantic Web und ein Beispiel … „Semantic Web und Linked Open Data in der Digitalen Geschichtswissenschaft“ weiterlesen

Ortsnamenveränderungen und Ortsnamenverzeichnisse als Herausforderung für die Geschichtswissenschaft. Digitale Methoden und Werkzeuge (Gazetteer-App)

Christian Lotz, Bent Ahrens, Herder-Institut für historische Ostmitteleuropa-Forschung Termin: Montag, 19.09.2022, 10:00-12:00 Beschreibung: Die Änderung von Ortsnamen spielt in historisch arbeitenden Disziplinen eine große Rolle. Inzwischen stellen große Webangebote (Geonames, GOV, Wikidata u.a.) zahlreiche Ortsnamen zur Verfügung. In Forschungsprojekten und bei der Arbeit in Infrastrukturen (Archive, Bibliotheken) sind jedoch weiterhin erhebliche Herausforderung mit Ortsnamen verbunden, bspw. die Zuordnung eines Namens zu einem Ort, die Rekonstruktion von Ortsnamensänderungen, das Auffinden von Namensvariationen in verschiedenen Sprachen u.a.m. Das Herder-Institut und das Institut für Länderkunde haben im … „Ortsnamenveränderungen und Ortsnamenverzeichnisse als Herausforderung für die Geschichtswissenschaft. Digitale Methoden und Werkzeuge (Gazetteer-App)“ weiterlesen

Historisches Erinnern im digitalen Zeitalter

Peter Haslinger, Herder-Institut für historische Ostmitteleuropaforschung Termin: Freitag, 21.10.2022, 9.00-13.00 Beschreibung: Dieser Workshop richtet sich an alle, die über das Verhältnis von historischem Erinnern und Digitalität theoretisch und methodisch reflektieren möchten. Die Veranstaltung geht von der Annahme aus, dass bisherige Modelle wie Erinnerungskultur, Geschichtskultur, Geschichtspolitik oder Vergangenheitspolitik unter den Rahmenbedingungen des digitalen Wandels neu gedacht werden müssen. Der Workshop wird in hybrider Form am Herder-Institut in Marburg stattfinden, geplant ist eine Kooperation mit dem Marburg Centre for Digital Culture and Infrastructure (MCDCI) und dem … „Historisches Erinnern im digitalen Zeitalter“ weiterlesen

FAIRe Forschungsdaten: Aufbereitung von Daten mit Hilfe von RDF-Datenmodellen

Ingo Frank, Sandra König, Anna-Lena Körfer, Arnost Stanzel, Peter Valena, Forschungsdatendienst OstData: Leibniz-Institut für Ost- und Südosteuropaforschung (IOS), Leibniz-Institut für Geschichte und Kultur des östlichen Europa (GWZO), Herder-Institut für historische Ostmitteleuropaforschung – Institut der Leibniz-Gemeinschaft (HI), Bayerische Staatsbibliothek (BSB), Collegium Carolinum – Forschungsinstitut für die Geschichte Tschechiens und der Slowakei (CC) Termin: Dienstag, 24.05.2022, 9:30-12h Beschreibung: Um Forschungsdaten FAIR zu machen, bietet sich an, diese als Linked Data mit Resource Description Framework (RDF)-Datenmodellen zu modellieren. Im Workshop wollen wir anhand von Daten aus Projekten … „FAIRe Forschungsdaten: Aufbereitung von Daten mit Hilfe von RDF-Datenmodellen“ weiterlesen

Einführung in Topic Modeling mit Python

Melanie Althage, Martin Dröge, Professur für Digital History, Humboldt-Universität zu Berlin Termin: Dienstag, 15.11.2022, 10:00-16:00 Uhr Beschreibung: Umfangreiche Textkopora inhaltlich strukturieren und auswerten ohne die Dokumente im Einzelnen gelesen zu haben – geht das? Das geht! Topic Modeling ist eine in den digitalen Geisteswissenschaften etablierte Methode, wenn es etwa darum geht, größere Textsammlungen inhaltlich-thematisch zu klassifizieren oder die Entwicklung von Publikationstrends und Diskursen nachzuvollziehen. Der Workshop bietet eine einsteigerfreundliche Einführung in ihre methodischen Grundlagen sowie die Implementierung mittels der Programmiersprache Python. Anhand eines konkreten … „Einführung in Topic Modeling mit Python“ weiterlesen

Digitales Praxislabor 2022

Wissenschaftliches Bloggen mit de.hypotheses Veranstalter/in: Celia Burgdorff, Britta Hermans, De.hypothesesWorkshop am: Mittwoch, 18.05.2022, 11:00-13:00 UhrWeitere Infos: https://digigw.hypotheses.org/?p=3978   Von genormten Daten und strukturierten Texte. Einstieg in die Quellenedition Veranstalter/in: Anna Menny, Daniel Burckhardt, Institut für die Geschichte der deutschen Juden, Moses Mendelssohn Zentrum für europäisch-jüdische StudienWorkshop am: Donnerstag, 19.05.2022, 10:30-12:30Weitere Infos: https://digigw.hypotheses.org/?p=3985   FAIRe Forschungsdaten: Aufbereitung von Daten mit Hilfe von RDF-Datenmodellen Veranstalter/in: Ingo Frank, Sandra König, Anna-Lena Körfer, Arnost Stanzel, Peter Valena, Forschungsdatendienst OstData: Leibniz-Institut für Ost- und Südosteuropaforschung (IOS), Leibniz-Institut für Geschichte … „Digitales Praxislabor 2022“ weiterlesen

Rekonstruktion von KZ-Häftlingstransporten mit Hilfe der Memorial Archives Gefangenennummern-Systematik

Maximilian Kalus (Memorial Archives)Montag, 4. Oktober 2021, 10:30-11:00 Uhr „Memorial Archives“ ist eine internationale Forschungsplattform zu NS-Opfern. Die Datenbank erlaubt es, Cluster von Daten und Dokumenten, z.B. zu einem KZ-Häftling, zu erstellen oder Transporte zwischen Konzentrationslagern digital zu rekonstruieren. In den letzten zwölf Monaten wurden über 1 Million Seiten aufgerufen – von Nutzern und von Redakteuren, die auch selbst Daten editieren können. Die Kommunikation der Redakteure, z.B. zu einzelnen Transporten, erfolgt in der Webanwendung GitLab, die diverse Management- und Tracking-Funktionen bietet. In über sechs … „Rekonstruktion von KZ-Häftlingstransporten mit Hilfe der Memorial Archives Gefangenennummern-Systematik“ weiterlesen

Viabundus.eu: Map of premodern European transport and mobility

Maria C. Dengg (Universität Magdeburg) und Niels Petersen (Universität Göttingen)Montag, 4. Oktober 2021, 15:00-15:30 Uhr Präsentiert wird eine digitale Plattform zur Rekonstruktion vormoderner Fernhandelsverbindungen im Hanseraum (1350-1650) (www.viabundus.eu), die fortlaufend von einem internationalen Team bearbeitet wird. Vorbild ist das ORBIS-Geospatial Network Model of the Roman World. Ausgangspunkt des Projekts ist der Atlas „Die Hansischen Handelsstraßen“ von 1962-1968, der im Sinne einer digitalen Analyse aktualisiert, präzisiert und deutlich erweitert wird. Produkt ist eine online präsentierte digitale Karte sowie eine damit verbundene SQL-basierte Datenbank über mehr … „Viabundus.eu: Map of premodern European transport and mobility“ weiterlesen

Semi-Automatische Rekonstruktion von Netzwerken gelehrter Eliten im spätmittelalterlichen Deutschland anhand des Repertorium Germanicum

Clemens Beck (Universität Jena)Montag, 4. Oktober 2021, 9:30-10:00 Uhr Der Vortrag behandelt die Untersuchung der Strukturen und Protagonisten der spätmittelalterlichen deutschen Kirche mit Hilfe semi-automatischer Informationsextraktion und Historischer Netzwerkanalyse im Rahmen eines aktuellen Forschungsprojekts an der Universität Jena („Core-H: Collaborative Open Research Environment for the Humanities“). Grundlage der Untersuchung ist das Repertorium Germanicum (kurz: RG), eine für den Bereich der Mediävistik vielleicht einzigartig umfassende serielle Quelle zur Geschichte der spätmittelalterlichen deutschen Kirche und Gesellschaft. Bisher verhinderte der sehr große Umfang des hier publizierten Materials … „Semi-Automatische Rekonstruktion von Netzwerken gelehrter Eliten im spätmittelalterlichen Deutschland anhand des Repertorium Germanicum“ weiterlesen

Lives in Transit: A Game for Teaching and Writing Global History

Martin Dusinberre (Universität Zürich), Leyla FeinerMontag, 4. Oktober 2021, 15:30-16:00 Uhr „Lives in Transit“ ist ein interaktives Werkzeug, um globale Geschichte zu erzählen und zu lehren. Es bietet Historikern ein Modell für die Präsentation ihrer Forschung in Form eines Serious Gaming. Spielthemen lassen sich selbst simulieren und ermöglichen reale Erfahrungen zur Spieleentwicklung für BA- und MA-Studenten. Im Gegensatz zu konventionellen akademischen Arbeiten erlaubt das Spiel dem Autor, nichtlineare Erzählungen zu erforschen und parallele und multidirektionale Erzählungen zu schaffen. Währenddessen erleben die Spieler die Entstehung … „Lives in Transit: A Game for Teaching and Writing Global History“ weiterlesen

Oceanic Exchanges: Tracing Global Information Networks in Historical Newspaper Repositories, 1840-1914 (OcEx)

Jana Keck (Deutsches Historisches Institut Washington) und Steffen Koch (Universität Stuttgart)Montag, 4. Oktober 2021, 14:00-14:30 Uhr Im 19. Jahrhundert entstand die Massenpresse und eine globale Kultur vielfältiger, schnell zirkulierender Informationsquellen. Auch wenn dies auf den grenzübergreifenden Charakter der Presse hinweist, wurde die Zeitungsforschung bisher weitgehend in Metropol- und nationalen Räumen definiert. Dieses „lokale“ Konzept verfestigte sich weiterhin in der Art und Weise wie Zeitungen gesammelt, digitalisiert und verfügbar gemacht worden sind. Im Rahmen des internationalen Forschungsprojektes OcEx wurden digitalisierte Zeitungsseiten aus mehr als 7 … „Oceanic Exchanges: Tracing Global Information Networks in Historical Newspaper Repositories, 1840-1914 (OcEx)“ weiterlesen

Spotlight JudaicaLink und FID Jüdische Studien

Kerstin von der Krone (Universitätsbibliothek Frankfurt am Main), Kai Eckert und Benjamin Schnabel (Hochschule der Medien Stuttgart)Montag, 4. Oktober 2021, 14:30-15:00 Uhr JudaicaLink (http://judaicalink.org) ist ein Datenportal des Fachinformationsdienstes Jüdische Studien (http://jewishstudies.de), das verschiedenste Datenquellen zur jüdischen Geschichte zusammenführt und anreichert. Neben dem Ziel, die Angebote des FID zu optimieren, werden die Daten den digitalen Geisteswissenschaften zur weiteren Nutzung zur Verfügung gestellt. Ein besonderes Augenmerk liegt derzeit auf dem Presse-Portal “Compact Memory” (http://compactmemory.de), das durch Textmining-Verfahren weiter erschlossen wird und einem breiteren Nutzerkreis zugänglich … „Spotlight JudaicaLink und FID Jüdische Studien“ weiterlesen

Sichtbarmachung von historischen Graphnetzwerken als inhärenter Teil digitaler Editionen

Martin Fechner (Berlin-Brandenburgische Akademie der Wissenschaften)Montag, 4. Oktober 2021, 11:30-12:00 Uhr Schwerpunkt digitaler, historisch-kritischer Editionen liegt sinngemäß in der Erstellung und Präsentation von edierten Quellen zur Nutzbarmachung für die historische Forschung. Zunehmend werden dabei die Mittel der Verlinkung, der Einsatz von Normdaten (etwa für Personen) und die Einbindung externer Daten eingesetzt, was auch als Entgrenzung digitaler Editionen bezeichnet wird und als Unterscheidungsmerkmal gegenüber gedruckten Editionen angesehen werden kann. Die durch Verlinkungen entstehenden Datenstrukturen können aber nicht nur genutzt werden, um die Benutzbarkeit digitaler Editionen … „Sichtbarmachung von historischen Graphnetzwerken als inhärenter Teil digitaler Editionen“ weiterlesen

Die Geschichte der Kartographie forschend erlernen. Präsentation einer virtuellen Forschungsumgebung

Julia Breittruck, Gerda Brunnlechner, Bernhard Fechner (Fernuniversität Hagen) Montag, 4. Oktober 2021, 11:00-11:30 Uhr Das Historische Institut der FernUniversität bietet im Rahmen des Masterstudiengangs ‚Geschichte Europas‘ einen Kurs zum Erlernen und Erforschen der Geschichte der vormodernen Kartographie an. Die Studierenden erwerben anhand von Studienbriefen Kenntnisse und können das erworbene Wissen in virtuellen sowie Präsenzveranstaltungen vertiefen. Die Open Source-Software ‚Digital Mappa‘ bietet besondere Funktionen digitalen Lehrens und Lernens, die im Rahmen des Projekts an die Bedürfnisse der FernUniversität angepasst wurden. Studierende betrachten, vergleichen und diskutieren auf einem … „Die Geschichte der Kartographie forschend erlernen. Präsentation einer virtuellen Forschungsumgebung“ weiterlesen

Oral history digital. Audiomining und andere Sprachtechnologien zur (Sekundär)Analyse biographischer Interviews. Forschungsstand und Perspektiven

Almut Leh, Dennis Möbus (Fernuniversität Hagen) und Peter Kompiel (Freie Universität Berlin) Montag, 4. Oktober 2021, 10:00-10:30 Uhr Oral History-Interviews sind ebenso attraktive wie anspruchsvolle Quellen für die zeithistorische Forschung. Zudem gewinnt angesichts des Verschwindens der Zeitzeugen die Sekundärauswertung an Bedeutung. Dabei stellen OH-Interviews nicht nur als qualitative Quellen, sondern auch als audiovisuelle Daten eine große Herausforderung für die Analyse dar. Audiomining bietet eine für Oral History-Daten optimierte Spracherkennung, integriert in eine Arbeitsumgebung, die eine nutzerspezifische Recherche bei direktem Zugriff auf das Audiosignal und … „Oral history digital. Audiomining und andere Sprachtechnologien zur (Sekundär)Analyse biographischer Interviews. Forschungsstand und Perspektiven“ weiterlesen

Historische Fotografien virtuell erkunden – ein neues Forschungswerkzeug

Heike Messemer und Jonas Bruschke (Universität Würzburg)Montag, 4. Oktober 2021, 9:00-9:30 Uhr Historische Fotografien von Städten und deren architektonisches Erscheinungsbild stellen eine wichtige Grundlage für die Arbeit von Historiker*innen dar. Online zugänglich sind sie in Bildrepositorien, die zunehmend ein wichtiges Recherchewerkzeug für die Wissenschaft sind. Ziel der Nachwuchsforschungsgruppe HistStadt4D ist es, multimediale Möglichkeiten zur Suche, 4D-Darstellung und Analyse von bestehenden Bilddigitalisaten zu entwickeln und damit ein neues Forschungswerkzeug zu konzipieren. In einem interaktiven, digitalen 3D-Stadtmodell von Dresden werden historische Fotografien, ausgehend von den jeweiligen … „Historische Fotografien virtuell erkunden – ein neues Forschungswerkzeug“ weiterlesen

Abschlussdiskussion der AG Datenzentren auf der vDHd

Die AG Datenzentren des DHd hat sich mit der Workshopreihe „Hands on Research Data“ (https://vdhd2021.hypotheses.org/178) mit vielen Beiträgen an der vDHd beteiligt.  Jetzt wollen wir in einer Abschlussdiskussion die Ergebnisse dieser Workshops präsentieren und diskutieren. Damit soll eine wichtige Basis zur Diskussion von Guidelines und Anforderungen an Datendokumentationen in den Geisteswissenschaften geschaffen werden. Interessierte sind […]

CfP: Diskussionsforum auf dem Historikertag 2021: FAIR-flixte Daten. Partizipativ über Datentransparenz diskutieren.

Eine Veranstaltung im Rahmen des Praxislabors der AG Digitale Geschichtswissenschaft, 7. Oktober 2021, 9-10:30 Uhr Marina Lemaire (Universität Trier) Katrin Moeller (Universität Halle) Datentransparenz und Nachvollziehbarkeit von Forschungsdaten sind ein wichtiges Kriterium beim Umgang mit Forschungsdaten nach den „FAIR-Prinzipien“. Sie orientieren sich stark an Bedürfnissen naturwissenschaftlicher Fächer mit ihren häufig exakt zu definierenden Kategorien und […]

CfP: Diskussionsforum auf dem Historikertag 2021: FAIR-flixte Daten. Partizipativ über Datentransparenz diskutieren.

Eine Veranstaltung im Rahmen des Praxislabors der AG Digitale Geschichtswissenschaft Marina Lemaire (Universität Trier) Katrin Moeller (Universität Halle) Datentransparenz und Nachvollziehbarkeit von Forschungsdaten sind ein wichtiges Kriterium beim Umgang mit Forschungsdaten nach den „FAIR-Prinzipien“. Sie orientieren sich stark an Bedürfnissen naturwissenschaftlicher Fächer mit ihren häufig exakt zu definierenden Kategorien und Messwerten. Auch in den historischen Disziplinen besitzen Quellennachweise und Quellenkritik eine lange Tradition. Bei der Vielzahl hermeneutischer Methoden oder kontextbezogenen Interpretationen gebrochener Quellen fällt es allerdings sehr viel schwerer, die genaue Nachvollziehbarkeit von Kategorien … „CfP: Diskussionsforum auf dem Historikertag 2021: FAIR-flixte Daten. Partizipativ über Datentransparenz diskutieren.“ weiterlesen

[Praxislabor] Digitale Bibliographien und Recherchetools in den Fachinformationsdiensten

Wiebke Herr, Anna Lisa Schwartz, Philipp Weiß (Bayerische Staatsbibliothek), Andreas Hartmann (Universität Augsburg) Digitale Bibliographien und Recherchetools in den Fachinformationsdiensten. Gnomon Bibliographische Datenbank, Deutsche Historische Bibliografie und historicumSEARCH Der Umgang mit digitalen Recherchewerkzeugen ist eine Voraussetzung für erfolgreiche wissenschaftliche Arbeit in Studium, Lehre und Forschung. Bibliographische Datenbanken und Metasuchangebote haben sich seit längerem in den Geschichtswissenschaften etabliert und bieten signifikante Mehrwerte gegenüber Printangeboten: Die Datenbestände sind breiter und aktueller angelegt, moderne Suchmaschinentechnologie erleichtert die Auffindbarkeit und Nachnutzung der Daten, und die Recherche ist unabhängig … „[Praxislabor] Digitale Bibliographien und Recherchetools in den Fachinformationsdiensten“ weiterlesen

[Praxislabor] Python Basics und erste Anwendungsbeispiele im Bereich Web Scraping und Text Mining

Martin Dröge Es ist zwar nicht eingetreten, was der französische Historiker Emmanuel Le Roy Ladurie 1968 in der Wochenschrift ‘Le Nouvel Observateur’ schrieb: „Der Historiker von morgen wird Programmierer sein oder es wird ihn nicht mehr geben“.((König, Mareike (2015): „Digitale Geschichtswissenschaft – Einleitung #dguw15“. http://dguw.hypotheses.org/84.)) Dennoch erleichtern Kenntnisse im Programmieren auf vielfältige Weise die Arbeit von Historiker*innen, nicht zuletzt angesichts einer immer weiter ansteigenden digitalen Datenflut. Große Korpora von Texten, Bildern und anderen Digitalisaten lassen sich mithilfe kurzer Skripte erfassen, aufbereiten und weiterverarbeiten, sei … „[Praxislabor] Python Basics und erste Anwendungsbeispiele im Bereich Web Scraping und Text Mining“ weiterlesen

Citizen Science: Erfassungsprojekt von Massendaten mit „DES“ – Hallische Heiratsgeschichten

Massendaten durch OCR und HCR zu erfassen ist gängig, hat jedoch den Nachteil der nachträglichen Entitätsextraktion und hoher Aufwände im Preprocessing. Ein zweiter Weg ist die Erfassung Mithilfe der geballten Power von Citizen Science.  Die Professur für Wirtschafts- und Sozialgeschichte der Martin-Luther-Universität Halle-Wittenberg, der Verein für Computergenealogie und das Historische Datenzentrum Sachsen-Anhalt haben hierfür ein […]

[Praxislabor] Ego-Dokumente als historische Quelle: Recherchieren, Publizieren, Forschen

mit Dr. Katarzyna Adamczak und Dr. Arnošt Štanzel 17.05.2021, 10.00-11.30 Uhr Ego-Dokumente als Quellen für historische Forschung bieten ein breit ausgefächertes und höchst spannendes Untersuchungsfeld. Was macht sie so interessant? Erstens, sie umfassen Textsorten, die freiwillig oder unfreiwillig entstanden. Zur erstgenannten Kategorie zählen Texte wie Autobiographien, Memoiren, Reiseberichte, Tagebücher oder Briefe, die u. U. für eine Veröffentlichung bestimmt waren. Der zweiten Kategorie gehören Texte an, bei denen an eine explizite längerfristige Überlieferung oder Veröffentlichung nicht oder nur unter bestimmten Voraussetzungen gedacht war, z.B. Schriftstücke … „[Praxislabor] Ego-Dokumente als historische Quelle: Recherchieren, Publizieren, Forschen“ weiterlesen

[Praxislabor] Digital Humanities Virtual Laboratory (DHVLab): Eine digitale Lehr- und Forschungsinfrastruktur für die digitalen Geisteswissenschaften

Christian Riepl (riepl@lmu.de), Leiter IT-Gruppe Geisteswissenschaften (ITG) Dipl.-Inf. Linus Kohl (kohl@munichresearch.com), Munich Research Stephan Lücke (luecke@lmu.de), ITG, Stellv. Leiter und Projektleitung VerbaAlpina Julian Schulz M.A. (julian.schulz@lmu.de), ITG, Forschungsdatenmanagement Mit dem DHVLab wird eine modulare Infrastruktur vorgestellt, die auf den steigenden Bedarf an Ausbildungsmöglichkeiten in Methoden der Digital Humanities reagiert und sich für einen Einsatz in Lehre und Forschung gleichermaßen eignet. Das DHVLab bietet Lehrenden und Studierenden einen niederschwelligen Zugang zu zentralen Feldern der digitalen Geisteswissenschaften. Einmal registriert, können verschiedene Dienste ohne Installationsaufwand unmittelbar, orts- … „[Praxislabor] Digital Humanities Virtual Laboratory (DHVLab): Eine digitale Lehr- und Forschungsinfrastruktur für die digitalen Geisteswissenschaften“ weiterlesen

[Praxislabor] Gelehrte Journale und Zeitungen als Netzwerke des Wissens im Zeitalter der Aufklärung

Dr. Maja Eilhammer, Veronika Hausler, Sylvia Memmleb (BSB München), Reinhard Spiekermann, Jenny Standke, (Akademie der Wissenschaften zu Göttingen) Deutungskämpfe in den Gelehrten Journalen GJZ 18 stellt ein effektives Navigationsinstrument für die Rezensionszeitschriften der gesamten Aufklärungsepoche dar. Das Projekt arbeitet seit dem Jahr 2011 unter der Trägerschaft der Akademie der Wissenschaften zu Göttingen in enger Kooperation mit der SUB Leipzig und der BSB München. Insgesamt 65 deutschsprachige Periodika des 18. Jahrhunderts werden erschlossen und in einer Datenbank der Forschung zur Europäischen Aufklärung zur Verfügung gestellt. Bis 2025 … „[Praxislabor] Gelehrte Journale und Zeitungen als Netzwerke des Wissens im Zeitalter der Aufklärung“ weiterlesen

[Praxislabor] Transkribus: Eine Plattform für Transkription, Erkennung und Suche von historischen Dokumenten

Tamara Terbul (Tamara.Terbul@uibk.ac.at) und Günter Mülberger (Guenter.Muehlberger@uibk.ac.at) Transkribus ist eine Plattform, welche die Transkription, Erkennung und Suche von historischen Dokumenten ermöglicht. Dies geschieht auf Basis der sogenannten Handwritten Text Recognition (HTR), welche durch Trainingsdaten ein Modell für die automatische Erkennung von handschriftlichen Texten erzeugt. Im Transkribus Hands-on-Workshop wird Schritt für Schritt erklärt, wie man nach dem Upload mithilfe der Software seine eigenen Dokumente segmentiert, transkribiert und somit die Daten für sein eigenes Trainingsmodell aufbereitet. Anschließend werden noch weitere Möglichkeiten, die nach der Anwendung des … „[Praxislabor] Transkribus: Eine Plattform für Transkription, Erkennung und Suche von historischen Dokumenten“ weiterlesen

[Praxislabor] Geovistory – eine virtuelle Forschungsplattform für Geisteswissenschaften

Francesco Beretta: francesco.beretta@cnrs.fr und David Knecht: knecht@kleiolab.ch Geovistory ist eine von Projekten in der Schweiz, Frankreich und Holland genutzte Webplattform für geistes- und  – spezifisch – geschichtswissenschaftliche Forschungsprojekte. Geovistory soll Forscher/innen als einfach zugängliches, digitales Werkzeug unterstützen und deren Forschung auf attraktive Weise Geschichtsinteressierten zugänglich machen. Dafür bildet Geovistory den gesamten Forschungsprozess digital ab: Von der Erfassung der Quellen, über die Annotation von Texten, die Verwaltung von projektspezifische Vokabularen, den Aufbau eines Informationsnetzes und die (räumliche) Analyse der Forschungsdaten bis hin zur Publikation der … „[Praxislabor] Geovistory – eine virtuelle Forschungsplattform für Geisteswissenschaften“ weiterlesen

[Praxislabor] Arbeiten mit (vielen) retrodigitialisierten Quellen: Texterkennung und Metadatenextraktion in PDF-Dateien mit freier Software

Moritz Mähr (wiss. Mitarbeiter an der Professur für Technikgeschichte, Zürich) Lernen Sie in PDF-Dateien Texterkennung (OCR) und Textextraktion mit kostenlosen Befehlszeilenwerkzeugen wie Tesseract und Poppler durchzuführen und sich schnell einen Überblick über eine grosse Anzahl von PDF-Dokumenten zu verschaffen. Zielpublikum Wenn Sie eines oder mehrere der folgenden Kriterien erfüllen, wird diese Lektion für Sie lehrreich sein: Sie arbeiten mit textbasierten Quellen und müssen den Inhalt der Quellen extrahieren. Ihre Dateien liegen im PDF-Format vor oder können in dieses Dateiformat konvertiert werden. Sie arbeiten mit … „[Praxislabor] Arbeiten mit (vielen) retrodigitialisierten Quellen: Texterkennung und Metadatenextraktion in PDF-Dateien mit freier Software“ weiterlesen

[Praxislabor] Digitale Computergenealogie und kollaborative Datenerhebung mit „DES“. Ein Citizen Science-Projekt

Moritz Müller (wiss. Mitarbeiter der Professur Wirtschafts- und Sozialgeschichte, MLU Halle-Wittenberg) und Katrin Moeller (Leiterin des Historischen Datenzentrums Sachsen-Anhalt) Genealogische Vereine haben im letzten Jahrzehnt riesige Datenbanken kollaborativ erarbeitet. Citizen Science haben einen großen Zulauf. Besonders der Verein für Computergenealogie bietet Daten offen und für alle zugänglich an und hat zahlreiche Werkzeuge und Hilfsmittel zur kollaborativen Zusammenarbeit entwickelt. Mithilfe des digitalen Erfassungssystems „DES“ läuft im Frühjahr 2021 ein großes digitales Erfassungsprojekt zu den evangelischen Kirchenbüchern der Mariengemeinde und der St.-Georgen-Gemeinde in Halle (Saale) aus … „[Praxislabor] Digitale Computergenealogie und kollaborative Datenerhebung mit „DES“. Ein Citizen Science-Projekt“ weiterlesen

[Praxislabor] Historische Karten mit Qgis erstellen und publizieren. Digitaler Workshop

Katrin Moeller Webservices und Geodatenportale bieten mittlerweile gute Grundlagen zur Nachnutzung von meist modernen räumlichen Daten. Sie basieren auf freien Lizenzen und ermöglichen damit einen effektiven Zugriff und die schnelle digital-grafische Umsetzung darauf basierender räumlicher Informationen. Daher nimmt auch innerhalb der Digital Humanities-Community das Interesse an der Verarbeitung von räumlichen Informationen und Analysen erheblich zu. Mittlerweile gibt es mehrere große Projekte, die sich mit der Georeferenzierung historischer Karten und der Erzeugung und Verarbeitung von Normdaten für historische Raumbeziehungen beschäftigen. Allerdings bieten längst nicht alle … „[Praxislabor] Historische Karten mit Qgis erstellen und publizieren. Digitaler Workshop“ weiterlesen

[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen

Olaf Simons Kaum eine Software zieht in den Digital Humanities derzeit ein so großes Interesse auf sich wie Wikibase, die Datenbank-Erweiterung für Mediawikis, die Wikimedia Deutschland federführend für das Wikidata-Projekt entwickelte.Das hat zum einen mit dem Wikidata Projekt selbst zu tun, das sich in den letzten Jahren zum Brückenkopf zwischen den verschiedensten Datenbankprojekten entwickelte. Das hat im selben Moment damit zu tun, dass die größeren Bibliothekskonsortien diese Software soeben im Interesse an einem in Zukunft globalen Normdatenaustausch evaluieren.Vor allem die konzeptionelle Offenheit und Transparenz … „[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen“ weiterlesen