Konferenz-Programm
Bitte wählen Sie ein Tagesprogramm:
PDF-Version des Konferenz-Programms:
Hinweis: Kurzfristige Änderungen des Programms sind vorbehalten. Änderungen werden auf dieser Webseite bekanntgegeben und hier in das Programm eingepflegt. Bitte beachten Sie, dass der PDF-Download nicht alle kurzfristigen Änderungen enthalten muss.
Dienstag, 27. Februar 2018
Dieser Workshop führt anhand praktischer Beispiele in die digitale Sammlungsarbeit mit WissKI und in die Modellierung mit dem CIDOC Conceptual Reference Model (CRM) ein. Durch die praktische Arbeit lernen die Teilnehmer die im Projekt „Objekte im Netz” bereitgestellte Modellierung sowie die Konfiguration der Virtuellen Forschungsumgebung (VFU) für universitäre Sammlungen kennen.
Martin Scholz1, Sarah Wagner2
1: Friedrich-Alexander-Universität Erlangen-Nürnberg, Deutschland
2: Germanisches Nationalmuseum, Deutschland
This workshop by the DARIAH working group *Text and Data Analytics* and *Digital Humanities Flanders* (DHuF) will bring together practicioners to present and discuss recent developments in the field, with David Bamman (University of California, Berkeley) presenting a keynote lecture. The workshop also aims to reach non-presenting participants who take an active interest in distributional models.
Fotis Jannidis1, Mike Kestemont2
1: Universität Würzburg, Deutschland
2: Universität Antwerpen, Belgien
Markus Krug1, Ngoc Duyen Tanja Tu2, Lukas Weimer1, Isabella Reger1, Leonard Konle1, Fotis Jannidis1, Frank Puppe1
1: Universität Würzburg, Deutschland
2: Institut für Deutsche Sprache, Deutschland
Zum aktuellen Zeitpunkt finden die Entwicklungsprozesse für Forschungssoftware in den Digital Humanities häufig noch isoliert, unreflektiert, undokumentiert, nicht an gängigen Industriestandards ausgerichtet und insbesondere nicht innerhalb eines organisierten, disziplinspezifischen Rahmens statt. Aus dieser Situation heraus ergibt sich ein eminentes Nachhaltigkeitsproblem für geisteswissenschaftliche Forschungssoftware.
Der hier vorgeschlagene Workshop versteht sich als eine erste Maßnahme, auch in den Digital Humanities im deutschsprachigen Raum einen kritischen Reflexionsprozess zum Thema ‘Nachhaltige Softwareentwicklung’ anzustoßen und durch die Etablierung einer gemeinsamen Diskussionsplattform ein stärkeres Bewusstsein für diesen zentralen, aber vernachlässigten Baustein guter Digital Humanities Forschung zu wecken.
Torsten Schrade1, Alexander Czmiel2, Stephan Druskat3
1: Akademie der Wissenschaften und der Literatur Mainz, Deutschland
2: Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland
3: Humboldt-Universität zu Berlin, Deutschland
Wie alle Forschungsdatenarchive profitieren Repositorien für audiovisuelle Daten von einem voranschreitenden Standardisierungsprozess. Infrastrukturinitiativen wirken als starke integrative Kraft und haben mit der Etablierung von Standards, die in allen Aspekten des Datenlebenszyklus zur Anwendung kommen, gemeinsame Lösungen geschaffen. Forschungsdatenrepositorien für Sprachdaten sind herausgefordert, gültige Standards zu implementieren und gleichzeitig attraktive Dienste anzubieten, die die Spezifika der Datentypen und die Bedürfnisse der jeweiligen Nutzergruppen berücksichtigen, um eine erfolgreiche Nachnutzung von Forschungsdaten zu befördern.
Der Workshop soll Archivbetreibern, Datenkuratoren, Datenproduzenten und Datenkonsumenten die Möglichkeit zum Austausch über Angebote, Bedarfe und zentrale Weiterentwicklungen geben. Der Workshop richtet sich an Betreiber von Forschungsdatenrepositorien mit audiovisuellen (Sprach-)Daten sowie Mitarbeiter von Institutionen, die Forschungsdatenmanagement für Forschung mit audiovisuellen Daten anbieten. Ebenso sind auch Wissenschaftler als aktive oder potentielle Nutzer von Forschungsdatenrepositoren angesprochen.
Jonathan Blumtritt, Felix Rau
Universität zu Köln, Deutschland
Ziel des Workshops ist es daher, den Stand der Technik, aktuelle Herausforderungen und Perspektiven für den zukünftigen Einsatz und Weiterentwicklung der Audio Mining Technologien darzustellen und zu diskutieren. Dafür wollen wir Forscherinnen und Forscher aus den Sprachtechnologien mit Forscherinnen und Forscher aus den Geistes- und Kulturwissenschaften zusammenbringen. Der Workshop bietet einen Rahmen um technische Forstschritte zu präsentieren, Beispiele der Anwendungen von Sprachtechnologien in der Forschung vorzustellen, Erfahrungen und Herausforderungen zu diskutieren sowie neue Nutzungsszenarien zu entwickeln. So werden konkrete Ergebnisse und Anwendungen aus dem BMBF Projekt KA³, die im »Kölner Zentrum Analyse und Archivierung von AV-Daten« künftig zur Verfügung stehen, vorgestellt und Anwendungsmöglichkeiten diskutiert, die für die Weiterentwicklung der Projektergebnisse Anregungen geben sollen. In dem Workshop soll der Austausch zwischen Forscherinnen und Forschern aus der Informatik und den Geisteswissenschaften gefördert werden.
Der Workshop richtet sich nicht nur an Forscherinnen und Forscher aus dem Bereich der Sprachtechnologie oder der Geistes- und Kulturwissenschaften, die mit Sprachtechnologien arbeiten, sondern auch und besonders an interessierte Geistes- und Kulturwissenschaftler und -wissenschaftlerinnen, deren Forschung durch den Einsatz von Sprachtechnologien profitieren könnte, sowie an Archivare und Dokumentare, die audiovisuelle Daten bereitstellen.
Joachim Köhler2, Almut Leh3, Nikolaus Himmelmann1, Felix Rau1
1: Universität zu Köln, Deutschland
2: Fraunhofer IAIS
3: FernUniversität in Hagen
Jochen Strobel1, Thomas Bürger2
1: Philipps-Universität Marburg, Deutschland
2: Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Claudia Müller-Birn1, Georg Schelbert2, Martin Raspe3, Thorsten Wübbena4
1: Freie Universität Berlin, Deutschland
2: Humboldt-Universität zu Berlin
3: Max-Planck-Institut für Kunstgeschichte Rom
4: Goethe-Universität Frankfurt
Kristina Friedrichs1, Sander Münster2, Florian Niebling1, Ferdinand Maiwald2, Jonas Bruschke1, Kristina Barthel2
1: Universität Würzburg, Deutschland
2: TU Dresden, Deutschland
Anna Aschauer1, Marco Büchler1, Tobias Gradl2, Andreas Henrich2
1: Institut für Europäische Geschichte, Deutschland
2: Otto-Friedrich-Universität Bamberg
Chair: Andreas Speer, Universität zu Köln
Prof. Dr. Dr. h. c. Sybille Krämer
Freie Universität Berlin, Institut für Philosophie
Geht es um eine Kritik an der digitalen Vernunft? Oder kann die ‚digitale Vernunft‘ ihrerseits eine kritische Perspektive eröffnen, insofern ‚der Stachel‘ ihrer Praktiken das Selbstverständnis von Geisteswissenschaften herausfordert? Die leitende Idee ist, dass ein Nachdenken über die ‚strukturentdeckenden ‘, über ‚datengetriebene‘ algorithmische Forschungsverfahren der Digital Humanities die Geistes- und Kulturwissenschaften anregen kann (oder anregen sollte) zu einer Metareflexion, durch welche auch die Verfahrensweisen ‚herkömmlicher‘ geistes- und kulturwissenschaftlicher Forschungsarbeit neu beleuchtet werden. Der dabei eingenommene methodische Gesichtspunkt ist ein praxeologischer: Was eine Wissenschaft ist, zeigt sich im Insgesamt ihres Forschungs-, Lehr- und Vermittlungshandelns.
Alle Geistes- und Kulturwissenschaften zielen darauf, etwas das Texten, Bildern, Artefakten implizit ist, explizit zu machen – ob nun durch traditionelle Interpretation oder algorithmische Datenanalyse. Doch bereits diese Unterscheidung von ‚Interpretation‘ und ‚Datenanalyse‘ hinkt, denn es gibt weder rohe Daten noch material- und texturunabhängige Interpretationen. Doch wenn das so ist: Warum sollte eine maschinelle – im Idealfall statistisch-empirische – Auswertung großer Datenbestände die herkömmlichen geisteswissenschaftlichen Verfahrensweisen in neuem Licht erscheinen lassen?