Posted on

QGIS Cloud: Teile deine Karten und Geodaten

Die QGIS Cloud der UZH ist bereit! In der Cloud können Studierende und Forschende Karten und Geodaten publizieren, mit anderen teilen – oder sich von anderen inspirieren lassen. Was die QGIS Cloud alles kann und was Nutzer*innen wissen müssen, erklärt Leyla Ciragan vom DLF und GIS Hub.

Leyla, was ist die QGIS Cloud genau?
Mit der QGIS Cloud stellen wir an der UZH eine Geodaten-Infrastruktur zur Verfügung. Wer zum Beispiel eine Karte mit der QGIS Desktop Software erstellt hat, kann diese über ein Plugin online stellen und so mit anderen teilen. Auch die zur Karte gehörigen Daten lassen sich so einfach teilen und/oder in andere Projekte einbinden. Dabei kann ich die Sichtbarkeit, d.h. mit wem ich meine Daten teilen möchte, selbst steuern: nur mit meinem Forschungsteam, meinen Seminarteilnehmenden oder ganz öffentlich. Die Sichtbarkeit ist ein Beispiel dafür, wie wir die QGIS Cloud zusammen mit der Entwicklerfirma Sourcepole auf die Bedürfnisse an der UZH zugeschnitten haben.

Weshalb braucht die UZH eine QGIS Cloud?
Wir haben festgestellt, dass sich viele Personen an der UZH, die nicht aus den klassischen GIS-Disziplinen wie Geografie oder Informatik kommen, mit räumlichen Fragen befassen. Ich denke an Linguist*innen oder Sozialwissenschaftler*innen. Wir möchten diesen Personen die Möglichkeit geben, ihre Webmaps einfach und unkompliziert, d.h. ohne Programmierkenntnisse publizieren zu können. Wir möchten aber auch (fachfremde) Dozierende ansprechen, die QGIS Cloud in der Lehre zu nutzen. Zum Beispiel könnte eine Karte Teil eines Leistungsnachweises sein. Wir haben uns für die QGIS Cloud entschieden, weil QGIS als open source Lösung für alle zugänglich ist – auch wenn sie einmal nicht mehr an der UZH studieren oder forschen. Um auf die Frage zurückzukommen: Ob die UZH wirklich eine QGIS Cloud braucht, möchten wir genau mit diesem Projekt herausfinden. Besteht eine hohe Nachfrage, können wir die Kapazitäten ausbauen.

Wer kann die QGIS Cloud nutzen?
Alle an der UZH, weil der Zugang über die Switch edu-ID läuft. Mit dieser ID kann man sich einmalig für die QGIS Cloud registrieren und diese danach nutzen. Um Karten oder Daten aus der QGIS Desktop-Software heraus zu teilen, braucht es zusätzlich zur QGIS Software das QGIS Cloud Plugin.

Was muss ich bei der Nutzung der QGIS Cloud beachten?
Ganz wichtig: den Datenschutz. Ich sollte nur Daten öffentlich teilen, die auch öffentlich sind. Wenn ich zum Beispiel auf dem Open Data Portal der Stadt Zürich das Baumkataster herunterlade und die Bäume auf einer Karte anzeigen lasse, ist das unkritisch. Bei sensiblen Daten, die ich selbst erhoben oder von anderen Forscher*innen erhalten haben, muss ich genau abklären, wie ich diese Daten verwenden und veröffentlichen darf. In diesem Fall ist es sinnvoller, die Daten zum Beispiel nur innerhalb meiner Forschungsgruppe zu teilen.

Was passiert mit meinen Daten, wenn ich sie in der Cloud teile?
Es gibt keine Übersichtsseite, die mir alle hochgeladenen Daten und Karten zeigt. Die Daten werden über einen Link oder einen QR-Code geteilt, d.h. sie sind nur darüber zugänglich. Und mit wem ich meine Daten teile, kann ich steuern. Missbrauch ist theoretisch möglich, aber wenn ich mir gut überlege, mit wem ich die Daten teile, dann kann ich das Risiko dafür miniminieren. Hinzu kommt, dass jemand zwar mit meinen Daten arbeiten kann, doch die Änderungen werden nicht an meinen originalen Daten vorgenommen, sondern auf einer Kopie.

Wo finde ich eine Anleitung oder ein Tutorial?
Wir haben ganz viele Video-Tutorials produziert, die verschiedene Funktionen der QGIS Cloud Schritt für Schritt in wenigen Minuten erklären. Dazu gehören wie ich mich registrieren kann, wie ich das QGIS Plugin herunterlade, wie ich eine Karte teile und danach im Browser aufrufe etc.

Hier geht’s zur QGIS Cloud der UZH.

Workshops zur QGIS Cloud:
– 1. Februar 2023 (im Rahmen der “Teaching Inspiration Week”)
– 7. März 2023 (siehe Workshops)

Dieser Beitrag wurde von Katia Soland (GIS Hub) verfasst und ursprünglich hier publiziert.

Posted on

Archäologie blickt auch in die Zukunft

Einen prähistorischen Verhüttungsofen 3D drucken, Gelände abtasten und rekonstruieren – die prähistorische Archäologie arbeitet mit einer Vielzahl an digitalen Methoden. Philippe Della Casa – Professor an der Philosophischen Fakultät gibt uns einen Einblick.

Ich freue mich, dass wir heute über ein ganz spezielles Fachgebiet an der Philosophischen Fakultät sprechen können – Herr Della Casa, bitte stellen Sie sich kurz vor!

Mein Name ist Philippe Della Casa, ich bin Professor für Prähistorische Archäologie an der Philosophischen Fakultät der UZH – ehemals wurde das Fach Ur- und Frühgeschichte genannt. Meine Interessensgebiete liegen in erster Linie in der Vorgeschichte Europas, aber auch im interkontinentalen komparativen Bereich, wenn es z.B. um den Vergleich prähistorischer Gesellschaften geht, die in ähnlichen Rahmenbedingen in unterschiedlichen Gebieten lebten. Speziell interessieren mich hier als Schwerpunkt Berggesellschaften – in Englisch Mountain Archeology -; bei uns sind das spezifisch die Berggesellschaften in den Alpen. Wir haben aber auch Kooperationen und Projekte in anderen Bergregionen, z.B. in Bhutan, im Himalaya, auch viele Kontakte in die Pyrenäen, Karpaten oder in die Rocky Mountains und nach Feuerland.

Daneben definiere ich mich in erster Linie als Wirtschafts- und Gesellschaftsarchäologe, dabei liegt mein Schwerpunkt in der Siedlungs- und Landschaftsforschung und in der Art, wie Menschen mit ihrer Umwelt interagieren, welche gesellschaftliche Konstrukte vorhanden sind.

Könnten Sie für uns Laien kurz den Zeithorizont umreissen, in dem sich diese Forschung bewegt?

Meine Schwerpunktgebiete in Europa sind die sogenannten Metallzeiten, das ist ungefähr das 4. bis 1. Jahrtausend vor Christus – man könnte es auch so sagen: «Ötzi»-Zeit bis zum Ende der Eisenzeit, der keltischen Periode, d.h. bis zur Eroberung Galliens durch die Julius Caesar ca. 50 v.Chr.

Was für Berggesellschaften hat es in dieser Zeit in den Alpen? Ich kann mir gar nicht vorstellen, dass man da überleben konnte…

Das sind frühe alpine Bevölkerungen, die sich speziell auf die alpinen Rahmenbedingungen «eingelassen» haben und in diesem Umfeld auch wirtschaftlich interagierten. Diese Rahmenbedingungen sind z.B. die Steilheit des Geländes, eine starke Höhengliederung, klimatische Exposition, beschränkte Ressourcen, insgesamt Unsicherheiten und lange dauernde Winter.

Rahmenbedingungen wie für die heutigen Bergbauern…

Genau, in jener Zeit fing es etwa an, dass es erste dauerhafte Siedlungen in den Berggebieten gab. In den «Alpenfeldzügen» wurden dann die letzten aufmüpfigen Bergvölker durch Augustus besiegt und ins römische Reich integriert.

Welche digitale Methoden setzen Sie in der Prähistorischen Archäologie ein?

Es gibt ganz viele Anwendungsgebiete – ich werde heute drei Gebiete vorstellen:

Ein klassisches Anwendungsgebiet mit digitalen Methoden sind die «nicht-invasiven Prospektionen». Das können geophysikalische Prospektionen sein, die auf der Bodenoberfläche stattfinden. Dabei werden mit speziellen Geräten Widerstände gemessen, die ein Abbild unter dem Boden ergeben. Es können Strukturen erkannt, Dichteunterschiede gemessen werden uvm.

Es gibt aber auch luftbild- oder sogar satellitengestützte Prospektionen – hier ist man dann im Bereich des «Remote Sensing». Das bedeutet konkret, aus der Entfernung Oberflächen abzutasten: Das Erdinnere wird dabei nicht untersucht. Über die Oberflächenzeichnung kann man z.B. Grabhügel oder alte Wallanlagen entdecken. Häufig manifestieren sich über die Oberflächen jedoch auch Strukturen darunter. Ein gutes Beispiel sind Luftbilder von Kornfeldern: Hier kann man Strukturen erkennen, wie z.B. eine Mauer unter dem Boden, die bedingen, dass das Korn unterschiedlich wächst. Bildgebende Verfahren können diese Strukturen dann darstellen.

Digitales Geländemodell von Ramosch-Motta GR nach Drohnenflug (T. Sonnemann, U-Bamberg).

Was für Daten bekommt man aus diesen Methoden zurück, Zahlen, oder andere Formate?

Ganz unterschiedlich natürlich, je nach Methoden. In unserem zweiten grossen Anwendungsgebiet, GIS (Geographic Information System), arbeiten wir mit herkömmlichen Datenformaten für Geodaten, die wir dann in ein GIS importieren können. So können wir die erhaltenen Daten als zusätzliche Layers auf Karten darstellen und analysieren.

Wir verwenden hier am Institut eine kostenpflichtige Software eines bekannten Herstellers, vermehrt und insbesondere die Studierenden aber auch Open Source Software – GRASS GIS und QGIS.

Teilweise importieren wir die eigenen Daten in das GIS und erstellen neue Karten, manchmal haben wir auch nur eine «physische» Karte und georeferenzieren diese dann im GIS manuell.

In der Disziplin gab es einen fliessenden Übergang, was den Einsatz digitaler Methoden angeht – in meinen ersten landschaftsarchäologischen Arbeiten habe ich Fundpunkte noch von Hand in physische Karten eingetragen, mittlerweile macht man das automatisiert vor Ort. Man sieht hier schön den Übergang von analogen zu digitalen Humanities.

Umlandmodellierung in GIS mit 15-/60-/180-Minuten-Gehdistanz um Airolo-Madrano TI (M. Sauerbier ETHZ, Ph. Della Casa UZH).

Für QGIS gibt es auch eine mobile App, mit der man Standorte georeferenzieren kann – wird diese auch eingesetzt?

Genau, das hat in den letzten Jahren angefangen und wird die Zukunft sein: Im Feld wird nicht mehr mit Papierdokumentation gearbeitet, sondern direkt mit dem Tablet. Die erfassten Daten können sofort im GIS integriert werden. Dies ist vielleicht nicht wahnsinnig spektakulär, erspart aber sehr viele Zwischenschritte.

Was ist das dritte Anwendungsgebiet?

Ein drittes grosses Anwendungsgebiet sind 3D-Graphikrekonstruktionen: Modellierungen im 3D-Raum. Wir arbeiten z.B. mit Structure from Motion (SfM), einer photogrammetrischen Dokumentationstechnik. Man macht viele Fotografien einer archäologischen Fundstelle. Die Fotografien enthalten referenzierte Punkte, was erlaubt, mit einer speziellen Software ein 3D-Modell zu erstellen. Dieses Modell kann man entweder auf dem Bildschirm darstellen und manipulieren (drehen, zoomen, etc.), oder man kann es sogar mit dem 3D Drucker ausdrucken.

Für die Scientifica 2017 haben wir beispielsweise ein 3D Modell eines prähistorischen Ofens aus Daten eines Fundortes erstellt. Es handelte sich um einen Kupferverhüttungsofen aus dem 1. Jahrtausend im Bündner Alpenraum. Diesen haben wir ausgegraben, dokumentiert und mit SfM photogrammetrisch modelliert. Aus dem photogrammetrischen Modell konnten wir anschliessend mit dem 3D Drucker einen Miniatur-Verhüttungsofen drucken, mit dem man den Besuchern der Scientifica die Verwendung demonstrieren konnte.

DfM-Modell eines Verhüttungsofens aus dem 3D-Drucker (Ph. Della Casa UZH).

Wie steigt man als Anfänger*in in diese Methoden ein – gerade bei der Bildverarbeitung passiert mathematisch ja einiges…

Die Archäologie ist ein gutes Beispiel für diese Problematik. Wir sind traditionell ein geisteswissenschaftliches Fach und bringen wenig mathematische Kenntnisse mit. Wir zeigen in einführenden Modulen Beispiele dieser Methoden, Anwendungen, gehen aber noch nicht auf den mathematischen Hintergrund ein. Dann bieten wir ganz vereinzelt Module wie «Computer Applications in Archeology» an, in dem dann tatsächlich die Aufgabenstellung und die instrumentellen Methoden angeschaut werden, bis zu einem gewissen Punkt auch die Algorithmen.

Aber: Die wenigsten schaffen dann den Schritt dazu, Algorithmen selber zu entwerfen, sondern bleiben Anwender z.B. der SfM-Software. Wir brauchen dann Partner an anderen Instituten, z.B. beim Institut für Geodäsie und Photogrammetrie an der ETH, die uns im konkreten Fall mit der Mathematik helfen können.

Selbst wenn wir digitale Grundlagen im Fach unterrichten wollten, könnten wir gar nicht, weil die Ressourcen für das Lehrpersonal nicht da sind. Wir ziehen manchmal ExpertInnen im Bereich «Digital Archeology» bei, doch das ist ja nur ein Beispiel von sehr vielen interdisziplinären Methoden. Gerade für aDNA- und Isotopenanalyse, Materialanalytik und sehr vielen weiteren Methoden, die in den letzten 20 Jahren entstanden sind, müssten wir SpezialistInnen haben. Die Methoden finden allenfalls Eingang in die disziplinären Projekte – bei der Lehre stehen wir vor der grossen Herausforderung, was davon aufgenommen werden soll und kann.

Beim Thema GIS wären Spezialistinnen und GIS-Module am Geographischen Institut vorhanden – doch diese sind oft komplett (aus)gebucht, so dass unsere Studierenden dort nicht andocken können. Dazu kommt, dass sie in der Anwendung in eine andere Richtung gehen, als wir in unserem geisteswissenschaftlichen Fach benötigen.

Wie haben Sie sich die digitalen Methoden erarbeitet, wie sind Sie dazu gekommen?

Ganz klar aus meinem Interesse auch für die Naturwissenschaften, der Science Archeology und natürlich durch die Entwicklung der letzten Jahre. Es ergeben sich Möglichkeiten, die man vorher mit den analogen Methoden nicht hatte.

In den Bereich Prospektion sind wir notgedrungen geraten: Grabungen auf dem Feld sind sehr aufwendig und ressourcenintensiv. Man produziert sehr viel Material, das gelagert, dokumentiert und konserviert werden muss, es ist auch administrativ sehr aufwendig, wenn es z.B. um Bewilligungen geht. Die Prospektion dagegen liefert sehr viele Resultate, ist aber viel weniger ressourcenintensiv. Man erhält zwar auch viele Daten, kontrolliert vor Ort aber nur noch fallweise, nicht mehr auf grösseren Flächen.

Mit dem Kanton Graubünden haben wir eine sehr gute Kooperation – doch dort können wir z.Z. keine Siedlungsgrabungen, d.h. Forschungsgrabungen in Siedlungen machen. Aufgrund der Bauaktivitäten gibt es bereits sehr viele Notgrabungen, ausserdem noch sehr viel unbearbeitetes Altmaterial. Prospektionen dagegen dürfen wir machen, die Funddaten liefern wir in die Fundstellendatenbanken des Kantons. Dies ist gut für den Kanton, weil sie dann wiederum ihre archäologischen Zonenkarten präzisieren können, um Verdachtsflächen zu ermitteln. Dadurch ist der Kanton im Idealfall bereits gut vorbereitet, wenn Bauprojekte beantragt werden. Von Gesetzes wegen müssen sie zwar dann Notgrabungen durchführen, doch es beschränkt sich auf die Verdachtsflächen und ist dadurch  fokussierter und zielgerichteter.

Sie hatten einmal erwähnt, dass Sie auch predictive modeling machen – wie funktioniert das genau?

Das ist eine typische GIS Anwendung – wir kartieren und analysieren bekannte Fundstellen vor einem geoinformatischen Hintergrund: Das sind verschiedene Kartenlayer, z.B. Nähe zu Wasser, Bodenqualität, Hangneigung. Aus dieser Analyse leiten wir Principal Components, d.h. Hauptkomponenten von Siedlungssituationen ab (Principal Component Analysis). Wir finden dann vielleicht für typische bronzezeitliche Siedlungen heraus, dass diese auf Hügelkuppen, am Talrand, innerhalb dieser oder jener Vegetationsstufe etc. liegen. Mit einem Vergleich von ähnlichen Merkmalgruppen wird es nun möglich, mögliche Fundstellen vorherzusagen.

Dies ist eigentlich eine spannende Sache – ein grosser Nachteil ist aber, dass man immer nur erfasst, was man bereits kennt. Dagegen kann man aus ergebnisoffenen Prospektionen Fundstellenkategorien erfassen, die man vorher noch nicht kannte. Man muss also die Methoden gut kombinieren. Auch diese offenen Verfahren brauchen aber immer eine Überprüfung vor Ort, man nennt das «ground truthing».

Was müsste es bei uns an der UZH noch geben, damit die Archäologie all diese Methoden in die Lehre oder auch Forschung bringen könnte?

Es fängt bei einfachen Sachen an: Für einen geplanten GIS-Kurs suchten wir vor einigen Jahren einen entsprechend ausgerüsteten Schulungsraum, d.h. Computer mit installierter GIS Software. Die vorhandenen Räume an der MNF waren durchgehend ausgebucht…

Weiter fehlt eine geisteswissenschaftliche Grundausbildung für GIS. Die vorhandenen Module, abgesehen davon, dass sie überbucht sind, gehen immer in andere fachwissenschaftliche Richtungen. Um das zu erreichen, müssten sich an der Philosophischen Fakultät vielleicht verschiedene Institutionen zusammenschliessen – Historiker*innen, Archäolog*innen, Linguist*innen usw.

Ein anderes Thema, das eine grosse Rolle spielt, sind natürlich die Ressourcen: Die Archäologien sind sowieso schon recht teuer. Wir haben teure Feldmodule, wir haben teure Apparaturen, usw. Je mehr Spezialisierungen wir anbieten möchten, desto teuer werden unsere Module im Vergleich zu anderen Modulen der Fakultät.

Doch unser Problem ist, dass wir auf Feldforschung, Geräte oder Software einfach nicht verzichten können, wenn wir bei den «Digital Archaeologies» mithalten können wollen. Ein Beispiel: Für einen Arbeitsablauf in der Digital Archeology benötigt man vielleicht zehn Komponenten, Geräte oder Software, die im Zusammenspiel einen Workflow ergeben: Aufnahme im Feld mit Drohnen o.ä., Datenverarbeitung, Visualisierung etc. Gerade für solche scheinbar unzusammenhängenden Komponenten ist es schwierig, an Finanzierungen zu kommen, weil das Verständnis für die spezifischen Prozesse manchmal nicht da ist.

Ohne die Komponenten ist aber ein Einstieg in die digitalen Methoden gar nicht möglich – so wird man technisch abgehängt, nicht?

Gerade wenn man Digital Humanities fördern möchte, brauchen sie einen Stellenwert im Studienprogramm, etwa indem fachübergreifenden Strukturen geschaffen werden oder in der Fakultät Cluster gebildet und mit Ressourcen ausstattet werden. Ich denke da auch an Lehrpersonal – ich würde natürlich morgen eine Dozent*in mit Spezialgebiet «Digital Archeology» anstellen, wenn ich könnte.

Man darf nicht vergessen, dass die Archäologie ein konkretes Anwendungsfeld hat. Wir bedienen Kantonsarchäologien, die einen Öffentlichkeitsauftrag haben, mit fachwissenschaftlichem Nachwuchs. Es ist nicht nur eine geisteswissenschaftliche Disziplin, sondern gewissermassen auch eine Berufs(aus)bildung. Deshalb müssen wir sicherstellen, dass wir methodisch und technisch nicht hinterherhinken. Auch wenn wir nur 24 Kantone und sogar etwas weniger Kantonsarchäologien haben, und wir nicht hunderte von Studierenden für diesen Markt ausbilden können, benötigen wir dennoch Ressourcen, um eine angemessene Ausbildung bieten zu können.

Wir haben eine Verpflichtung gegenüber dem kulturellen Erbe der Schweiz, wenn nicht gegenüber der Menschheit, dass wir Leute ausbilden, die in der Lage sind, das Management dieses kulturellen Erbes auf allen Stufen wahrzunehmen, vom Boden bis zur Rekonstruktion.

Vielen Dank für das Gespräch!

 

Links:

Wikipedia: Prospektion

Wikipedia: Remote Sensing

GRASS GIS

QGIS

Wikipedia: Structure From Motion

Scientifica 2017: Verhüttungsofen

Wikipedia: Principal Component Analysis

Geodatencloud geodata2use

GIS Browser Kanton Zürich

Posted on

Alternative Leistungsnachweise mit digitalen Technologien

Im nächsten Beitrag unserer Reihe zu «Digital Humanities an der Philosophischen Fakultät» erzählt uns Daniel Ursprung, wissenschaftlicher Mitarbeiter am Historischen Seminar, von alternativen Leistungsnachweisen. In der Reihe geben Lehrende und Forschende der PhF uns einen Einblick in Forschungsprojekte und Methoden «ihrer» Digital Humanities und zeigen uns, welche Technologien in ihrer Disziplin zum Einsatz kommen. Wir diskutieren den Begriff «Digital Humanities» von ganz verschiedenen Perspektiven aus.

Können Sie sich kurz vorstellen, Herr Ursprung?

Mein Name ist Daniel Ursprung, ich bin wissenschaftlicher Mitarbeiter an der Abteilung für Osteuropäische Geschichte am Historischen Seminar. Dort bin ich in der Forschung und Lehre aktiv – in der letzten Zeit habe ich mich, v.a. im Bereich der Lehre, mit digitalen Technologien und deren Möglichkeiten auseinandergesetzt. Ich möchte den Studierenden einen niederschwelligen Einstieg in diese Technologien ermöglichen.

 

Können Sie uns ein Beispiel geben, was Sie in der Lehre anbieten?

Im Rahmen eines Lehrkredit-Projekts habe ich drei verschiedene Technologien ausprobiert, um damit alternative Formen von Leistungsnachweisen zu erstellen. Das ist einerseits der Einsatz von geospatial technologies, also die Arbeit mit geographischen Informationssystemen, die Raumanalysen und Kartenerstellung ermöglichen, etwa für historische Fragestellungen.

Wir haben andererseits auch Audiopodcasts erstellt – hier interviewten die Studierenden Forschende, die zum Thema der Lehrveranstaltung publiziert haben. Die Aufgabe für den Leistungsnachweis war es dann, aus den Interviews einzelne Sequenzen mit eigenem Input zu einem stimmigen Podcast zusammenzufügen.

In eine ähnliche Richtung gehen Videoessays. Dabei produzierten die Studierenden kurze Videofilme zu verschiedenen Themen der Lehrveranstaltung. Ausgangspunkt waren im Internet gefundene Videosequenzen, die mit zusätzlichen Materialien ergänzt wurden – z.B. Bilder, Statistiken, Karten oder sogar eigenem Videomaterial. Ziel war es, ein eigenes Storytelling zu entwickeln, um das Thema kurz und prägnant thesenartig zu vermitteln.

Belagerung von Sevastopol 1854/55 im Krimkrieg auf einer historischen Karte (Charles Alexandre Fay: Plan des Attaques. In: Ders.: Souvenirs de la guerre de Crimée, 1854-1856, no. 3. Paris 1867), ergänzt um topographische 3D-Angaben aus einem digitalen Höhenmodell

Haben Sie selber in diesen Bereichen gearbeitet – wie kamen Sie auf die Idee, diese Technologien in die Lehre zu bringen?

Das ist teilweise auch aus der Lehre heraus entstanden. In einer früheren Lehrveranstaltung zeigte ich als Auftakt zur Sitzung jeweils ein kurzes Video, quasi als Teaser zum Thema, ohne es aber weiter im Unterricht zu verwenden. Die Evaluation der Lehrveranstaltung zeigte dann, dass die Studierenden gerne mehr mit diesen Sequenzen gearbeitet hätten. So entstand die Idee, das Medium Video stärker und v.a. aktiver zu nutzen. Häufig ist es ja so, dass Videos zwar analysiert und als Quelle verwendet, sie aber in unseren geisteswissenschaftlichen Fächern selten selber produziert werden. Ich denke, es ist wichtig, die Medienkritik auch mal aus einer anderen Perspektive heraus zu stärken: wer selber ein Video produziert hat, sieht mit ganz anderen Augen und weiss aus Erfahrung, welche Grenzen das Medium für die Wissenschaftsvermittlung aufweist.

Bei den Podcasts war es so, dass ich selber gerne Wissenschaftspodcasts höre, zum Beispiel den Kanal New Books in History. Dort sind Interviews mit Autorinnen und Autoren wissenschaftlicher Werke zu finden, in denen man schnell viel darüber erfährt, was in der Forschung aktuell ist. Ich wollte so etwas Ähnliches auf einer niederschwelligen Ebene in der Lehre machen. Hier zeigte sich, dass diese Form ohne grosse technologische Voraussetzungen umsetzbar ist. Durch die Interviews konnten die Studierenden in Interaktion mit Wissenschaftlerinnen und Wissenschaftlern treten und so forschungsnahes Lernen erleben. Vor allem die Vorbereitung der Interviews erforderte eine intensive Beschäftigung mit dem Thema, war aber auch eine grosse Motivation.

Die Studierenden müssen dann auch wissenschaftliche Texte in eine ganz andere Form bringen können…

Genau – neben dem technologischen Aspekt gibt es immer den des Mediums: Was kann ein Medium leisten und wo sind seine Grenzen? Wie lassen sich wissenschaftliche Inhalte vermitteln und wo sind Vor- und Nachteile der einzelnen Kanäle? Hier geht es mir auch immer um eine kritische Haltung: Digitales soll kein Selbstzweck sein, sondern digitale Technologien sind Werkzeuge, bei denen immer zu überlegen ist, ob sie sich für die geplante Arbeit eignen oder ob analoge Methoden vorzuziehen sind.

So ist es etwa bei Podcasts schwierig, Schauplätze im Raum zu verorten: es gibt schlicht keine Möglichkeit, Visuelles wie eine Karte einzublenden. Genau umgekehrt ist es bei den Videos – hier muss der visuelle Raum ständig gefüllt werden, auch wenn kein passendes Bild- oder Videomaterial vorliegt. Das kann u.U. noch schwieriger sein als nichts zeigen zu können und zwingt zur Reflexion unserer Sehgewohnheiten. In der Praxis ist es nicht ganz einfach, all diese verschiedenen Medien wie Ton, Bild, Schrift sinnvoll zu kombinieren, ohne dass es langweilig oder umgekehrt überfordernd oder sogar manipulativ wird. Selber ein Video zu erstellen kann helfen, die Kritikfähigkeit zu schärfen, indem solche Probleme bewusst werden. Nicht so sehr ein professionelles Video ist Ziel dieser Art von Leistungsnachweis, sondern die kritische Reflexion darüber, welche Darstellungsformen in verschiedenen Medien funktionieren und welche Möglichkeiten für die Wissenschaftsvermittlung sich dabei eröffnen. Nicht zuletzt ist es auch eine Motivation für den Lernprozess.

Wissenschaft hat immer auch den Aspekt des Storytellings: Ob ich einen schriftlichen Text produziere oder einen Podcast macht dramaturgisch einen Unterschied. Und ein Storytelling hinzukriegen, das für das jeweilige Medium funktioniert, ist nicht ganz einfach. Die grundsätzlichen Überlegungen etwa zu den eingesetzten Stilmitteln sollen auch helfen, Erfahrungen zu sammeln, die dann auch wieder für das klassische Schreiben hilfreich sein können: welche Vorteile bietet mir der Text und wie gestalte ich ihn interessant, leicht verständlich und dennoch wissenschaftlich adäquat?

Interaktive Karte eines Cholera-Ausbruchs in Soho (London) 1854, Darstellung der Todesfälle mit Heatmap sowie nach Radius und Höhe skalierten räumlichen Säulendiagrammen: digitales Remake einer damals von Hand erstellten Karte von John Snow, ein Klassiker aus der Anfangszeit räumlicher Analysen. Deutlich ist zu erkennen, welche der Wasserpumpen für die Infektion verantwortlich war. Die Karte lässt sich per Mausklick drehen und vergrössern, einzelne Säulen können angewählt werden.

Mich würde auch das Kartenprojekt sehr interessieren – gerade räumliche Daten sind im technischen Umgang ja nicht einfach. Wie führen Sie Studierende an diese Themen heran?

In der Osteuropäischen Geschichte müssen wir fast immer mit Karten arbeiten, weil diese Räume vielen Leuten nicht auf Anhieb bekannt sind. Geschichtskarten aber werden kaum reflektiert und oft unkritisch genutzt: Wie und auf welcher Grundlage sie entstanden sind, ist meist intransparent. Seltsamerweise wird das fast nie thematisiert. Der Aufwand, eine gute Karte zu erstellen, ist mitunter ähnlich hoch wie für einen guten Aufsatz – bei der Karte aber fehlt der wissenschaftliche Apparat. Auch wird selten thematisiert, was eine Karte darstellen kann und was nicht. Wo führt eine kartographische Darstellung in die Irre? In Publikationsprojekten hatte ich schon die Gelegenheit, zu eigenen Texten Karten extern erstellen zu lassen. Damit gebe ich aber einen Teil der Kontrolle an eine/n Kartographin/en ab. Mit den heutigen technischen Möglichkeiten müsste es doch möglich sein, einfache Karten selber zu erstellen, dachte ich mir. In einer Lehrveranstaltung zur Geschichte der Kartographie habe ich dann erstmals digitale Technologien genutzt für die Arbeit mit Karten aus früheren Jahrhunderten. So bin ich dann auf QGIS gestossen, eine open source Software, mit der sich fast alles realisieren lässt, was im Bereich GIS möglich ist. Damit können zwar auch Karten erstellt werden, das Spektrum an Einsatzszenarien aber ist sehr viel breiter. In der Lehre einfache Karten zu erstellen ist ein guter Ausgangspunkt für einen intuitiven Einstieg in die wissenschaftliche Arbeit mit digitalen Technologien. Darauf aufbauend können dann schrittweise zentrale Fragen des Umgangs mit digitalen Technologien generell erarbeitet werden wie Modellierung, Management, Analyse und Visualisierung von Daten, Verständnis und Reflexion digitaler Verarbeitung bis hin zu Computational Thinking und Beurteilung der Folgen, die das dann letztlich wiederum für die eigene wissenschaftliche Arbeit hat.

Von den drei ausprobierten Formaten sehe ich im Bereich der spatial humanities das grösste Potential für die Lehre. Dies aus mehreren Gründen: Alle kennen Karten aus dem Alltag, sei es gedruckt oder auch als Navigation auf dem Handy. Mit einfachen Übungen, ohne grosse technische Kenntnisse, lässt sich mit QGIS bereits ein kleines Einstiegsprojekt erstellen, um die Schwellenangst vor dem Einsatz digitaler Methoden zu überwinden und den Bezug zum Fach aufzuzeigen. Davon ausgehend lässt sich die Komplexität dann steigern.

Wir haben zum Beispiel als Einstieg die Reiseroute einer Pilgerreise aus dem 15. Jahrhundert von Bayern nach Jerusalem auf einer Karte visualisiert. Die Frage war dann, welche Erkenntnisse sich aus einer solchen Visualisierung gewinnen lassen. Sie ermöglichen einen ganz anderen Zugang und machen auf Aspekte aufmerksam, die bei der reinen Textlektüre leicht übersehen werden. Ausserdem liegt eine Karte nicht einfach vor, sondern ist aufgrund eigener Entscheidungen entstanden und kann beliebig verändert werden.

Für die Schulung von digital skills in der akademischen Lehre haben geographische Informationssysteme (GIS) den Vorteil, dass damit fast alle digitalen Kernkompetenzen trainiert werden können: Wie werden z.B. aus historischen Quellen maschinenlesbare Daten für eine Datenbank, d.h. die Frage der Datenmodellierung. Welche Schritte sind hier auch aus methodischer und theoretischer Sicht notwendig? Hier kommt das digitale und fachwissenschaftliche zusammen. Manchmal können bestehende Daten übernommen werden. Da stellen sich Fragen zur Herkunft der Daten, wie vollständig, akkurat und präzise sie sind sowie danach, wer sie warum erstellt hat und was sie repräsentieren. Dann ist natürlich wichtig zu fragen, wie Algorithmen funktionieren – was machen sie mit den Daten, welches sind die einzelnen Schritte? Und wie ist der gesamte Verarbeitungsprozess zu gestalten und kritisch zu bewerten? Auch hinter der Software stehen ja letztlich immer bestimmte gesellschaftliche Interessen und Sichtweisen – welche Implikationen hat das für die wissenschaftliche Arbeit?

Stadtplan von Zürich von 1824 (Heinrich Keller: Grundriss der Stadt Zürich 1824. Zürich 1824), überlagert mit Polygonen der heute existierenden Gebäude sowie dem Verlauf der barocken Befestigungsanlage aus dem 17. Jh., die 1833/34 geschleift wurde.

Könnten Sie uns ein Beispiel geben, wie sie bei der Datenmodellierung konkret vorgegangen sind?

Für das Beispiel der Pilgerreise haben die Studierenden den Quellentext erst einmal ohne Vorgaben aufbereitet. Es handelt sich um kurze Tagebucheinträge, die beschreiben, an welchem Tag die Reisenden wo waren, wie weit sie gereist sind, wo sie übernachtet haben etc. Die Studierenden haben dann die Orte aufgeschrieben und zunächst auf Google Earth visualisiert. Interessant war dann zu sehen, wie unterschiedlich die Ergebnisse ausfallen. Sofort entstand etwa die Frage, wie sich Zeit modellieren lässt: Nehmen wir etwa Zeitpunkte oder Zeiträume? Wie gehe ich damit um, wenn unklar ist, was in der Zwischenzeit passiert ist? Die Frage, wie eine solche Reise visualisiert wird, ist nicht ganz so trivial wie es scheinen mag und öffnet den Blick für grundlegende methodische Fragen. Das ist ein guter Anlass, um über verschiedene Zeitkonzeptionen, ein Thema der Geschichtsphilosophie, zu sprechen. Digitale Arbeitsweisen können also auch Ausgangspunkt sein, sich durchaus auf klassisch-analoge Weise über grundlegende Konzepte des eigenen Fachs Gedanken zu machen.

Gerade bei historischen Fragestellungen existieren oft nur vage Angaben. Bei Reiseberichten sind vielfach nur Etappenorte bekannt, nicht aber der konkrete Verlauf der historischen Verkehrswege. Oder wenn in einer Quelle «hinter dem Hügel» oder «in der Nähe des Baches» steht, ist nicht einmal der Ort ganz klar. Auch hier ist dann zu überlegen, wie solche historische Unschärfe passend zu modellieren ist. Oft merkt man erst, wie viele Informationen eigentlich gar nicht vorhanden sind, wenn man versucht, diese Informationen in eine digitale Form zu bringen. So treten Inkonsistenzen zu Tage, die bei der reinen Lektüre nicht offensichtlich sind.

Die Frage ist immer, was sind die relevanten Informationen, und dies wiederum bedeutet stets: Was ist mein Erkenntnisinteresse? In Übungen mit den Studierenden sollen diese Informationen dann in strukturierter Form erfasst werden. Dabei lässt sich gut zeigen, wie wichtig es ist, die Daten möglichst kleinteilig auf verschiedene Felder aufzuteilen, damit sie in einer Datenbank gut verarbeitet werden können. Hier kann ich dann quasi durch die Hintertür ein wenig Datenbanktheorie einführen, nicht in einem grossen theoretischen Rahmen, sondern immer ausgehend von einem empirischen Fallbeispiel und einer Fragestellung. So lassen sich induktiv und vom fachwissenschaftlichen Kontext ausgehend digitale Themen anschaulich vermitteln.

Verzerrungsanalyse einer Altkarte (Guillaume Sanson, Vincenzo Coronelli: Le Cours Du Danube Depuis Sa Source Iusqu’a ses Embouchures. Paris 1693): das Verzerrungsgitter und die Verschiebungsvektoren geben nicht nur Hinweise darauf, wo die Karte stark verzerrt ist, sondern können auch Aufschlüsse darüber geben, aus welcher Quellen der Kartograph sich bedient hat, um die Karte zu zeichnen und welche Darstellungsabsicht verfolgt wurde: beruhen stark verzerrte Bereiche auf mangelndem Wissen oder stand etwas anderes im Vordergrund?

Denken Sie, dass geisteswissenschaftliche Studierende heute also mit Daten umgehen und algorithmisch denken können sollten?

Das hängt immer von der Fragestellung ab – es gibt nach wie vor viele Bereiche, in denen diese Technologien nicht zwingend notwendig sind. Analoge und digitale Methoden haben beide ihre Daseinsberechtigung. Digitale Technologien sind Werkzeuge, die in gewissen Fällen ganz neuartige Fragestellungen ermöglichen. Es ist zumindest gut zu wissen, was überhaupt möglich ist, welche zusätzlichen Arten des Umgangs mit den vorhandenen Quellen existieren und welches wissenschaftliche und didaktische Potenzial darin steckt. Dabei helfen wenigstens rudimentäre Kenntnisse über oder zumindest ein Verständnis für digitale Technologien und die Chancen, die sie eröffnen, um unser methodisches Repertoire zu erweitern.

Würden Sie auch in diese Richtung argumentieren, wenn Sie den Begriff «Digital Humanities» definieren müssten?

Ich weiss nicht, inwiefern eine Definition sinnvoll ist. Für mich ist es kein geschlossener Ansatz oder eine klare Disziplin, sondern ein kontextbezogener Einsatz von digitalen Technologien, der Hand in Hand geht mit den klassischen Methoden der Fachwissenschaft. In der Geschichtswissenschaft kennen wir die sogenannten Hilfswissenschaften (und das ist nicht despektierlich gemeint) wie Paläographie oder Diplomatik. Ich glaube, das Digitale hat, zumindest in der Geschichtswissenschaft, diese Funktion: Ich suche mir das passende Werkzeug für den jeweiligen wissenschaftlichen Kontext. Wichtig ist es, immer kritisch zu bleiben. Die Frage ist: kann ich die Fragestellung mit einer digitalen besser beantworten als mit einer analogen Methode? Oder kann ich andere Fragen beantworten, wenn ich digital arbeite – Fragen, die ich mit analogen Mitteln so nicht bearbeiten kann?

Um diese Entscheidung zwischen analogen und digitalen Methoden fällen zu können, muss man die Kompetenz aber schon haben…

Wie fast immer in der Wissenschaft ist hier Neugier und Offenheit entscheidend. Gerade in der Geschichtswissenschaft ist das Spektrum methodischer und theoretischer Arbeitsweisen enorm breit, niemand nutzt alle verfügbaren Ansätze. Und Historiker/innen sind in aller Regel keine Programmierer/innen. Aber natürlich ist es so: Je mehr Kompetenzen jemand mitbringt, desto eher können auch innovative Fragestellungen entwickelt werden. Ich vergleiche das in der Geschichtswissenschaft immer mit den Sprachkompetenzen – je mehr Sprachen ich spreche, desto mehr Quellen kann ich nutzen. Im Digitalen ist es genauso. Zumindest ist es hilfreich zu wissen, was mit digitalen Technologien überhaupt möglich ist, ohne das unbedingt selber umsetzten zu können. Gerade in Forschungsteams sind vielleicht Personen dabei, die programmieren können.

Stichwort Forschung: Hier ist es einfacher als in der Lehre, Leute mit Interesse an interdisziplinären Projekten zu finden, weil das Reputation gibt und finanziert wird. Ein gemeinsamer Antrag wird eingereicht und gemeinsame Publikationen verfasst. In der Lehre wird es schwieriger, wenn ich nur punktuell externe technologische Expertise einbeziehen möchte: Wer ist bereit, mir für eine Lehrveranstaltung z.B. eine Netzwerkanalyse zu programmieren? So etwas wird in der Wissenschaftslandschaft kaum honoriert. Und Dozierende können unmöglich neben ihrer eigenen Fachwissenschaft auch noch technologisch breit versiert sein.

Ich sehe das als Herausforderung für die Zukunft der digitalen Lehre – wie geht man auf institutioneller Ebene damit um? Gibt es Lösungen, bei Bedarf auch in der Lehre für spezifische technische Hilfestellung Kompetenzen anderer Fächer niederschwellig abrufen zu können? Denn digitale Methoden sollen in der Lehre nicht als separater Bereich parallel geführt werden, sondern auch punktuell in reguläre Lehrveranstaltungen eingebettet werden – embedded digital teaching sozusagen. Dazu braucht es aber halt oft externe Expertise.

Auf der Ebene der Infrastruktur werden zentrale Dienste wie S3IT langsam aufgebaut, auf die man als Forschende zugreifen kann. Aber Sie reden jetzt eigentlich eher von «Personellem», von Denk- und Arbeitskraft…

Für die Forschung ist das Angebot der S3IT sicher richtig, wenn es um Infrastruktur für Big Data und so weiter geht. Im Bereich Lehre sind es zum Teil andere Herausforderungen.

Ich wünsche mir für die meisten Bereiche eigentlich genau so ein Angebot, wie es das Team DLF anbietet – wo etwa kompetent Fragen beantwortet werden danach, welches Tool sich für Videoschnitt eignet, wie es funktioniert etc. Doch natürlich existieren immer auch spezifische Einsatzszenarien, die so eine Stelle gar nicht alle abdecken kann. Die Universität ist aber so vielfältig, dass bestimmt irgendwo jemand sitzt, die/der genau dabei helfen könnte – eben zum Beispiel, eine Netzwerkanalyse programmieren zu helfen. Die Schwierigkeit besteht darin, die entsprechende Person zu finden und sie dazu zu bringen, interdisziplinäre «Entwicklungshilfe» zu leisten, wenn dabei anders als in der Forschung wenig Aussicht auf Reputation besteht. Mir schwebt etwa vor, dass vielleicht Studierende der Computerwissenschaften in der Funktion «teach the teacher» hier Aufgaben übernehmen könnten und zum Beispiel niederschwellig während ein bis zwei Sitzungen im Semester bei der technischen Umsetzung helfen.

Hinzu kommt, dass ein Semester eigentlich zu kurz ist, um ein geisteswissenschaftliches Modul anzubieten, in dem neben den fachwissenschaftlichen Methoden und Inhalten auch noch substanzielle Software- oder Medien-Skills vermittelt werden müssen. Auch die Unterschiede der Voraussetzungen zwischen den Studierenden sind zum Teil enorm. Wo wäre der ideale Ort im Curriculum für die Vermittlung praktischer Software-Skills? In geisteswissenschaftlichen Fächern wird das ja kaum honoriert und basiert auf dem Engagement und Interessen der Einzelnen.

Die Kurse der Zentralen Informatik bieten hier ein gutes Angebot. Doch sind sie einerseits curricular nicht eingebunden. Andererseits besteht auch Bedarf an stärker fachwissenschaftlich ausgerichteten Angeboten, die spezifisch auf die Humanities und ihre Einsatzszenarien eingehen. Ein Beispiel wäre, die Datenbankprogrammierung ausgehend von Quellentexten zu lernen anstatt vom Klassiker «Adressdatenbank». Oder wieso soll ich als Geisteswissenschaftler Python programmieren lernen? Um diese Frage zu beantworten muss ich die Möglichkeiten kennen, die mir diese Programmiersprache in meinem Fachgebiet eröffnet. In einem traditionellen Python-Kurs erfahre ich dazu wenig. Wenn aber inspirierende Beispiele aus der Wissenschaft existieren, eröffnen sich neue Horizonte. Ein gutes online Selbstlernangebot ist etwa die Seite The Programming Historian – vergleichbare Übungen können auch in Lehrveranstaltungen ohne spezifischen digitalen Fokus eingebaut werden.

Es bräuchte «Forschungsgeschichten» als Vorbilder… und eine Vernetzung von ganz unterschiedlichen Disziplinen, die einander aushelfen können. Für die Lehre wäre auch ein Projektpool interessant, in dem Projekte mit Informatikbedarf und Studierende mit Informatikkenntnissen «gematcht» werden. Mit den Projekten könnten die Studierenden so eine Art «überfakultäre Projektcredits» erwerben. Oft ist es ja auch so, dass man im Rahmen eines Moduls ein Projekt nach technologischen Vorgaben programmieren muss, aber keine inhaltliche Idee hat.

Ich fürchte, dafür bräuchte es dann wohl wieder eine Studienreform… Es ist schon die Frage, ob dies curricular eingebettet werden oder eher über Tutorate und Geldwerte abgewickelt werden soll. Für Studierende ist interdisziplinäre Zusammenarbeit auf Einsteigerlevel in der Lehre vielleicht noch interessanter als für Forschende, die schon etabliert sind. Wichtig ist, dass Ideen entwickelt werden und auch zirkulieren.

Haben wir ein Thema vergessen oder möchten Sie etwas ergänzen?

Wichtig ist, dass gerade die Studierenden in den traditionell wenig technikaffinen Geisteswissenschaften möglichst früh (also bereits im Bachelor) die Gelegenheit erhalten, digitale Technologien im jeweiligen Fach anzuwenden. Mein Anliegen ist es immer, digitale Methoden möglichst niederschwellig einzubringen, um auch Leute anzusprechen, die keine Technikfreaks sind. Im weiteren Studienverlauf ist dann noch genügend Zeit, das bei Interesse selber zu vertiefen. Nach einer ersten Einführung ist die Schwellenangst hoffentlich überwunden.

Allerdings finde ich es auch ganz wichtig, dass kein Zugzwang entsteht: Der Einsatz digitaler Werkzeuge soll nicht überhöht oder gegen klassische Arbeitsweisen ausgespielt werden. Die akademische Lehrfreiheit muss unbedingt auch die Methodenfreiheit umfassen, stets das jeweils passende Instrument zu wählen.

 

Foto Titelbild (Portrait): Frank Brüderli

Im Beitrag erwähnte Links und Technologien:

https://newbooksnetwork.com/category/history/

https://www.qgis.org/de/site/

https://programminghistorian.org/