Eingabehilfen öffnen

Zum Hauptinhalt springen

Tagung "KI und (historische) Justizforschung" der Gesellschaft für Reichskammergerichtsforschung

Tagungsbericht

Titel: „KI und (historische) Justizforschung“

Veranstalter: Prof. Dr. Anette Baumann und Dr. Evelien Timpener

Ort: Wetzlar - Datum/Zeitraum: 12.-13.06.2025

Autorin: Lena Frewer, Historisches Institut, Justus-Liebig-Universität Gießen, Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.

Die Methodendiskussion ist zurück in den Geschichtswissenschaften, seit in den letzten Jahren Stellenwert und Nutzen digitaler Methoden in der Forschungspraxis stärker thematisiert wurden. Mit dem Fokus auf Erfahrungsaustausch und mit einem breiten disziplinären Tableau griff der Workshop „KI und (historische) Justizforschung“ diese Fragen auf. Gefördert durch das Hessische Ministerium der Justiz und für den Rechtsstaat, die Gesellschaft für Reichskammergerichtsforschung e.V. sowie die Justus-Liebig-Universität Gießen wurden in Wetzlar aktuelle rechtshistorische Fragestellungen mit den Impulsen verschiedener Praxisberichte aus laufenden oder jüngst abgeschlossenen Projekten zusammengedacht. Ziel des Workshops war ein offener und praxisorientierter Austausch über Chancen und Risiken digitaler Methoden sowie insbesondere auf Künstlicher Intelligenz (KI) basierenden Tools für die historische Justizforschung.

In ihren einführenden Bemerkungen gab EVELIEN TIMPENER (Gießen/Hannover) einen Überblick über eine Bandbreite an Methoden und Begrifflichkeiten aus den Feldern _Digital Humanities_, _Digital History_ und _machine learning_, die unter dem Oberbegriff „Künstliche Intelligenz“ zusammengefasst werden. Der erste Schritt hin zu einem Grundverständnis über digitale Methoden sei zunächst eine Kategorisierung der Funktionsweisen und Anwendungsziele. So ist es etwa sinnvoll, zwischen _machine learning_ im weiteren und KI im engeren Sinn zu unterscheiden, versteht man doch inzwischen unter Letzterer in der Alltagssprache im Wesentlichen _Large Language Models_ (LLMs) wie etwa ChatGPT, die im Unterschied zu _machine learning_ stärker auf stochastischen Mechanismen basieren. Die gegenwärtige Diskussion über Chancen und Grenzen von KI in der historischen Forschung aufgreifend, beobachtet Timpener aktuell vielfach noch eine zögerliche Haltung im Angesicht von Methodenvielfalt, ungeklärter rechtlicher Fragen und einer durch den Laien mitunter nicht vollständig zu erfassenden technischen Grundlage. Zentral ist daher eine kritische Auseinandersetzung mit diesen Fragen, die Forschende zu einem selbstbestimmten Umgang mit KI-basierten Methoden ermutigt.

Erfolgreiche digitale Projekte mit einem nachhaltigen impact in die Fachcommunity stehen und fallen mit einem durchdachten Workflow. Dies ist das zentrale Anliegen des von der Deutschen Forschungsgemeinschaft und dem Schweizer Nationalfonds im Zeitraum von 2023 bis 2026 geförderten und an den Standorten Bern, Bielefeld und Lübeck angesiedelten „FLOW“-Projekts („The Flow. From Deep-Learning to Digital Analysis and their Role in the Humanities. Creating, Evaluating and Critiquing Workflows for Historical Corpora“). ANGELA HUANG (Lübeck) von der Forschungsstelle für die Geschichte der Hanse und des Ostseeraums stellte dar, wie die Entstehung, Evaluation und Kritik von Workflows für historische Korpora nutzbar gemacht werden können. Das präsentierte Lübecker Teilprojekt verfolgt dieses Ziel der Entwicklung standardisierter digitaler Arbeitsabläufe anhand des Bestandes der Hanserezesse. Konkret geht es dabei um die teilautomatisierte Erschließung der Rezesse auf Basis von _machine learning_ im Bereich von _handwritten text recognition_ (HTR) und _transformer-based optical character recognition_ (TrOCR). Das Ergebnis des Projektes bildet eine _microservice architecture_, die einen Verbund aus Tools umfasst, die sowohl _open source_ als auch unabhängig voneinander genutzt werden können. Indem Anwendungsumgebungen wie einzelne Tools nach Projektende der Fachöffentlichkeit zur Verfügung gestellt werden, sind für die Zukunft positive Synergieeffekte über das einzelne Projekt hinaus zu erwarten. Wissen zu teilen und eine ehrliche Fehlerkultur sind nach Huang zentrale Werte für eine zukunftsfähige digitale Geschichtswissenschaft.

Den Blick zu weiten für neue Fragestellungen durch eine gezielte Aufbereitung des Quellenmaterials ist das Plädoyer im Vortrag von STEFAN STODOLKOWITZ (Celle). Er gab einen Einblick in den Quellenbestand der Reichskammergerichtsprotokolle, die im Untrennbaren Bestand des Bundesarchivs überliefert sind. Im Gegensatz zu den Reichshofratsprotokollen, die im Wesentlichen Ergebnisprotokolle sind, geben die Protokollserien der Extra- bzw. Judizialsenate des Reichskammergerichts kurze Inhaltszusammenfassungen der richterlichen Voten unter Angabe des jeweils zuständigen Referenten wieder. Dieser bislang noch wenig beachtete Quellenbestand aus dem 18. Jahrhundert ermöglicht Einsichten in die institutionellen Abläufe des Reichskammergerichts und greift damit hochaktuelle Fragen zur Entscheidungsfindung, (Normativitäts-)Wissensgeschichte, (In-)Formalität und Infrajustiz auf, an die das Studium der Prozessakten allein nicht heranreicht. Stodolkowitz warb dafür, diese umfangreichen Bestände mittels einer Kombination aus Verfahren des digitalen Edierens sowie der HTR mittels Tools wie Transkribus insoweit aufzubereiten, dass die Protokolle mit geringem Aufwand durchsuchbar sind. So werden diese Bestände multiperspektivisch nutzbar insbesondere für inter- und transdisziplinäre Fragen aus dem Umfeld der Kulturwissenschaften, die nicht originär einer rechtsgeschichtlichen Fachtradition entstammen.

STEPHAN DUSIL und CORWIN SCHNELL (Tübingen) wandten sich mit den Konsilien der Tübinger Juristenfakultät einem Quellenbestand aus dem 19. Jahrhundert zu. Die im Wege der Aktenversendung auf Anfrage von Parteien oder Gerichten erstellten Gutachten sind bis 1879 im Tübinger Universitätsarchiv überliefert, wobei die Serie aus dem 19. Jahrhundert mit Blick auf die Frage bearbeitet wurde, welchen Nutzen LLMs in der Erschließung des Materials versprechen. Anhand verschiedener Modelle und Prompts wurde vergleichend erörtert, inwieweit diese in der Lage sind, Metadaten wie Orte, Namen und Topoi aus den Gutachten zu extrahieren. Obgleich die Bilanz zur Metadatenextraktion mittels LLMs weitgehend positiv ausfällt, betonten die Referenten auch Fallstricke dieser Methodik: So konnten Schilderungen von Sittlichkeitsdelikten oder sexualisierter Gewalt in den Konsilien nicht von den Modellen verarbeitet werden, da diese Inhalte einen Verstoß gegen die Nutzungsrichtlinien des betreibenden Unternehmens darstellen.

Die automatisierte Texterkennung und Transkription großer Bestände serieller Quellen ist ein Anwendungsbereich von KI, der in der historischen Forschungscommunity schon weitgehend bekannt und in den letzten Jahren auch sichtbar praktiziert worden ist. Die Topicanalyse hingegen ist eine Methodik, die bislang noch zögerlich verwendet wird. Die Potenziale einer Diskursanalyse, die einem _mixed methods_-Ansatz bestehend aus einer systematischen OCR-Texterkennung ergänzt durch Verfahren der Topicanalyse mittels der Software MaxQDA folgt, stellte CHRISTINE FERTIG (Münster/Antwerpen) in ihrem Vortrag heraus. In ihrem aktuellen Forschungsprojekt zur Wissensgeschichte außereuropäischer Heilmittel untersucht Fertig deutschsprachige Lexika und Ratgeberliteratur des 18. Jahrhunderts mit Blick auf Konstruktion und Veränderbarkeit dieser Wissensbestände. Der entscheidende Mehrwert von Fertigs Herangehensweise ist eine effiziente Kombinierbarkeit von quantitativen wie qualitativen Methoden mit dem Ziel, eine größere Menge an Quellen – in Fertigs Fall 53 Literaturtitel – im Sinne eines _close reading_ auszuwerten. Die von ihr dargestellte Methodik erweist sich laut Fertig insbesondere für solche Projekte als erfolgversprechend, die sich für die Veränderungen von Topoi in der _longue durée_ interessieren.

Für die Entwicklung von Topoi und Diskursen in diachroner Perspektive interessiert sich auch CHRISTA SCHNEIDER (Bern). Sie zeigte, wie mithilfe von _information extraction_-Verfahren große Datenmengen aus seriellen Quellen zugleich strukturiert und analysiert werden können. Am Beispiel des Korpus der Berner Hexenprozesse untersucht Schneider in ihrem laufenden Projekt die Frage nach Veränderbarkeit und Verteilung von Personennamen sowie subjektiver Empfindungen und Meinungen (_sentiment analysis_), die von Angeklagten in den Verhören zu Protokoll gebracht wurden. Sie greift für ihre _information extraction_ auf LLMs zurück und identifiziert frühneuzeitliche Sprachvarianten als zentrale Herausforderung in ihrer Arbeit. So habe sich gezeigt, dass _sentiment analysis_ für das Frühneuhochdeutsche weitaus weniger zielführende Ergebnisse liefert als dies etwa im Englischen der Fall ist. Dagegen erweist sich Schneider zufolge ein Verfahren der _information extraction_ mittels LLMs als sehr praktikabel, da die eingesetzten Prompts vergleichsweise schnell auf verschiedene Arten von Textkorpora übertragbar seien.

Die in den einleitenden Ausführungen Evelien Timpeners aufgeworfenen Fragen nach Arbeitsökonomie und Nachhaltigkeit griff REGINA SCHÄFER (Mainz) in ihrem Beitrag über ihr jüngst abgeschlossenes Forschungsprojekt zur Augsburger Verwaltung zwischen 1390 und 1465 auf. In Kooperation mit der Universität Aberdeen wurde im Rahmen des „FLAG“-Projekts („Finance, Law and the language of governmental practice in late medieval towns: Aberdeen and Augsburg in comparison“) eine hermeneutische Methode angewandt, die_close_- und _distant reading_ kombiniert. Ausgehend von der Feststellung, dass infolge der Integration in Datenbankumgebungen digitale Texte gegenwärtig in erster Linie als XML-Format aufbereitet werden, warf Schäfer die Frage auf, wie sich Quellen systematisch im Sinne einer Topicanalyse auswerten lassen, für die dies nicht der Fall ist. In ihrem Vortrag gab Schäfer einen Einblick in die Arbeit mit Tools zur Topicanalyse wie etwa „AntConc“, die mit Texten im TXT-Format arbeiten und zudem als _open source_-Lösungen nicht von kommerziellen Verwertungslogiken der Anbieter abhängig sind. Zudem stellen diese Tools mitunter eine nachhaltigere Lösung dar, insofern sie teilweise weniger Speicherplatz benötigen.

Eine innerprofessionelle Perspektive nahm JOACHIM KEMPER (Aschaffenburg) ein, der eine Bilanz der bisherigen Diskussion um digitale Methoden und insbesondere die Rolle von KI aus archivwissenschaftlicher Sicht zog. Den Schwerpunkt legte er dabei auf die Tätigkeiten des „Arbeitskreis offene Archive“. Kemper hob in seinen Ausführungen die Rolle von Archiven als datenfokussierte Institutionen hervor, legt man das Verständnis zugrunde, dass Archivalien zunächst auch als Daten anzusehen sind. Die Entwicklung der Diskussion um KI im Archiv der letzten Jahre zusammenfassend, sei insbesondere im Jahr 2024 eine höhere Frequenz dieses Themas zu beobachten. Die dynamische Entwicklung neuer Tools und Funktionen im Feld von KI wie _machine learning_ werde dabei nicht nur in der archivwissenschaftlichen Diskussion aufmerksam beobachtet und aufgegriffen, sondern stelle Organisator:innen von Tagungen und Workshops regelmäßig vor die Herausforderung, dass geplante Publikationen zum Zeitpunkt ihrer Veröffentlichung in der Regel bereits veraltet sind. In Kempers Bestandsaufnahme wurde weiterhin deutlich, dass Archive zur Unterstützung ihrer täglichen Arbeitsabläufe bereits vielfach auf KI-basierte Tools zurückgreifen, wie etwa Chatbots für die Anfragenbearbeitung. Derzeit sind ebenfalls auch an vielen Standorten Richtlinien zum Umgang mit KI in Vorbereitung, deren datenschutz- wie urheberrechtskonforme Ausgestaltung in der archivwissenschaftlichen Fachdiskussion mittelfristig viel Raum einnehmen werden, so Kemper.

Die Panelvorträge bilanzierend, wurde in der Abschlussdiskussion vielfach die Dringlichkeit, fachwissenschaftliche Expertise und praktische Kompetenzen zu bündeln, betont. Insbesondere die historische Justizforschung als interdisziplinär angelegtes Feld biete das Potenzial, sich gleichermaßen für innovative Fragestellungen wie auch verschiedene gesellschaftliche Gruppen zu öffnen. Zu denken sei in diesem Zusammenhang etwa an eine stärkere Einbindung von _citizen science_. Die Frage nach dem Verhältnis zwischen der Offenheit methodischer Möglichkeiten und der praktischen Machbarkeit in der Realität begrenzter finanzieller wie personeller Ressourcen war in sämtlichen Vorträgen präsent. So wurde etwa am Beispiel der Projekte, in denen mittels Tools wie Transkribus oder eScriptorio große Mengen handschriftlichen Quellenmaterials erfasst werden, häufig auf die Notwendigkeit hingewiesen, sich in der Projektplanung zunächst zu fragen, welche Fehlerquote (_character error rate_, CER) für die eigene Forschungsfrage tolerierbar ist. Der Schlüssel zu einer ehrlichen Kosten-Nutzen-Abwägung wurde vielfach in einer Transparenz- und Fehlerkultur gesehen. Es gelte, Kompetenz- und Anwendungsbereiche digitaler Methoden und insbesondere KI klar zu definieren und auszudifferenzieren, um den Mehrwert für das jeweilige Projekt sinnvoll zu bewerten. Gleichzeitig ist es essenziell, Zwischenergebnisse zu veröffentlichen und – wie es bereits vielfach praktiziert wird – entwickelte Tools und Workflows der fachwissenschaftlichen Öffentlichkeit zur Verfügung zu stellen.

Bei allen Potenzialen und Chancen, die im Verlauf des Workshops angesprochen wurden, zeichneten sich zugleich Herausforderungen und Probleme ab, die die Diskussion um digitale Methoden und KI in der historischen Forschung weiter begleiten werden. Wiederholt diskutiert wurden derer drei: Datenschutz und Urheberrecht, Nachhaltigkeit sowie die Frage nach Preispolitik und Trainingsdaten der Anbieter. Gerade letztere wurde in der Diskussion als _black box_ wahrgenommen, die Entscheidungsgrundlage insbesondere von LLMs wird vielfach durch die Unternehmen nicht transparent gemacht. Zugleich sind die gegenwärtig größten Anbieter KI-basierter Tools in erster Linie privatwirtschaftliche Unternehmen mit Gewinnabsicht, deren zukünftige strategische Entscheidungen sich kaum seriös beurteilen lassen. Für die historische Justizforschung gilt es in der Bewertung dieser Gemengelage umso dringlicher, inter- und transdisziplinäre Zusammenarbeit konsequent zu leben und darüber hinaus Anspruch und Wirklichkeit der eigenen Verortung für die Geisteswissenschaften der Zukunft beständig zu reflektieren.

*Konferenzübersicht*Evelien Timpener (Gießen/Hannover): EinführungSektion A: KI und serielle QuellenModeration: Tobias Schenk (Göttingen/Wien)Angela Huang (Lübeck) / Silke Schwandt (Bielefeld): Go with the FLOW: Digitale Workflows für serielles SchriftgutStefan Stodolkowitz (Celle): Protokollüberlieferung des Reichskammergerichts: Die Extrajudizialsenatsprotokolle im Bundesarchiv Berlin-Lichterfelde und Möglichkeiten ihrer AuswertungStephan Dusil / Corwin Schnell (Tübingen): KI und juristische Konsilien im Universitätsarchiv TübingenSektion B: KI als Analysemodell? Moderation: Evelien Timpener (Gießen/Hannover)Christine Fertig (Münster/Antwerpen): KI und „Digital History“. Kaufmännisches Wissen und die Europäische Expansion (1670 bis 1850)Sektion C: KI-Tools in der Forschungs- und ArchivpraxisModeration: Stefan KerkemeyerChrista Schneider (Bern): Information Extraction an vormodernen GerichtsaktenRegina Schäfer (Mainz): KI für Dummies? Die computergestützte Auswertung von Augsburger Quellen des Spätmittelalters (Rechnungsbücher, Ratsprotokolle, Gerichtsbücher, Chroniken)Joachim Kemper (Aschaffenburg): KI im Archiv. Chancen und AnwendungsfälleAbschlussdiskussion