02-02-18 - if

Interdisziplinärer Forschungsverbund
Digital Humanities in Berlin

2. Februar 2018: Burkhard Meyer-Sickendiek, Hussein Hussein (beide FU Berlin): "Rhythmicalizer. Ein digitales Werkzeug zur Prosodieerkennung in Hörgedichten"

Zeit und Ort: 2.2.2018, 17 bis 19 Uhr (ct) in der Berlin-Brandenburgischen Akademie der Wissenschaften, Jägerstr. 22/23, 10117, Konferenzraum 230.

Um Anmeldung per E-Mail unter DH-Kolloquium(at)bbaw.de wird gebeten.

Rhythmicalizer. Ein digitales Werkzeug zur Prosodieerkennung in Hörgedichten

Unser Projekt wird vom Januar 2017 bis zum April 2020 von der Volkswagenstiftung gefördert. Insgesamt gingen im Rahmen der Ausschreibung „Interaktion qualitativ-hermeneutischer Verfahren und Digital Humanities: 'Mixed Methods' in den Geisteswissenschaften?“ 101 Anträge bei der VolkswagenStiftung ein, neun Projekte wurden bewilligt. Ziel der Ausschreibung war es, Möglichkeiten auszuloten, wie neue Verfahren der Digital Humanities mit den bisherigen, im weitesten Sinne „qualitativ-hermeneutischen“ Ansätzen kombiniert werden können. Wir gehen dabei von der folgenden Fragestellung aus:

Mindestens 80% der modernen und postmodernen Gedichte haben weder einen Reim noch ein festes Metrum wie etwa den Jambus oder Trochäus. Aber heißt dies, dass sie von rhythmischen Strukturen gänzlich frei sind? Die US-amerikanische Theorie der freien Versprosodie behauptet das Gegenteil: Moderne Dichter wie Whitman, die Imagisten, die Beatpoeten oder die heutigen Slam-Poeten hätten die klassischen metrischen Versformen durch eine neue Prosodie ersetzt, die von Prosarhythmen, Alltagssprache oder Musikstilen wie Jazz oder HipHop geprägt ist. Unser Projekt will diese Theorie auf der Grundlage einer digitalen Musteranalyse überprüfen. Zu diesem Zweck untersuchen wir das wichtigste Internetportal für internationale Hörgedichte: das Berliner Portal lyrikline.org.

In Anlehnung an die sehr effektive Prosodieerkennung aktueller Sprachtechnologien verwenden wir einschlägige Methoden wie, prosodische Phrasierung, spoken document Analyse und Disfluenzmodellierung zur digitalen Analyse rhythmischer Muster jenseits der metrischen Klassiker (Jambus, Trochäus). Diese Muster bestimmen wir zunächst manuell, und überführen sie dann in eine digitale Mustererkennung auf der Grundlage maschinellen bzw. tiefen Lernens. Dazu haben wir eine Methode (bzw. langfristig eine Software) zur digitalen Prosodieerkennung und formalen Korpusanalyse eigenrhythmischer Gedichte entwickelt, die wir auf dem Kolloquium präsentieren wollen.

Unser Vortrag gibt zunächst einen Einblick in die digitale Prosodie-Analyse, für die wir mehrere Standarttools kombinieren: den Part-Of-Speech (PoS)-Tagger von der Natural Language Processing Group der Stanford University, das MARY-Text-to-Speech-Toolkit (Modular Architecture for Research on speech sYnthesis) für die Generierung eines kontrastiven Gold-Standards, den Wavesurfer für die Markierung der rhythmischen Phrasierung, das CMU-Sphinx Speech-Recognition Toolkit für das sogenannte forced alignment, Software wie z. B. openEAR oder openSMILE für die Extrahierung akustischer Merkmale, AuTOBI für die Prosodie-Analyse und Extraktion der phrasal tones, pitch accents and breaks, sowie einen Rhythmus-Erkenner wie den Sonic Visualizer zur Extraktion von lokaler Sprechgeschwindigkeit. 

Die Software für dieses Toolset wird mit C++ oder Java entwickelt und zur manuellen bzw. teilautomatischen Klassifikation der akustischen bzw. textuellen Merkmale der Gedichte von Lyrikline genutzt. In unserem Beitrag wollen wir dann diskutieren, wie wir mit Hilfe von deep learning toolkits  (TensorFlow) diese manuelle bzw. teilautomatische Klassifikation in eine automatische Klassifikation überführen können. Insbesondere möchten wir uns auf mögliche Anwendungen mit begrenzten Datensätzen und die Handhabung schwieriger Probleme im Rahmen des Verstärkungslernens konzentrieren.