Termin: Montag, 01.09.2014, 16:00-17:30 Uhr
Ort: Berlin-Brandenburgische Akademie der Wissenschaften, Jägerstr. 22/23, 10117 Berlin
Im ersten DH-Rundgang gibt die BBAW einen Einblick in ihren Maschinenraum aus Datenschnittstellen, Such-Diensten und Analysewerkzeugen. Die Schnittstellen erlauben direkten Zugriff auf Forschungsdaten, darunter 1320 deutschsprachige Werke des Deutschen Textarchivs in TEI/XML. Sie können Verzeichnisse verschiedener digitaler und gedruckter Briefeditionen nach Absender, Empfänger, Schreibort und Datum durchsuchen oder herausfinden an welchen Tag genau Aschermittwoch 1632 war. Die Schnittstellen bilden die Basis der Online-Präsenzen der diversen Forschungsvorhaben der BBAW, werden aber von Partnern wie u.a. der österreichischen und der Schweizer Akademie und dem Leo-Wörterbuch auch direkt abgefragt, in deren Forschungsaktivitäten nachgenutzt und in ihren eigenen Online-Präsenzen dargestellt.
Neben Daten-Schnittstellen entwickelt die BBAW in internationalen Kooperationen wie CLARIN Werkzeuge und stellt diese als Web Services und REST-Services zur Verfügung. Die statistischen und linguistischen Tools des DWDS bündeln jahrelange computerlinguistische Forschung und technisches Tuning. Der Rundgang gibt einen Überblick über die breite Palette an Schnittstellen und wie man sie selbst nutzen kann.
16:00 Uhr: Begrüßung (Wolf-Hagen Krauth)
16:10 Uhr: Einführung (Stefan Dumont)
16:20 Uhr: Webservices für digitale Editionen
16:40 Uhr: Webservices des Zentrums Sprache
17:10 Uhr: Die OAI-PMH-Schnittstelle des Digitalen Wissensspeichers der BBAW (Marco Jürgens)
17:20 Uhr: Rundgang durch die Arbeitsstellen von DTA, DWDS und TELOTA
In der Tabelle sind die öffentlich zugänglichen Webservices und Online-Dienste der Berlin-Brandenburgischen Akademie der Wissenschaften aufgelistet. Für Fragen zu den Diensten und zu Diensten mit beschränktem Zugang wenden Sie sich bitte an die genannten Ansprechpartner.
| Zugang | Anbieter an der BBAW | Dienst | Ansprechpartner | Beschreibung |
| public ab April 2015 | BBAW-Wissensspeicher | OAI-PMH | Marco Jürgens | |
| public | Bibliothek | Z39.50-Schnittstelle | Markus Schnöpf | Eine Z39.50-Schnittstelle ermöglicht den maschinellen Austausch bibliografischer Daten zwischen verschiedenen Systemen und ermöglicht eine Recherche in dem BBAW-Bibliothekskatalog durch Literaturverwaltungsprogramme. |
| public | Bibliothek, edoc-Server | OAI-PMH-Repository | Markus Schnöpf | Eine OAI-Schnittstelle ermöglicht es, dass so genannte Harvester (Einsammler) Metadaten des BBAW-edoc-Servers automatisch in ihre Nachweissysteme übernehmen können. |
| public | Corpus Coranicum | CoIns | Markus Schnöpf | CoinS stellen für den Nutzer unsichtbar bibliografische Daten zur Verfügung, die mit Literaturverwaltungsprogrammen in die persönliche Bibliografie übernommen werden können. |
| non commercial | CLARIN-D-Servicezentrum | Part of Speech Tagger | Jörg Didakowski | |
| non commercial | CLARIN-D-Servicezentrum | SynCoP Dependency Parser | Jörg Didakowski | |
| non commercial | CLARIN-D-Servicezentrum | Tokens2Lexicon | Kai Zimmer | Konvertiert ein TCF-Textkorpus in die Liste der vorkommenden Types (TCF-Lexikonformat). |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Lemmas | Kai Zimmer | Erlaubt, anhand von Filterkriterien (z.B. Frequenz) eine Liste von Lemmata aus dlexDB (lexikalische Datenbank) zu extrahieren (im TCF-Lexikonformat). |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Lemmas: Frequency Absolute | Kai Zimmer | Liefert für eine Liste von Lemmata deren Frequenzen in dlexDB. |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Lemmas: Frequency per million | Kai Zimmer | Liefert für eine Liste von Lemmata deren Frequenzen in dlexDB pro Million Tokens. |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Types | Kai Zimmer | Erlaubt, anhand von Filterkriterien (z.B. Frequenz) eine Liste von Types aus dlexDB (lexikalische Datenbank) zu extrahieren (im TCF-Lexikonformat). |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Types: Frequency Absolute | Kai Zimmer | Liefert für eine Liste von Types deren Frequenzen in dlexDB. |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Types: Frequency per million | Kai Zimmer | Liefert für eine Liste von Types deren Frequenzen in dlexDB pro Million Tokens. |
| non commercial | CLARIN-D-Servicezentrum | dlexDB Types: Syllabification | Kai Zimmer | Liefert für eine Liste von Types deren Zerlegung in Sprechsilben. |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | CAB historical text analysis | Bryan Jurish | |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | CAB orthographic canonicalizer | Bryan Jurish | |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | Wortprofil | Jörg Didakowski | |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | Lemmas2Lexicon | Kai Zimmer | |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | Person Name Recognizer | Jörg Didakowski | |
| nur über CLARIN-Verbund | CLARIN-D-Servicezentrum | TextCorpus2Lexicon | Jörg Didakowski | |
| public | CLARIN-D-Servicezentrum | DTA OAI-PMH-Repository | Kai Zimmer | |
| public | CLARIN-D-Servicezentrum | Federated Content Search/Volltextsuche DTA | Bryan Jurish | |
| public | CLARIN-D-Servicezentrum | Federated Content Search/Volltextsuche Dingler | Bryan Jurish | |
| public | CLARIN-D-Servicezentrum | Federated Content Search/Volltextsuche C4 | Kai Zimmer | |
| public | CLARIN-D-Servicezentrum | C4 Corpus Query | Jörg Didakowski | |
| public | CLARIN-D-Servicezentrum | Plaintext converter to TCF | Jörg Didakowski | |
| public | CLARIN-D-Servicezentrum | Tokenizer and Sentence Splitter | Jörg Didakowski | |
| public | CLARIN-D-Servicezentrum | WASTE – Word and Sentence Tokenization Estimator | Bryan Jurish | |
| non commercial | Deutsches Textarchiv | DTA/DDC OpenSearch Wrapper | DDC Query Language Documentation, Spezifikation OpenSearch, Bryan Jurish | |
| nur über CLARIN-Verbund | Deutsches Textarchiv | Demoversion DTA::CAB | Bryan Jurish | |
| public | Deutsches Textarchiv | Autorenverzeichnis im BEACON-Format | Frank Wiegand | |
| public | Deutsches Textarchiv | Neue Texte auf der Webseite als Atom-Feed | Frank Wiegand | |
| public | Deutsches Textarchiv | Neue Texte in DTAQ als Atom-Feed | Frank Wiegand | |
| public | Deutsches Textarchiv | DTA OAI-PMH-Repository | Frank Wiegand | |
| public | Deutsches Textarchiv | Dingler/DDC OpenSearch Wrapper | DDC Query Language Documentation, Spezifikation OpenSearch Bryan Jurish | |
| public | Jahresberichte für deutsche Geschichte | OAI-PMH-Repository | Detlef Gritzke, Markus Schnöpf | Eine OAI-Schnittstelle ermöglicht es, dass so genannte Harvester (Einsammler) Metadaten aus den JDG automatisch in ihre Nachweissysteme übernehmen können. |
| public | Jahresberichte für deutsche Geschichte | BEACON-Format | Detlef Gritzke, Markus Schnöpf | Eine BEACON-Datei ermöglicht es Systemen wie wikipedia, personenbezogene Informationen aus den JDG automatisch in ihr Angebot zu integrieren. |
| public | Jahresberichte für deutsche Geschichte | Z39.50-Schnittstelle | Detlef Gritzke, Markus Schnöpf | Eine Z39.50-Schnittstelle ermöglicht den maschinellen Austausch bibliografischer Daten zwischen verschiedenen Systemen und ermöglicht eine Recherche in der JDG-Biliografie durch Literaturverwaltungsprogramme. |
| public | Personendaten-Repositorium | Historical Transliteration Tool | Fabian Körner | Dieser Webservice dient der Transliteration von Zeichenfolgen aus dem griechischen ins lateinische Alphabet nach den Regeln, die im 19. Jahrhundert in England verwendet wurden. |
| public | Personendaten-Repositorium | Ortsnamen-Erkenner (PDR-WS Places) | Fabian Körner | Der Ortsnamenerkenner identifiziert Ortsnamen innerhalb eines vorgegebenen Textes. Die erkannten Ortsnamen hängen von einer themenspezifisch zusammengestellten Datenbank ab. |
| public | Personendaten-Repositorium | Datums-Erkenner (PDR-WS Dates) | Fabian Körner | Der Datumserkenner identifiziert Datumsangaben innerhalb eines vorgegebenen Textes und gibt diese zusätzlich als ISO-Datum aus. Die Erkennung funktioniert sprachenspezifisch und ist momentan für Deutsch und Italienisch verfügbar. Es werden auch kalenderspezifische Ereignisse und Zeitspannen identifiziert. |
| public | Personendaten-Repositorium | Person Concordancer | Fabian Körner | Der „Person Concordancer“ ist ein Hilfsmittel, um allgemeine Identifikatoren für Personen zu finden. Abhängig von den vorhandenen Daten werden mehrere Vorschläge gemacht. Die Suche basiert auf den Wikipedia-Personendaten. |
| public | Personendaten-Repositorium | PIT - PDR Interface Tools | Fabian Körner | Die Webservice-Angebote von PIT können zum Abfragen und Einbinden von Informationen aus einem Personendaten-Repositorium verwendet werden. |
| public | TELOTA | Korrespondensnetzerke | Stefan Dumont | Briefeditionen mit Hilfe von Metadaten projektübergreifend verknüpfen und durchsuchen |