CLARIN-D Blog

CLARIN-D Newsflash Februar 2019

Die CLARIN Annual Conference findet dieses Jahr in Leipzig statt.
Die CLARIN Annual Conference findet dieses Jahr in Leipzig statt

Neue Ressourcen

The Corpus of Late Modern English Texts Version 3.1 ist nun am CLARIN-D-Zentrum an der Universität des Saarlandes verfügbar.

Neue Versionen von Webservices

WebLicht


TüNDRA

Öffentlichkeitsarbeit

Die FAG 2 "Andere Philologien" stellt sich vor Präsentation des CLARIN-D-Zentrums an der Universität des Saarlandes bei der 77. Transforum-Sitzung in Saarbrücken

Die CLARIN Annual Conference wird dieses Jahr vom 30.September bis 2. Oktober in Leipzig stattfinden. Der Call for Abstracts läuft bis zum 15. April 2019.

Workshops und Seminare

Nachwuchsworkshop “Herausforderungen der Briefkodierung”: Am 29./30. Oktober 2018 fand an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) der Nachwuchsworkshop “Herausforderungen der Briefkodierung” statt, der durch CLARIN-D und die TEI Correspondence SIG ausgerichtet wurde.

Lexical Data Masterclass 2018: Vom 3. bis 7. Dezember 2018 fand in Berlin die Lexical Data Masterclass 2018 (LexMC18) statt. Die Masterclass wurde organisiert von DARIAH, der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), Inria sowie dem Belgrade Center for Digital Humanities und wurde unterstützt von CLARIN und der European Lexicographic Infrastructure (ELEXIS). Mehr Informationen unter: https://lexmc18.sciencesconf.org/ und https://digilex.hypotheses.org/.

Im Wintersemester 2018/2019 wurden zwei Seminare mit Digital-Humanities-Bezug an der Humboldt-Universität Berlin von CLARIN-D-Mitarbeitern mit ausgerichtet: Themen waren Alexander von Humboldts Reise 1797/98 sowie Alexander von Humboldts Kosmos-Vorlesungen. Beide Seminare vermittelten u.a. Methoden der digitalen Edition. Weitere Informationen unter: https://bit.ly/2QWxVIv und https://bit.ly/2Crrl7u.

Read more

Die Zeichen der Zeit – sind digital

Ein Bericht von Anja Maria Hamann und Kai Richarz über das Seminar zur digitalen Edition von Briefen und Manuskripten von Daniel Sanders, im Sommersemester 2018 an der Humboldt-Universität zu Berlin

Eine gegenwärtige Herausforderung für geisteswissenschaftliche Disziplinen ist das Arbeiten in einer digitalen Welt. Dabei müssen sie dem Anstieg digitaler Quellen – ob durch Retrodigitalisierung oder die zunehmende Zahl an ‚digital born‘-Quellen – mit adäquaten Methoden, Strukturen und Werkzeugen begegnen. Vor dem Hintergrund dieser Herausforderung versucht das aufstrebende Forschungsfeld der Digital Humanities jene Brücke zwischen der alten, analogen Wissenschaft und der neuen, digitalen Welt zu schlagen: Einerseits, indem sie Sammlungen von Literatur und Quellen digital erschließt und für die Anwendung geisteswissenschaftlicher Arbeitsmethoden Verfahren zugänglich macht; andererseits, indem sie eine intelligente Vernetzung von Inhalten innerhalb einer zunehmend digitalen Wissenschaftskultur ermöglicht.1

Die Digital History als ein Teil der Digital Humanities eröffnet mittels digitaler Methoden neue Möglichkeiten für die historische Forschung und Lehre, um Quellen, Dokumente, Artefakte und Wissen über die Vergangenheit aufzuzeichnen, zu bewahren, zu vermitteln und vor allem zu untersuchen. Für Personen aus der Geschichtswissenschaft, die sich diesem neuen Feld gegenüber öffnen, bieten sich „zahlreiche Tools zur zeit- und ortsunabhängigen Arbeit mit Quellen und Texten“, die „beispielsweise für Erstellung digitaler Editionen bisher noch nicht annähernd ausgeschöpfte Möglichkeiten bieten.“2 Digital erschlossene Editionen bieten durch ihre unterschiedlichen Rechercheoptionen und ihre prinzipiell unbegrenzten Möglichkeiten zur Annotation und Verlinkung einen deutlichen Mehrwert gegenüber gedruckten Editionen.

Aber das Erstellen digitaler Quellenkorpora erfordert fachspezifische Kenntnisse. Das in diesem Beitrag beschriebene Editionsseminar lässt erahnen, wie künftige Veranstaltungen aussehen könnten. Beispielsweise bei Seminaren des ab dem Wintersemester 2018/19 eingeführten Studienschwerpunkts „Digital History“ am Institut für Geschichtswissenschaften der Humboldt-Universität zu Berlin.3

Die Rahmenbedingungen

Im Sommersemester 2018 fanden sich fünfzehn Student*innen aus unterschiedlichen Fachrichtungen der Humboldt-Universität zusammen, um sich

Read more

CLARIN-D Newsflash Oktober 2018

Linguistic Annotation in XML (DTABf)
Linguistic Annotation in XML (DTABf)

 

 

Neue Standards

Doktorandentage

Workshops und Panels

Bildnachweis: Linguistic Annotation in XML (DTABf): Christian Thomas 2018, Lizenz: CC-BY-NC.

Read more

ESU Erfahrungsbericht: Stipendiatin Viviana Pezzullo

My name is Viviana Pezzullo and I am one of the participants of the European Summer University in Digital Humanties, recipient of the CLARIN-D Fellowship. I would love to publicly thank CLARIN-D for having given me the opportunity to take part in such an amazing experience that has allowed me to improve my project and to meet young scholars from all over the world.

For the two weeks, I joined Dr. Carol Chiodo's and Lauren Tilton's workshop titled Hands on Humanities Data. This workshop has been such a perfect fit for the project on which I am currently working: a digital collection of letters exchanged during the 1940s belonging to the Badia family. Thanks to my instructors now I have a better understanding of how to organize my data and how to make a better use of them. The first week focused on understanding what kind of data one is dealing with and how to use Google Sheets to work collaboratively. After having discussed my method with my peers and Dr. Chiodo and Dr. Tilton, I realized all the unintentional mistakes that I have carried out throughout my whole recollection of data. Therefore, I had the opportunity to improve my cluttered data set.

The second week focused on the tools that one could use not only to study the data but also to showcase it. For instance, our group has discovered Voyant, which I consider an impressive tool for anyone who wants to approach text analysis but who is not familiar yet with Python or R. Furthermore, I learned how to create a timeline (by using TimelineJS) and a map (by using Carto and StoryMap), which I will definitely

Read more

ESU Erfahrungsbericht: Stipendiatin Cecília Magalhães

SHORT TEXT, GREAT EXPERIENCE:
a two-week story about ESU in Digital Humanities in Leipzig University

By Cecília Magalhães - August 3th, 2018. 

The city of Leipzig was, in the two last weeks of July, the perfect stage for productive academic practices, concerning the Digital Humanities field. In this period, the "European Summer School in Digital Humanities", hosted by the University of Leipzig, offered a variety of workshops with distinct approaches, about textual and data analysis, XLM-TEI schemas, Data visualisation and so on. Further, the event was branded by international talks which, beyond of reinforcing some topics of the technical and theoretical subjects already practised in class, reminded us of the importance of actively taking part, as digital humanists, in the academic, political and social discussion into the global DH community.


In this panorama, I took part in the "Hands-on Humanities Data Workshop - Creation, Discovery and Analysis", led by Lauren Tilton (University of Richmond, USA) and Carol Chiodo (Princeton University, USA). The classes were focused, initially, on introducing the concept of data in its complexity and diversity. More than that, we discussed how to handle multiple data by critically selecting and working with combined tools and platforms. Text analysis, text mining, topic modelling, mapping, networks analysis, data visualisation were topics which were presented through fascinating examples of projects in DH.

Abb:
	Cecilia.

What is DH? Hands-on first class with Carol Chiodo. Photo Credit: Cecília Magalhães

I have been investigating the interactional component of the LdoD Archive (PORTELA & SILVA, 2018, ldod.uc.pt), a digital edition based on the textual fragments of Fernando Pessoa's unfinished book, the Book of Disquiet. This platform creatively enhances the users' reading, editing and writing practices through

Read more

ESU Erfahrungsbericht: Stipendiatin Laura Ivaska

Learning how to do Stylometry with style at the European Summer University in Digital Humanities 2018 in Leipzig

I was honored to attend the European Summer University in Digital Humanities “Culture and Technology” at the University of Leipzig in July 2018 as a CLARIN-D Fellow. During the two weeks, some hundred students and teachers from all over the world attended and taught workshops on various topics in Digital Humanities, ranging from Project Management to Reflected Text Analysis and from XML-TEI to Computer Vision. I participated in the workshop on Stylometry, a method to study the similarities and differences between (literary) texts that is often used for authorship attribution, that is, to answer questions such as who is Elena Ferrante and whether Robert Galbraith is actually J.K. Rowling.

In the workshop, I learned how to use the stylo package in R and became familiar with concepts such as Delta and Manhattan Distance as well as oppose() and rolling.classify(). Although stylometry is based on statistics and the stylo package is written in the programming language R, the workshop is suitable also for beginners as the stylo package has a graphic interface just like any computer software and the teachers explain the mathematical equations behind the statistical analyses. 

The workshop – like the whole Summer University ­– was very intensive, meaning that there was much to be learned in a short amount of time, but also that I got to return home having gained skills that will allow me to do my own stylometric analyses. Additionally, the workshop contained a small, yet important, sidenote to learn how to generate data visualizations using software such as Gephi and jMol. It was great to learn about suitable

Read more

ESU Erfahrungsbericht: Stipendiatin Linda Brandt

Ein Erfahrungsbericht über die „Culture & Technology“ - European Summer University in Digital Humanities in Leipzig

Text von Linda Brandt

Bereits zum 9. Mal fand im Zeitraum vom 17.07.-27.07.2018 an der Universität Leipzig die internationale Sommeruniversität für Digital Humanities statt, welche von einem Team um Elisabeth Burr, Professorin für französische, frankophone und italienische Sprachwissenschaft organisiert wurde. Jedes Jahr treffen sich dort für 11 Tage Studierende, Doktoranden, Postdocs und ProfessorInnen, um dort gemeinsam DH-bezogene Seminare, Vorlesungen, Exkursionen zu besuchen und um Einblicke in die Leipziger Stadtgeschichte zu erhalten. Dieses Jahr nahmen mehr als 100 TeilnehmerInnen aus über 30 Länder teil, die im Rahmen der ESU gemeinsam lernen und Erfahrungen sammeln konnten.

Für mich war es die zweite Teilnahme, sodass es zugleich ein schönes Wiedersehen mit vielen bekannten Gesichtern war. Und auch viele weitere Gäste waren bereits mehrfach in Leipzig, was abermals für die Summer School und die OrganisatorInnen spricht. Das akademische Programm war abwechslungsreich gestaltet. So gab es Vorträge von TeilnehmerInnen über ihre eigenen Projekte, wie beispielsweise von Simon Gabay von der Uni Neuchâtel über „A catalogue of 17th c. French autograph manuscrripts“ und Giovanni Pietro Vitali von der Université de Poitiers in Frankreich über „Rethinking Rome as an Anthology: The Poeti der Trullo's Street Poetry". Darüber hinaus wurden Vorlesungen von verschiedenen Dozenten angeboten, wie Gimena del Rio Riande von der Universität de Buenos Aires in Argentinien, welche über „Digital Humanities and Humanidades Digitales“ in Südamerika gesprochen hat. Ein weiterer Dozent war Ray Siemens, Professor für Humanities Computing an der Victoria Universität in Kanada, der über „Open Social Scholarship, in Real Terms“ referiert hat. Demzufolge waren viele internationale und namenhafte WissenschaftlerInnen vertreten, die uns vielfältige Einblicke in ihre digitale geisteswissenschaftliche Forschung

Read more

ESU Erfahrungsbericht: Stipendiat Erdal Ayan

A little About Me

My name is Erdal Ayan. I am an Academic Assistant in Herder Institut, Marburg, Germany. I have also been a master student in Informatics at Philipps University Marburg since September, 2017. Nowadays, I am working on data visualization, big data processing, text analysis and corpus building in scope of my study and workload at my institut. I am very curious about building up corpora for educational and research purposes.

Special Thanks to Supporters

Actually, I did not know about the summer university in Leipzig until I get an informative email from the head of my department, Barbara Fichtl, who also deserves special thanks by me. :) I want to thank CLARIN-D for providing me with fellowship, organizing committee of European Summer University for accepting me and administration of Herder Institut, Marburg for supporting me to take part in the workshop and academic activities during my stay in Leipzig. I do not want to forget to thank Prof.Dr.Elizabeth Burr and her hard working assistants for their efforts to welcome and host us for almost two weeks time in Leipzig.

About the Workshop and My Experience

From 17.07 to 27.07.2018 I participated in the workshop titled “Word Vectors and Corpus Text Mining with Python” in scope of “Culture & Technology” - The European Summer University (ESU) in Digital Humanities in Leipzig. The workshop was organized and held by an expert on digital humanities and arts and a PhD candidate, Eun Seo Jo from Stanford University, USA. I should mention that I have learned a lot more than what I expected beforehand. The content and scope of the course was extensively focusing on processing large scale texts, common concepts

Read more

Nutzung des VLO für ein Promotionsprojekt zu Wissenschaftlichen Lehrbüchern

https://youtu.be/_FTzaOC7Ofg

In diesem Screencast zeigt Melanie Grumt Suárez, Wissenschaftliche Mitarbeiterin der CLARIN F1, wie das Virtual Language Observatory (VLO) für ein Promotionsprojekt zu wissenschaftlichen Lehrbüchern genutzt werden kann, um historische Lehrbücher und digitale Werkzeuge in der CLARIN-D-Umgebung mit dem Language Resource Switchboard (LRS) aufzufinden.

Was ist das VLO

Das VLO ist eine spezielle Suchmaschine zum Auffinden von Forschungsdaten und digitalen Werkzeugen innerhalb der CLARIN Forschungsinfrastruktur. Es besteht aus einem großen Katalog an Metadaten, der mittels Textsuche sowie facettierter Suche durchsucht werden kann. Ersteres erfordert die Eingabe bestimmter Schlüsselbegriffe die in Beschreibung oder Titel der entsprechenden Ressource vorkommen. Bei der facettierten Suche kann der Suchbereich eingeschränkt werden, um so gezielt nach ausgewählten Sprachen, Formaten, Kollektionen, etc. zu suchen. Eine Kombination beider Suchfunktionen ist ebenfall möglich. Darüber hinaus können über das LRS passende digitale Werkzeuge zur Auswertung ausgewählt werden.  

In der Textsuche des VLO kann nun also ein Suchbegriff, wie beispielsweise Lehrbuch eingegeben werden. Die 781 Treffer die hierbei erscheinen sind nach Relevanz in den Metadaten und ihrer Verfügbarkeit sortiert. So werden Treffer in denen der exakte Suchbegriff vorkommt höher gestuft als solche, in denen der Suchbegriff nur in der Beschreibung der Ressource vorkommt. In einem Vorschaufenster können bereits wichtigste Informationen über die Ressource wie Titel, Kollektion und Datenmenge ausgelesen werden. Das Icon rechts neben dem Treffer zeigt an, ob die Quelle öffentlich verfügbar ist. Beim Klicken auf einen bestimmten Treffer gelangt man zum vollständigen Eintrag des Titels. Dieses sogenannte Stammblatt enthält weitere Reiter für Auswahlen wie technische Details und verfügbare Metadaten, Verfügbarkeit und Lizenzen. Beim Klicken auf Ressources kann die Originalquelle angezeigt werden. Dies ist wichtig um sicherzustellen, ob und wie das Werk genutzt werden darf.

Die facettierte Suche bietet die

Read more

Diskursanalytische Fragestellungen mithilfe des DeReKo (Teil 2)

https://youtu.be/56kF3-03_fY

Im ersten Teil dieses Screencasts erklärte Simon Meier, Mitglied der CLARIN F1, wie für diskursanalytische Fragestellungen das Deutsche Referenzkorpus (DeReKo) in COSMAS II mit der integrierten Funktion der Themenannotation genutzt werden kann. hier geht es zum Blogpost der Teil 1 des Videos behandelt. 

Dieser Blogpost beschäftigt sich nun mit Teil 2 von Meier's Screencast, in dem er zeigt, wie die in Teil 1 gefundenen Belege exportiert und mithilfe des kostenlosen Korpusanalysewerkzeugs AntConc weiter untersucht werden können. 

Im letzten Screencast zeigte Meier bereits, dass Formulierungen wie heute weiß man in populärwissenschaftlichen Texten sowie Texten über Ernährung und Gesundheit besonders häufig vorkommen. Die Frage ist nun, welche Gegenstände typischerweise, und mit welchen sprachlichen Mitteln, so repräsentiert werden. Um die Frage zu beantworten werden die Belege zusammen mit Referenzbelegen in AntConc analysiert.  

Vorgehensweise

Da im ersten Screencast nur nach einer bestimmten Formulierung, nämlich heute weiß man, gesucht wurde, wird dieser Schritt wiederholt um mit Einsatz des logischen Operators OR alle möglichen Äquivalente und Alternativen zu finden. Die Belege zu den Themen Populärwissenschaft und Ernährung und Gesundheit, insgesamt 594, werden nun als KWIC heruntergeladen. In einem ersten Schritt lässt sich nun in AntConc eine Wortliste erstellen, mittels derer die häufigsten Wörter in absteigender Reihenfolge angezeigt werden können. Da das Ziel jedoch eine vergleichende Untersuchung ist, wird noch ein thematisch unspezifisches Referenzkorpus gebraucht, um berechnen zu können, welche Wörter in den gefundenen Belegsätzen signifikant häufiger sind als in einem Referenzkorpus. Ein solches kann auf der Seite Wortschatz Leipzig heruntergeladen werden. Meier läd ein Deutsches Korpus aus dem Jahr 2015 mit 100.000 Wörtern und rund 2.000.000 Wörtern herunter. 

Ergebnis

Wieder in AntConc können nun die Keywords berechnet werden. Nach dem Hochladen des Referenzkorpus kann durch klicken auf

Read more