CLARIN-D Blog

Integrationspolitik im Bundesländervergleich - Prof. Dr. Andreas Blätte - Forum CA3

https://youtu.be/m1UesOXybEY

Prof. Dr. Andreas Blätte von der Universität Duisburg-Essen beginnt seinen Vortrag auf dem Forum CA3 in Hamburg mit der Frage, ob ein Bundesintegrationsministerium geschaffen werden soll. In größerem wissenschaftlichem Kontext eingebettet lässt sich die Frage stellen, wie die Schaffung von Integrationministerien die Aufmerksamkeitsstruktur für das Thema Integration beeinflusst. 

Herr Blätte stellt folgende Thesen bezüglich der Effekte, die ein Integrationsministerium haben könnte, und für die Korpora von Nöten sind, auf: 

  • Ausdifferenzierungsthese
    Es bildet sich ein ausdifferenzierter Bereich der Integrationspolitik, andere Bereiche werden so entlastet
  • Mobilisierungsthese
    Der Integrationsminister trägt die Verantwortung dafür zu sorgen, dass die Kabinettsmitglieder ihre Aufgaben im Integrationsbereich erfüllen  
  • Mehrebeneneffekte
    Ein Land, welches ein Integrationsministerium hat, könnte eine Vorbildrolle für andere Länder und/oder den Bund bilden 
  • Leitbildthese
    Entwicklungen in größeren Bereichen, denen sich Bund und Länder nicht weiter entziehen können, und die Institutsunabhängig sind  

Die Korpora, die hierfür genutzt werden, sind das PolMine-Plenarprotokollkorpus aller Landtage der Wahlperioden ab Beginn des 21. Jahrhunderts und bis Ende 2012, welches in Zusammenarbeit mit dem IDS erstellt wurde und das PolMine-Plenarprotokollkorpus des Bundestages zwischen der 13. und der 17. Wahlperiode, das innerhalb eines CLARIN Kurationsprojektes erstellt wurde. Die Korpora beinhalten Zeitstempel, Annotationen von Tagesordnungspunkten und Sprechenden, und decken mit 330 Millionen Wörtern das politische Geschehen in der Breite ab. 

Zur Auswertung der Korpora wurde folgendermaßen vorgegangen: 

  • Um herauszufinden, ob die Aufmerksamkeit auf ein bestimmtes Thema fokusiert ist, wurde Topicmodelling vorgenommen
  • Die Themen wurden anhand von Wortlisten interpretiert und mittels der Volltexte validiert
  • Identifizierung von Topic-Kookkurenzen wurde vorgenommen
  • Aggregation und Visualisierung wurden durchgeführt
  • Auf technischer Seite Arbeit mit dem R Paket polmineR, mit dem Korpora verglichen, Verteilungen von Suchanfragen visualisiert, Kookkurrenzen berechnet oder Konkordanzen angezeigt werden können 

Bei einem Blick den Prof. Blätte auf

Read more

Semantische Annotation - Éva Mújdricza-Maydt und Dr. Richard Eckart de Castilho - Forum CA3

https://youtu.be/6vcCDvNDXz4

Éva Mújdricza-Maydt und Dr. Richard Eckart de Castilho stellen auf dem Forum CA3 in Hamburg die Ergebnisse des Kurationsprojektes 3 "Semantische Annotation für Digital Humanities", das innerhalb der F-AG 7 "Inhaltsanalytische Methoden in den Sozialwissenschaften" entstanden ist, vor. 

Das Projekt verfolgte zweierlei Ziele. Zum Einen die semantische Annotation deutscher Korpora, um diese als weiterverwendbare Ressource zur Verfügung zu stellen, und zum anderen die Optimierung des Annotationstools WebAnno für Aufgaben innerhalb und außerhalb des linguistischen Kontextes. 

Um die Ziele zu erreichen, wurden Verblesarten und semantische Rollen von Argumenten der Prädikaten annotiert, was für das Deutsche vorher noch nicht geschehen ist. Diese Vorgehensweise beruht auf der Annahme, dass unterschiedliche Lesarten unterschiedliche Prädikat-Argument-Strukturen erfordern. So gibt es beispielsweise für das Wort bringen drei unterschiedliche Lesarten:

  • übergeben: jemandem etwas übergeben
  • begleiten: jemanden an einen Ort begleiten
  • erbringen: eine Leistung erbringen

Je nach Lesart ändern sich also die semantichen Rollen. So sind diese für die Lesart jemandem etwas übergeben:

  • Agens: der Bringende
  • Thema: das übergebene Objekt
  • Rezipient: der Emfpänger des Objektes

Wohingegen die Rollen für die Lesart eine Leistung erbringen folgenermaßen verteilt sind:

  • Agens: der die Leistung Erbringende
  • Thema: die erbrachte Leistung

Als Grundlage für die Rollenzuweisungen wurde das englische WordNet genutzt, welches für das Deutsche modifiziert und ausgearbeitet wurde. Das Rolleninventar besteht aus 30 Rollen, welche semantisch kodiert und hierarchisch aufgebaut sind. Es wurden zwei deutsche Korpora ausgezeichnet. Im SALSA Korpus, welches mit Nachrichtentexten Standardvarietäten des Deutschen enthält, wurden 3.500 Prädikatinstanzen mit Argumentstrukturen annotiert. Im Vergleich dazu wurde das Dortmunder Chat Corpus, welches nicht-Standardvarietäten enthält, ebenfalls mit 450 Instanzen ausgezeichnet.

Die Ziele, die semantischen Annotation deutscher Korpora, die Entwicklung der dazugehörigen Annotationsinventare und die Weiterentwicklung und Verbesserung von WebAnno, sodass diese

Read more

Web-MAUS Evaluation und Dokumentation eines Integrationsprozesses anhand des ICE-Scotland Corpus - Simon Betz - Forum CA3

https://youtu.be/J-EjQU5JnKg

Simon Betz von der Universität Bielefeld stellt stellvertretend für die  F-AG 6 "Gesprochene Sprache und andere Modalitäten" das CLARIN Kurationsprojekt 3 vor. Hierbei handelt es sich um eine WebMAUS Evaluation anhand des ICE-Scotland Corpus. 

Die generellen Ziele des Kurationsprojektes waren 

  • Best Practice Guidelines für phonetische Anreicherung von Korpusdaten zu entwickeln und definieren
  • Zur Verbesserung von WebMAUS beitragende Tests und Vorschläge zu liefern, um systematische Fehler zu beheben
  • Ein reich annotiertes Sprachkorpus, welches Teil des International Corpus of English: Scotland ist, bereitzustellen

Im Detail bedeutet das, die Erstellung des ersten schottisch-englisches Phoneminventar, das in WebMAUS Eingebunden werden kann. Hierfür wurden phonemische Annotationen für 30.000 gesprochene Wörter aus dem ICE Scotland erzeugt. Das ICE Scotland ist ein Unterkorpus der International Corpora of English für das Schottische. Die Genauigkeit der Annotationen wurde gemessen um darauf beruhend eventuelle Verbesserungen an WebMAUS vorzunehmen. Der gesamte Prozess wurde hierbei detailiert dokumentiert und für CLARIN-D bereitgestellt. 

Die Ergebnisse die aus dem Kurationsprojekt folgten sind ein Schottisch Englisches Phoneminventar mit zugehörigen Annotationsregeln, welche fortlaufend auf Grundlage der Messung des inter-annotator-agreements angepasst wurden. Die Ergebnisse wurden an das BAS in München übermittelt, wodurch sie nun in WebMAUS implementiert werden können. Innerhalb von WebMAUS wurden die phonemischen Annotationen erzeugt und manuell nachkorrigiert, und die Ergebnisse mit denen der menschlichen Annotatoren verglichen. Hierbei wurde insbesondere auf die Übereinstimmung der annotierten Phoneme und der Segmentgrenzen geachtet, wo die Abweichung zwischen den menschlich annotierten und den mittels WebMAUS annotierten Daten wie zu erwartet sehr groß war. 

Durch das Projekt konnte also neben der Evaluation und Verbesserung von WebMAUS auch eine noch nicht vorhandene sprachliche Varietät, das Schottisch Englische, implementiert und CLARIN zur Verfügung gestellt werden.

Read more

Multi-CAST - Prof. Dr. Geoffrey Haig - Forum CA3

 https://youtu.be/kxezf9VQdWU

Prof. Dr. Geoffrey Haig von der Universität Bamberg stellte auf dem Forum CA3 in Hamburg das in der CLARIN F-AG 3 "Linguistische Feldforschung, Ethnologie, Sprachtypologie" entstandene Multilingual Corpus of Annotated Spoken Text, kurz Multi-CAST vor. Der Forschungskontext innerhalb dessen Multi-CAST entstanden ist, ist Korpusbasierte Sprachtypologie. Was genau das heißt ist im Video und in diesem Blogpost zu sehen. 

Mit Sprachtypologie beziehen sich die Entwickler auf die Untersuchung der Gesamtheit aller möglicher menschlicher Sprachen, und das Identifizieren der Grenzen ihrer Variationen. Da es nicht möglich, ist alle Sprachen zu untersuchen, werden die Untersuchungen an einer möglichst ausgewogenen Stichprobe gemacht. Ausgewogen heißt hierbei, dass idealerweise möglichst weit entfernte Sprachen auszuwählen sind.

Beispielsweise werden grammatische Merkmale wie der Gebrauch des grammatischen Genus untersucht. Hierbei werden dann Sprachen ohne Genus mit solchen mit 2 oder 3 möglichen Genusrealisationen und solchen mit 9 oder 10 verglichen. So gelangt man zu diskreten Kategorien, zwischen denen wiederum Korrelationen festgestellt werden können. Grammatik wird also in der Sprachtypologie als statisches Phänomen mit einem Regelsatz und einem Inventar an Formen und Paradigmen gesehen. 

Korpusbasierte Forschung soll in Abgrenzung zur konventionellen Forschungsmethodik gesehen werden. Konventionell bedeutet hierbei zum Beispiel die Untersuchung von Pro-Drop vs. Nicht-Pro-Drop vs. Diskurs-Pro-Drop Sprachen, wo klare Kategorisierungen vorgenommen werden. In korpusbasierter Forschung hingegen könnte nicht nur nach Ja - Nein untersucht werden, sondern nach dem prozentualen Anteil der tatsächlich vorgekommenen Pro-Drops (oder nicht Pro-Drops) aus echten Sprachgebrauchsausschnitten. Diese Forschungsweise ufert also eher in probabilistischen, quantitativen Daten und fließenden Übergängen, als in klar abzugrenzenden Kategorien. 

Der Fokus der Forschung die zu Multi-CAST führte wird durch Fragen nach Informationsfluss zusammnhängender gesprochener Sprache, Einführung neuer Informationseinheiten, Tracken bereits bestehender Informationseinheiten und Persistenzfragen gebildet. Wichtig war es für die Entwickler von

Read more

Empirische Grundlagen Der Linguistik - Dr. Marc Kupietz - Forum CA3

https://youtu.be/5aaqnj_DXI8

Dr. Marc Kupietz vom Mannheimer Institut für Deutsche Sprache (IDS) präsentiert auf dem Forum CA3 2016 in Hamburg DeReKo- das Deutsche Referenz Korpus, sowie die Korpus Analyse Platform KoRaP.

Seit 2004 wird am IDS das DeReKo aufgebaut und erweitert. Es soll als eine Art Ur-Stichprobe gegenwärtigen Sprachgebrauchs gelten und bietet unter anderem die Möglichkeit virtuelle Korpora zu definieren. Wichtig sind beim DeReKo nicht die relativen Größenverhältnisse einzelner Strata, sondern die ausreichende Streuung und Besetzung dieser. Zu den vorhandenen Strata gehören Texte aus der Belletristik, populärwissenschaftliche Texte wie Zeitschriften, konzeptuelle Schriften wie Polmine-Plenarprotokolle, sowie konzeptuelle Mündlichkeit im Bereich internetbasierter Kommunikation.

Zur dieser internetbasierten Kommunikation gehören Diskussionen aus Wikipedia, Usenet News, sowie das Dortmunder Chat Korpus, welches aus dem CLARIN Kurationsprojekt ChatCorpus2CLARIN entstanden ist. Im Jahr 2016 bestand das DeReKo aus 30 Milliarden Wörtern und zählte rund 38.000 Nutzende

Um einigen Herausforderungen der aktuellen Recherchesoftware COMSAS II wie nicht ausreichenden Recall (97%) oder komplexe Annotationen und Anfragen gerecht zu werden, wurde seit 2011 das neue Recherchesystem KoRaP entwickelt, welches COSMAS II langfristig ablösen soll. Die horizontale Skalierung von KoRaP ermöglicht die parallele Nutzung verschiedener Such- und Analyseknoten. Die Plattform unterstützt verschiedene Anfragesprachen wie Poliqarp oder Annis QL und bietet die Möglichkeit beliebig vieler Annotationsschichten und Suchmöglichkeiten. Der Rückbezug zu den Daten und Texten ist durch die bessere Visualisierung zu jedem Punkt gegeben. 

Read more

Digitale Geschichtswissenschaften - Prof. Dr. Simone Lässig - Forum CA3

https://youtu.be/s_haWGo9K_Y

Prof. Dr. Simone Lässig, Direktorin des Deutschen Historischen Instituts in Washington, spricht auf dem Forum CA3 über die transatlantische Sichtweise auf die Digital Humanities in Europa. Dies zeigt sie am Beispiel der Digitalen Geschichtswissenschaften.

Auch in Nordamerika sind die Digitalen Geisteswissenschaften mit mindestens 60 Zentren, Instituten und Laboren, ein großer Forschungszweig. Historiker und Historikerinnen wussten das Computerzeitalter bereits sehr früh, ca. ab den 1960er Jahren, zu nutzen. So entstanden viele neue Praktiken der Wissenserschließung und Wissensdistribution. Die Finanzierung beziehungsweise Förderung der Digitalen Geschichtswissenschaften geschieht durch staatliche Wissenschaftsförderung, Stiftungen, Unternehmen, die Regierung, große Forschungsuniversitäten, sowie deren private Geldgeber. Forschungs- und Organisationsformen beinhalten Querschnittdepartments von Universitäten, individuelle Forschende, Forschungsinstitute, DH-Zentren sowie DH-Labs. Die Nordamerikanische Forschung in diesem Bereich punktet also mit hoher Diversität in Finanzierung und Formaten. Um eine digitale Zukunft auch in der historischen Forschung sicherzustellen, ist es wichtig Veränderungen und neue Herausforderungen durch neue Arbeitsformen zu reflektieren.

Seit 2012 gibt es in Deutschland ein rasant ansteigendes Interesse an Chancen und Grenzen der Digitalen Geschichtswissenschaften. So bildete sich 2012 die Arbeitsgemeinschaft Digitale Geschichtswissenschaften innerhalb des Deutschen Historischen Instituts. Ziel ist es digitale Fachinformationen, Daten, Fachkommunikation, Vernetzung, Werkzeuge, Methoden und Editionen voranzutreiben, sowie neue Qualifizierungswege und virtuelle Forschungsmethoden zu elaborieren. 2013 integrierte schließlich auch CLARIN-D die digitale Geschichtswissenschaft mit ihrer Facharbeitsgruppe Neuere Geschichte und Zeitgeschichte in ihre Forschungsinfrastruktur. 

In Nordamerika ist beispielsweise das 1994 als Teil des History Departments gegründete und Forschungsnahe Roy Rosenweig Center for History and New Media ein wichtiger Teil der Genese digitaler Geschichtswissenschaften. Seine Hauptaufgaben versteht das Zentrum in Lehre und Lernen, Forschung und Werkzeugen, sowie Sammlungen und Ausstellungen. Zusätzlich bietet das Zentrum Workshops, Fortbildungen und Fellowships an. Auch das Virginia Center for Digital History, gegründet

Read more

DHA: Digital Humanities Austria - Vanessa Hannesschläger - Forum CA3

https://youtu.be/3UbMQI20_PA

Vanessa Hannesschläger von der Österreichischen Akademie der Wissenschaften stellte auf dem Forum CA3 in Hamburg das Netzwerk DHA (Digital Humanities Austria) vor. Ähnlich wie bei CLARIN-D ist das Ziel von DHA die Förderung und Unterstützung der Arbeit mit digitalen Ressourcen, die Inter- und Transdisziplinarität, sowie die Sicherstellung eines offenen Umgangs mit Forschungsdaten und Ergebnissen, die durch die Zusammenarbeit mehrerer Zentren sichergestellt werden soll. 

Im Detail bedeutet das, dass das DHA ein offenes Netzwerk, bestehend aus bisher 9 institutionellen Partnern ist, welches sich der Förderung, Unterstützung und dem Betrieb der Digital Humanities verschrieben hat. Wichtig ist es für die DHA hierbei transparent zu sein. Das heißt open access, open data und open source im Sinne der open science zu betreiben, sowie einen offenen Lebenszyklus der Forschungsdaten und Ergebnisse zu gewähren. Wichtig ist der DHA auch die Entwicklung und Förderung kollaborativer und partizipatorischer Technologien und Projekte mit dem Ziel eines vielfältigen Angebots an Ressourcen, Tools und Repositorien. 

Read more

Unterrichtsdiskurs live - Prof. Dr. Angelika Redder auf dem Forum CA3

https://youtu.be/uUlMW72k4xU

Frau Prof. Dr. Angelika Redder von der Universität Hamburg spricht auf dem Forum CA3 in Hamburg über Möglichkeiten, wie der Unterricht mit Hilfe digitaler Sprachressourcen analysiert und verbessert werden kann. Zwei Projekte, die sich dieser Aufgabe annehmen und von Frau Redder in ihrem Vortrag vorgestellt werden, sind EuroWiss und MuM-Multi

Die wichtigsten Voraussetzungen, um einen Unterrichtsdiskurs erstellen zu können, ist ein integrales Transkriptsionssystem, ein komplexer Editor sowie konstellative Metadaten. Das Erfüllen dieser Voraussetzungen ermöglicht korpuslinguistische Arbeit, Diskursanalyse auf unterschiedlichen Ebenen, integrale Kommunikationsanalyse sowie das Erstellen von Aus- Fort- und Weiterbildungsmaterialien.

Das Projekt EuroWiss, welches sich mit der linguistischen Profilierung einer europäischen Wissenschaftsbildung beschäftigt, hat es sich zur Aufgabe gemacht, ein Korpus zu erstellen, welches diesen Anforderungen genügt. Das Ergebnis sind 3 Korpora die an der UHH Hamburg, der TU Chemnitz und den italienischen Universitäten Bergamo und Modena entstanden sind und aus Video- und Audiographien bestehen. Genauer handelt es sich um rund 350 Stunden authentischen Lehrveranstaltungsmaterials, wovon ca. 45 Stunden Hiat-transkribiert sind. Hinzu kommen Begleitmaterialien wie Vorlesungsfolien, Tafelaufschriebe, Handouts, studentische Mitschriften, Fragebögen, Interviews und studentische Hausarbeiten. Das Ziel war es, universitäre Lehre komparativ darstellen zu können, um Methoden und Thesen bezüglich der Wissensvermittlung vergleichen zu können. In den Korpora sind verschiedene Konstellationsmomente, Turn-Taking und die Planungshoheit sowie das Vermittlungsformat der Lehrveranstaltung annotiert. 

Das Projekt MuM-Multi beschäftigt sich mit Sprachförderung im Mathematikunterricht unter Berücksichtigung der Mehrsprachigkeit der Schüler und Schülerinnen. Das Projekt wurde von der Mathematikdidaktik der TU Dortmund sowie der Linguistik der UHH Hamburg durchgeführt. Zur Verstehensförderung der zu vermittelnden mathematischen Konzepte wurde hierfür die Muttersprache (Türkisch) aktiviert. Das Korpus besteht aus 5 Interventionen mit zunehmender Aktivierung der Muttersprache und forcierter Gruppenarbeit in Kleingruppen von ungefähr 4 bilingualen und schwachen Schülern und Schülerinnen der 7. Klasse. In 6 Sitzungen wurden

Read more

CLARIN in Europa - Prof. Dr. Franciska de Jong auf dem Forum CA3

https://youtu.be/qTMIT79svV8

Als Repräsentantin des CLARIN ERIC spricht Prof. Dr. Franciska de Jong von der Universität Utrecht auf dem Forum CA3 2016 in Hamburg über CLARIN als eine Forschungsinfrastruktur für ein multilinguales Europa.

Welche Probleme entstehen bei der Arbeit mit multilingualen Daten, Sprachwandel und Sprachvarietät und was bedeutet Multilingualität eigentlich? Diesen Fragen und deren Lösung durch eine Forschungsinfrastruktur die Wissen, Fachkenntnisse, Interoperabilität, Kooperationswillen und mehr verbindet, geht Frau Jong in ihrem Vortrag nach. 

Was ist Multilingualität und welche Herausforderungen und Perspektiven bringt sie für eine Forschungsinfrastruktur wie CLARIN mit sich?
Europa stellt mit seinen 24 Amtssprachen und diversen Dialekten ein Paradebeispiel multilingualen Zusammenlebens dar, welches für die meisten Menschen die Norm bildet. Die daraus entstehenden Herausforderungen und Perspektiven für eine Forschungsinfrastruktur sind beispielsweise

  • Einrichtung eines einheitlichen digitalen Binnenmarktes
  • Überschreitung sprachlicher Barrieren im Sinne von sprach- und schriftübergreifender Interoperabilität
  • Möglichkeiten kontrastiver Forschung 
  • Analyseservices für Text- und Sprachdaten als Standbeine sozialer und kultureller Analytik 
  • Beiträge zur Entwicklung neuer methodologischer Rahmenbedingungen zur integrativen Verarbeitung unterschiedlicher Datentypen und multidisziplinärer Forschungsplanung
  • Austausch von Wissen und Expertise im Sinne offener Wissenschaft und Multidisziplinarität
  • Kooperation, zum Beispiel mit anderen Forschungsinfrastrukturen wie DARIAH oder CESSDA
  • Multimodalität durch Videos, Bilder, Audiodateien und mehr 
  • Sprache und Text als kulturelle und sprachliche Daten 

Sprachtechnologische Fortschritte wie die Entwicklung maschinellen Übersetzens seit Mitte des 20. Jahrhunderts und der Digital Turn mit der Entwicklung statistischer und regelbasierter Modelle, sprachübergreifender Suchmaschienen sowie Projekte wie die Europeana Libraries machen das Lösen solcher Aufgaben möglich. Seit dem 21. Jahrhundert nahm auch die Rolle von Sprache als Daten für die natürliche Sprachverarbeitung zu, was unter anderem die so genannte European Science Cloud Arbeit ermöglichte. 

Read more

Digitale Sprachressourcen in der Lehrerbildung - Prof. Dr. Angelika Storrer - Forum CA3

https://youtu.be/ObaE1rYqcIs

Welche Möglichkeiten bieten digitale Sprachressourcen in der Lehrerbildung? Dieser Frage geht Prof. Dr. Angelika Storrer von der Universität Mannheim nach und teilte ihre diesbezüglichen Erfahrungen auf dem Forum CA3 in Hamburg.

Digitale Sprachressourcen wie Onlinewörterbücher, digitale Korpora und Werkzeuge zu deren Auswertung werden immer leistungsfähiger und können gut in die Lehrerbildung eingebunden werden. So können mit dem Gebrauch solcher Ressourcen beispielsweise Wörterbuchwerkstätten entwickelt werden, bei denen Studierende neben dem Nutzen der Korpora und entsprechender Werkzeuge auch erfahren können, welche Verfahren nötig sind um linguistisch annotierte Korpora zu erstellen. 

Für den Gebrauch digitaler Sprachressourcen in der Lehrerbildung gibt es noch keine elaborierten didaktischen Modelle, was Frau Storrer jedoch nicht davon abhielt unterschiedliche Experimente in diesem Feld durchzuführen. So hat sie beispielsweise Wörterbuchwerkstätten eingerichtet, Strukturanalysen mit dem CLARIN Werkzeug WebLicht und korpusbasierte Projekte im Rahmen universitärer Seminare durchgeführt. Innerhalb solcher Projekte können zum Beispiel Wörterbuchdidaktik oder Grammatikdidaktik mit dem Nutzen digitaler Sprachressourcen verbunden werden. 

Im Folgenden wird Frau Storrers digitale Wörterbuchwerkstatt vorgestellt. Die Lehrziele die durch solch eine Wörterbuchwerkstatt erreicht werden können sind vielfältig. So können Studierende die richtige Nutzung von Wörterbüchern erlernen, Wörterbuchtypen unterscheiden und je nach Forschungsfrage das richtige Auswählen, sie lernen Strukturen hinter Wörterbüchern sowie den Stellenwert von Quellen und Korpora in lexikographischen Prozessen zu verstehen und entwickeln ein Gespür dafür, welche Kriterien ein Wörterbuch erfüllen muss, um den jeweiligen Bedürfnissen gerecht zu werden. Solch eine Wörterbuchwerkstatt lässt sich gut in Seminare zu Lexikographie und Wörterbuchdidaktik einbauen und dient hierbei als produktionsorientierte Komponente.

Im Detail besteht ein so aufgebautes Seminar aus drei Komponenten

  • Erarbeitung von Grundbegriffen zum Thema Wörterbücher
  • Erkundung des "Mitmach-Wörterbuchs" Wiktionary
  • Ausarbeitung eigener Wörterbuchartikel im Stil dieses Wikionaries

Die letzte Komponente wird dann gegenseitig begutachtet, um die erstellten Artikel zu überprüfen

Read more