Lecture Series: (Un)Creative Digital Writing
Digital technologies are fundamentally shaping the practice of creative writing. Both the writing process in all its phases and the products of writing are being reshaped by digital media, and with it our understanding of textuality, authorship, and creativity. In addition to digital and often collaborative writing environments, it is primarily technologies of automated text generation that are transforming our practices and understandings of writing. The interdisciplinary lecture series will address these developments in different areas of creative writing: journalism, education, and literature.
The lectures will address new techniques, formats and genres of creative writing from curatorial practices to automated text generation. Field of interest may include algorithmed and automated journalism, the use of collaborative writing tools in educational settings, creative coding and digital literature and its dissemination. The lecture series will address the technological foundations of these developments as well as their societal impacts and their reflection by the various actors involved. Moreover, it will combine scientific and artistic approaches.
The lecture series is open to the public and will be held digitally. Registrations are accepted at .
Program
Bevor Künstliche Intelligenz literarische Texte schreibt tun dies Elektronengehirne und "künstliche Künstler" (Darmstädter Echo). Vor dem Hintergrund einer Engführung von Mensch und Maschine in der Kybernetik, wie sie auch in der Rede vom Elektronengehirn reflektiert ist, werfen frühe computergestützte literarische Textgeneratoren Fragen zu Autorschaft und Textualität auf. Der Umgang mit generiertem Text als Ergebnis einer Reihe von Anweisungen geht mit ästhetischen Konsequenzen einher, die Herstellung und Analyse gleichermaßen betreffen. Der Vortrag rekonstruiert ausgehend von ausgewählten literarischen Textgeneratoren entsprechende diskurs- und mediengeschichtliche Linien zwischen dichtenden Bots, Konkreter Poesie, Informationstheorie und Kybernetik.
Dr. Claus-Michael Schlesinger ist wissenschaftlicher Mitarbeiter am Institut für Literaturwissenschaft der Universität Stuttgart.
Der Vortrag gibt zunächst einen kurzen Rückblick auf Techniken der automatischen Textgenerierung vor der "statistischen Wende" der Computerlinguistik, bei denen u.a. die Rolle der Sprecher-Intention und das "Zuschneiden" von Texten für bestimmte LeserInnen(gruppen) im Zentrum des Interesses standen. Im Hauptteil erfolgt dann eine ausführlichere Einführung in die Textgenerierung auf der Grundlage von Sprachmodellen heutiger Prägung. Die wichtigsten Typen solcher Modelle (z.B. wortbasiert, embedding-basiert) und die Verfahren zu ihrer Gewinnung werden erläutert, wobei auf damit verbundene Probleme des "bias" hingewiesen wird. Im kürzeren letzten Teil vergleichen wir schließlich die Möglichkeiten und Grenzen solcher Systeme mit denen aus der "Frühphase" und fragen, ob aus der Frühphase womöglich noch etwas zu lernen wäre oder sie schlicht als abgehakt betrachtet werden sollte.
Prof. Dr. Manfred Stede ist Professor für Angewandte Computerlinguistik an der Universität Potsdam.
Viele der aktuellen Gesellschaftsbeschreibungen drehen sich um Digitalisierung, Daten und Algorithmen: So sprechen wir zum Beispiel von der „digitalen Gesellschaft“, der „Gesellschaft der Daten“, oder von einer algorithmisch gesteuerten „Black Box Society“. Ich möchte in meinem Beitrag derartige Beschreibungen von der Datafizierung der Gesellschaft mit der Datafizierung des Journalismus in Beziehung setzen. Dafür unterscheide ich vier Formen eines datafizierten Journalismus: Datenjournalismus, algorithmisierter Journalismus Journalismus, automatisierter Journalismus und metrik-basierter Journalismus. Es soll gezeigt werden, dass die Entwicklung zu zunehmend datenbasierten Formen des Journalismus für einen reflexiven Prozess zwischen medienbezogenem und gesellschaftlichem Wandel steht. Journalismus ist hierbei einerseits tiefgreifend von Datafizierung, Algorithmisierung und Automatisierung betroffen und gleichzeitig zentraler Treiber dieser Prozesse, da er untrennbar mit der Entwicklung digitaler Medientechnologien verbunden ist. Algorithmen haben hierbei nicht nur alle Phasen des Nachrichtenproduktions-prozesses durchdrungen, sie erbringen auch journalismusähnliche Leistungen, welche die kommunikativen Grundlagen der Gesellschaft berühren.
Prof. Dr. Wiebke Loosen ist Senior Researcher am Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI) in Hamburg.
Kreative Leistungen werden durch das Urheberrecht geschützt. Dieses dient dem Ziel, zum einen materielle Interessen der Urheber:innen und zum anderen ihre ideellen Interessen (z.B. an der Anerkennung der Urheberschaft und dem Schutz der Werkintegrität) zu schützen. Die zunehmende Verbreitung von KI-generierten Produkten wie Pressemitteilungen, Übersetzungen, Grafiken oder Werbejingles , die auf den ersten Blick nicht von menschlichen Leistungen zu unterscheiden sind, wirft die Frage auf, ob es einen vergleichbaren Schutz für KI-„Kreativität“ gibt. Welche Rechtfertigung gibt es für die anthropozentrische Ausrichtung des Rechts, das bislang primär menschliche Kreativität schützt? Welche rechtlichen Rahmenbedingungen gelten, wenn KI dazu eingesetzt wird, um den Inhalt fremder Texte zu extrahieren und darauf basierend automatisiert neue Texte zu produzieren? Und wer trägt die Verantwortung dafür wenn durch eine KI produzierte Inhalte gegen Gesetze verstoßen, wie der Beleidigungen von sich gebende Chatbot Tay oder eine Plagiate produzierende KI.
Prof. Dr. Anne Lauber-Rönsberg ist Professorin für Bürgerliches Recht, Immaterialgüterrecht, insb. Urheberrecht, sowie Medien- und Datenschutzrecht an der TU Dresden.
In this talk, I offer a sociolinguistic exploration of what Bucher (2016) calls the algorithmic imaginary: how do we make sense of, interact with, and talk into being, discourse at the intersection between human and nonhuman agency? In the words of Jones (2019), we will consider “how people experience digital texts as both computational processes and textual performances, and how they themselves come to perform with and for algorithms in their day-to-day practices of reading digital texts”. We will use this approach to explore metadiscursive positions – how do people talk about algorithmic text? – but also to analyze (sometimes real, sometimes fictitious or imagined) discursive interactions with not-quite-human textual agents. The data points that we will consider are related to my ongoing research on gender and posthuman linguistics, namely (1) the website thispersondoesnotexist.com and (2) the digital practices surrounding reborn dolls.
Prof. Dr. phil. Theresa Heyd ist Professorin für Anglistische Sprachwissenschaft an der Universität Greifswald.
Kollaboratives Schreiben und (Lehren und) Lernen wird durch digitale Technologien erleichtert; Voraussetzung ist jedoch, dass wir die Zusammenarbeit auf Augenhöhe gestalten. Dies bietet Chancen und Risiken zugleich. Einerseits können kollaborative Praktiken Hierarchien und Barrieren abbauen. Sie ermöglichen es, kreative und unkonventionelle Projekte zu verfolgen, die von Einzelnen nicht bewältigt werden könnten. Andererseits sind die Projektergebnisse anders als früher, denn sie sind sowohl vorläufig als auch hybrid und entstehen in einem agilen und damit sichtbareren Umfeld - und wir müssen lernen, damit in Lehre und Forschung umzugehen. Im Vortrag werde ich neben grundsätzlichen Überlegungen insbesondere auf die Erfahrungen in den Projekten Mapping Moravian Meanings und Digital Herrnhut zurückgreifen.
Prof. Dr. Alexander Lasch ist Professor für Germanistische Linguistik und Sprachgeschichte an der TU Dresden.
The automation of news texts is maturing. The topics covered are expanding to include both softer (e.g. lifestyle) and harder (e.g. watchdog) news. Not only quantitative but also qualitative content (such as quotes) are being included. Hybrid production models are emerging, with reporters post-editing initially automated pieces. And the use of automated news is spreading to smaller, local news organisations as it becomes a commodity sold by news agencies. The first part of this lecture will describe these developments. The second will explore audiences’ perceptions of, and preferences for, journalism produced this way, with evidence drawn from group interviews in which participants were exposed to a range of news stories produced with varying degrees of automation (and none). The results show a complex and interwoven set of perception criteria that can be grouped into four categories: antecedents of perceptions, emotional and cognitive impacts, article composition, and news and editorial values.
Prof. Dr. Neil Thurman ist Professor für Kommunikationswissenschaft an der Ludwig-Maximilians-Universität München.
Gregor Weichbrodt und Hannes Bajohr stellen ihr Textkollektiv 0x0a sowie eigene Arbeiten vor. Dabei präsentieren sie einerseits einzelne Projekte und diskutieren sie, reflektieren andererseits ihr Programm, eine Literatur zu erproben, die eine digitale Wirklichkeit widerspiegelt. Neben genuin digitalen Praktiken wie Programmierung, Scraping, Korpusanalyse und, neuerdings, der Produktion mit KI, steht dabei die Idee im Mittelpunkt, dass Texte Konzepte brauchen, die ihre Machart vorgeben und zugleich offenlegen. Digitale konzeptuelle Literatur ist damit so etwas wie literarisches open source.
Dr. Hannes Bajohr ist wissenschaftlicher Assistent am Seminar für Medienwissenschaft der Universität Basel. Gregor Weichbrodt ist Autor und Künstler.
Computer-generated poetry has been around for almost 70 years. An important difference now is that many of us are making this work central to our practice, rather than doing isolated experiments here and there. It is typical to locate the practices of computer-generating literature within the category of poetry, imagining that it is best understood as a species of constrained or conceptual (perhaps “uncreative”) writing. I have a different idea. In this talk I will discuss another category of practice I call the computational arts, related to software art and process-intensive digital art. Computational artists use computation as their main medium—usually working with computation in the most flexible and general way, by writing computer programs. I see not the literary arts, but the computational arts (spanning visual, sound, literary, and other work) as most fundamental to computer-generated poetry.
Prof. Dr. Nick Montfort is a poet and and professor of digital media at the Massachusetts Institute of Technology (MIT).
Wenn man bei der kreativen Arbeit mit neuronalen Netzwerken zumindest teilweise auf vortrainierte Netzwerke zurückgreift, arbeitet man indirekt mit einem Datenkorpus, auf das man selbst keinen Einfluss ausüben konnte. Daraus ergeben sich Implikationen für das entstehende Werk. Am Beispiel des Einsatzes von Img2Poem für mein Projekt Nature Writing / Machine Writing werde ich darüber nachdenken, wie individuelle Autor*innenstimmen aus dem Korpus des neuronalen Netzwerkes in den generierten Texten sichtbar werden. Darauf aufbauend lassen sich Fragen nach Werk, Autor*innenschaft und Intertextualität stellen. Kategorien und Konzepte, die durch den Einsatz digitaler Technologie im Schreibprozess verändert in den Fokus geraten. Die kreative Arbeit mit neuen technischen Möglichkeiten ermöglicht so auch einen geschärften Blick auf die Kollektivität des Schreibprozesses.
Berit Glanz ist Schriftstellerin und Literaturwissenschaftlerin.
Prof. Allison Parrish is a poet and programmer and an Assistant Arts Professor at the Interactive Telecommunications Program of New York University.
In der Zukunft des digitalen Schreibens wird das, worüber wir 2021 gesprochen haben, unsichtbar geworden sein. Ein Großteil der experimentellen Beiträge verschwindet ganz, weil sie nicht archiviert worden sind. Anderes gerät in Vergessenheit, wird belächelt oder interessiert nur noch die Forschung. Die Veränderungen der Schreibpraktiken geraten ebenfalls in Vergessenheit, aber nicht, weil sie verschwinden, sondern weil sie so selbstverständlich geworden sind. Digitales Schreiben ist wie ein Igel: Eigentlich ein langsames und häufig vorkommendes Tier, das sich leicht beobachten lässt. Trotzdem bekommen wir meistens gar nichts von seiner Existenz mit – allenfalls ein Rascheln im Gebüsch.
Kathrin Passig ist Schriftstellerin.