CAISzeit – In welcher digitalen Gesellschaft wollen wir leben?

Center for Advanced Internet Studies, Matthias Begenat

In welcher digitalen Gesellschaft wollen wir eigentlich leben? Dieser Frage widmet sich die CAISzeit. Im Podcast des Center for Advanced Internet Studies (CAIS) diskutieren wir mit Forscher:innen aus verschiedenen Disziplinen, wie die Digitalisierung unsere Gesellschaft verändert. Welche Gefahren gibt es im digitalen Raum und welche Potentiale eröffnet er? Welche digitalen Innovationen bestimmen die Zukunft? Wie verändern digitale Technologien schon jetzt, wie wir arbeiten, uns informieren und uns unsere Meinung bilden? Vor dem Hintergrund wissenschaftlicher Forschung blicken Dr. Matthias Begenat und seine Gäste auf Phänomene der digitalen Transformation. Der digitale Wandel ist dabei mehr als eine rein technologische Entwicklung. Vielmehr ist er ein Prozess, der Politik, Wirtschaft, Medien, Kultur und unser gesamtes soziales Zusammenleben prägt.

  1. 20.11.2025

    Agile Wissenschaft – Forschung in Sprints?

    In dieser Folge der CAISzeit spricht Host Dr. Matthias Begenat mit Samuel T. Simon über Agilität in der Wissenschaft. Gemeinsam diskutieren sie, wie Forschung mit Hilfe agiler Methoden organisiert werden kann, ohne dass Tiefe und wissenschaftliche Gründlichkeit verloren gehen. Außerdem werfen sie einen Blick auf experimentelle Formate und Tools, die gleichzeitig Prozesse strukturieren und Freiräume für interdisziplinäre Forschung schaffen können. Agilität in der Wissenschaft – ist das möglich? Samuel T. Simon argumentiert, dass agile Methoden nicht nur Buzzwords sind, sondern Vorteile für Forschungsprozesse bringen können. Ob bei CERN, NASA oder in der Nachhaltigkeitsforschung: Agile Ansätze können dabei helfen, Prozesse zu optimieren, Teams effizienter zusammenarbeiten zu lassen und Freiräume für die eigentliche Forschung zu schaffen. Dabei geht es vor allem um transparente Kommunikation, klare Strukturen und effiziente Prozesse: Scrum, Kanban und andere Tools machen Projektfortschritte und Zuständigkeiten sichtbar, schaffen Übersicht und ermöglichen eine gemeinsame Sprache. So kann Forschung trotz Agilität weiterhin sorgfältig und wissenschaftlich bleiben. Gleichzeitig erfordert agiles Arbeiten Kompetenzen wie Unsicherheitstoleranz, eine positive Fehlerkultur und transparente Kommunikation sowie eine verantwortliche Prozessbegleitung durch eine:n Facilitator. Empfehlungen zum Thema: Agile Infrastruktur am CERN zur kompletten Umstrukturierung des Ressourcen- und Konfigurationsmanagements ihrer Computing-Center: https://cds.cern.ch/record/1622187 NASA’s Agile Community of Practice: https://ntrs.nasa.gov/api/citations/20240011407/downloads/NASA%20Agile%20TIM%20-%20IAC%202024%20Presentation.pdf  Paper "Agile by Accident" (Biely, 2024): https://doi.org/10.1007/s43545-023-00823-3 Crumbles Framework von Iikka Meriläinen & Julia Autio, University of Oulu: https://www.researchgate.net/publication/391395584_Crumbles_A_Framework_and_Ontology_for_Modular_Inter-and_Transdisciplinary_Dissemination ScrumAdemia, entwickelt von sieben Doktorand*innen am GIGA, ist eine speziell auf die Herausforderungen der Promotionsphase zugeschnittene Adaption des Scrum-Frameworks: https://www.cambridge.org/core/journals/ps-political-science-and-politics/article/introducing-scrumademia-an-agile-guide-for-doctoral-research/6275B823DB54B3FB56011C8A7B182528   "Zwischen den Welten – Ein Wegweiser für transdisziplinäre Forschung" von Josephine B. Schmitt und Samuel T. Simon: https://www.cais-research.de/forschung/inkubator/forschungsinkubator-wegweiser/ Open Educational Resource-Kurs "Agile Forschung" der Uni Duisburg-Essen (noch nicht veröffentlicht) Blogbeitrag zu "Agil Arbeiten in der Wissenschaft"

    36 Min.
  2. 16.07.2025

    Versteckte Regeln, sichtbare Folgen: Wer moderiert unsere Timeline?

    Hasskommentare, Aufrufe zur Gewalt oder rassistische Äußerungen – täglich werden Milliarden Inhalte in sozialen Medien veröffentlicht, darunter auch problematische Äußerungen. Doch wie werden diese Inhalte erkannt und wie moderiert? Warum bleiben hasserfüllte Postings in vielen Fällen online, während scheinbar harmlose Postings gelöscht werden? Wer entscheidet darüber? Wie funktioniert die Moderation der Inhalte genau? Und welche Rolle spielt Künstliche Intelligenz dabei? Gemeinsam mit den Forscher:innen Anna Ricarda Luther (Institut für Informationsmanagement Bremen, Universität Bremen), David Hartmann (Weizenbaum-Institut & TU Berlin) und Prof. Dr. Hendrik Heuer (CAIS, Forschungsprogramm "Design vertrauenswürdiger Künstlicher Intelligenz") spricht Host Dr. Matthias Begenat über die Moderation der Inhalte auf Social-Media-Plattformen. Ein besonderer Fokus liegt auf den sozialen Folgen. Hassrede bleibt nicht nur im digitalen Raum, sondern beeinflusst die Lebensrealität von Aktivist:innen, Lokalpolitiker:innen, Journalist:innen und engagierten Nutzer:innen. Wer regelmäßig angegriffen wird, zieht sich häufig zurück – mit direkten Auswirkungen auf politische Teilhabe und Meinungsvielfalt. Trotz der Herausforderungen gibt es Entwicklungen, die Anlass zur Hoffnung geben. Die Forscher:innen sprechen über neue gesetzliche Regulierungen wie den Digital Services Act, fordern mehr Transparenz und Kontrolle sowie besseren Zugang zu Plattformdaten. Außerdem diskutieren sie zivilgesellschaftliche Initiativen, die sich für sichere digitale Räume starkmachen: Wie kann Moderation besser, fairer und wirksamer werden? Welche Verantwortung tragen Plattformen – und welche Rechte sollten Nutzer:innen haben? Disclaimer: In dieser Folge wird über hasserfüllte Sprache, beleidigende Begriffe und diskriminierende Konzepte gesprochen – u.a. zum Genozid in Myanmar und Tigray und über rassistische Äußerungen. Aus Transparenzgründen haben wir uns entschieden, diese Begriffe im Original wiederzugeben. Wenn Euch das belastet, überspringt gerne die entsprechenden Passagen. 4:28 – 5:06: Genozid an den Rohingya in Myanmar 5:08 – 6:09: Bürgerkrieg in Äthiopien 10:44 – 11:14: Geleakte Dokumente von Meta mit Angabe von beleidigenden Äußerungen 38:30 – 38:50: Hass gegen Menschen mit Behinderung 40:00 – 40:36: Beleidigungen gegen Muslim:innen Hinweis: Betroffene von Hassrede können sich an HateAid wenden: https://hateaid.org/ beratung@hateaid.org Empfehlungen zum Thema: Initiative Save Social Beitrag von Hendrik Heuer, Anna Ricarda Luther und David Hartmann auf der re:publica 25 Data Workers Inquiry "The Cleaners" (2018) – Dokumentarfilm "Careless People" von Sarah Wynn-Williams "Code & Vorurteil - Über Künstliche Intelligenz, Rassismus und Antisemitismus" "Empire of AI" von Karen Hao

    59 Min.
  3. 27.08.2024

    Ist Gerechtigkeit programmierbar? Fairness und Transparenz in Algorithmen.

    Algorithmen bestimmen unser Leben: Von den Inhalten, die wir in sozialen Medien sehen, bis hin zu den Krediten, die uns gewährt werden. Aber inwieweit sind Algorithmen fair und transparent? Und welche Folgen kann es haben, wenn sie es nicht sind? Ist Gerechtigkeit programmierbar? Diese Fragen und mehr besprechen wir in dieser CAISzeit mit Miriam Fahimi. Miriam ist von April bis September 2024 als Fellow am CAIS und promoviert derzeit in den Science and Technology Studies am Digital Age Research Center (D!ARC) der Universität Klagenfurt. Sie erforscht die „Fairness in Algorithmen“ und hat über eineinhalb Jahre in einem Kreditunternehmen beobachtet, wie dort über transparente und faire Algorithmen diskutiert wird. Empfehlungen zum Thema Forschung: ·       Digital Age Research Center (D!ARC), Universität Klagenfurt. https://www.aau.at/digital-age-research-center/ ·       Meisner, C., Duffy, B. E., & Ziewitz, M. (2022). The labor of search engine evaluation: Making algorithms more human or humans more algorithmic? New Media & Society. https://doi.org/10.1177/14614448211063860 ·       Poechhacker, N., Burkhardt, M., & Passoth, J.-H. (2024). 10. Recommender Systems beyond the Filter Bubble: Algorithmic Media and the Fabrication of Publics. In J. Jarke, B. Prietl, S. Egbert, Y. Boeva, H. Heuer, & M. Arnold (Hrsg.), Algorithmic Regimes (S. 207–228). Amsterdam University Press. https://doi.org/10.1515/9789048556908-010   Populärwissenschaftliche Literatur: ·       Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. ·       Webseite von Kate Crawford. https://katecrawford.net Dokumentarfilm: ·       Coded Bias (dt. Vorprogrammierte Diskriminierung; abrufbar auf Netflix): In dieser Dokumentation werden die Vorurteile in Algorithmen untersucht, die die Forscherin am MIT Media Lab Joy Buolamwini in Systemen zur Gesichtserkennung offenlegte. https://www.netflix.com/de/title/81328723 Newsletter: ·       AI Snake Oil von Arvind Narayanan & Sayash Kapoor. https://www.aisnakeoil.com Ticker vom D64 –Zentrum für Digitalen Fortschritt: https://kontakt.d-64.org/ticker/

    39 Min.

Bewertungen und Rezensionen

5
von 5
2 Bewertungen

Info

In welcher digitalen Gesellschaft wollen wir eigentlich leben? Dieser Frage widmet sich die CAISzeit. Im Podcast des Center for Advanced Internet Studies (CAIS) diskutieren wir mit Forscher:innen aus verschiedenen Disziplinen, wie die Digitalisierung unsere Gesellschaft verändert. Welche Gefahren gibt es im digitalen Raum und welche Potentiale eröffnet er? Welche digitalen Innovationen bestimmen die Zukunft? Wie verändern digitale Technologien schon jetzt, wie wir arbeiten, uns informieren und uns unsere Meinung bilden? Vor dem Hintergrund wissenschaftlicher Forschung blicken Dr. Matthias Begenat und seine Gäste auf Phänomene der digitalen Transformation. Der digitale Wandel ist dabei mehr als eine rein technologische Entwicklung. Vielmehr ist er ein Prozess, der Politik, Wirtschaft, Medien, Kultur und unser gesamtes soziales Zusammenleben prägt.