Dates
| single appointment | Fr, 17.04.2026, 10:15 - Fr, 17.04.2026, 13:45 | C 12.001 Seminarraum |
| single appointment | Fr, 08.05.2026, 10:15 - Fr, 08.05.2026, 13:45 | C 14.204 Seminarraum |
| single appointment | Fr, 22.05.2026, 10:00 - Fr, 22.05.2026, 13:00 | C 14.006 Seminarraum |
| single appointment | Fr, 29.05.2026, 10:15 - Fr, 29.05.2026, 13:45 | C 12.001 Seminarraum |
| single appointment | Fr, 19.06.2026, 10:15 - Fr, 19.06.2026, 13:45 | C 12.107 Seminarraum |
| single appointment | Fr, 26.06.2026, 10:15 - Fr, 26.06.2026, 13:45 | C 12.107 Seminarraum |
| single appointment | Fr, 03.07.2026, 10:15 - Fr, 03.07.2026, 13:45 | C 12.107 Seminarraum |
Curriculum context
Individuelle Leistung: Response Paper zum Ablauf der Diskussion. Entwicklung von drei Fragestellungen für ein Experteninterview. Identifikation von drei potentiellen Interviewpartner:innen (25%)
Gruppenleistung: Durchführung von zwei Experteninterviews. Präsentation und kritische Einordnung der Ergebnisse (50 %) (50%)
Resit date: No resit date will be offered to this assessment, because it is didactically inseparably connected with one of the associated courses. A resit will only be possible, if the module is available again.
Organizational information
Registration
Registration ends 07.4.2026 at 23:59 h
Persons
Content
Kann eine Künstliche Intelligenz rassistisch sein? Eine datenverarbeitende Maschine, ein selbstlernender Algorithmus? Solche Fragen beschäftigen längst nicht mehr nur Fans dystopischer Science-Fiction, sondern sind Gegenstand eines wachsenden sozio-technischen Forschungsfelds. Die UN-Sonderberichterstatterin für Rassismus, Ashwini K.P., ist sich in einem jüngsten Bericht sicher: Der weitgehend unregulierte Einsatz von KI verstärke Erscheinungsformen von „systemischem Rassismus“ und „systemischer Unterdrückung“.
In diesem Seminar nähern wir uns dem Verhältnis von Künstlicher Intelligenz und Rassismus vornehmlich, aber nicht ausschließlich, aus soziologischer Perspektive. Wir analysieren konkrete Anwendungsfelder von KI-Systemen – in Polizei und Justiz, im Gesundheitswesen und der Arbeitswelt, in generativen Chatbots und der Bildproduktion. Leitend ist dabei die Frage, wie sich Technologie und Gesellschaft wechselseitig prägen.
Wir untersuchen, wie gesellschaftliche Diskriminierungsstrukturen zu Verzerrungen in Datensätzen führen, wie rassistische Bias durch problematisches Design von Algorithmen verstärkt oder reproduziert werden und wie mächtige KI-Tools gezielt zur Förderung von Hass und Vorurteilen eingesetzt werden können.
Darüber freuen wir uns auf spannende Gastvorträge:
Mit dem Redakteur (netzpolitik.org) und Autoren Ingo Dachwitz diskutieren wir Arbeits- und Produktionsbedingungen von KI: die Dominanz globaler Tech-Konzerne, die Frage nach Diversität in Entwicklerteams sowie die Ausbeutung von Click-Arbeiter:innen im Globalen Süden im Rahmen eines modernen Daten-Kolonialismus.
Mit Nasanin Montazeri, die Angewandten Medienwirtschaft und Medienkultur studierte, sprechen wir über ihre Erfahrung als Leiterin Kommunikation & Marketing bei YOUNA, einem KI-Tool für Rassismusbetroffene, und wollen so neben Risiken auch Chance der neuen Technologien ergründen.
Durch unseren systematischen Einstieg in dieses neues Forschungsfeld, bei dem die Studierenden schließlich selbst Expert:innen-Interviews planen und durchführen, nähern wir uns gemeinsam einem Komplex großer gesellschaftlicher und soziologischer Brisanz: Wie verändert sich Rassismus, wenn seine soziale – also zwischenmenschliche – Konstitution zunehmend durch ein Mensch-Maschine-Verhältnis erweitert oder gar ersetzt wird?
Empirische Ansätze zur Analyse des Zusammenhangs von Künstlicher Intelligenz und Rassismus aneignen. Sie lernen, aktuelle Anwendungsfelder kritisch zu untersuchen und komplexe Wechselwirkungen zwischen Technologie, Diskriminierungsstrukturen und gesellschaftlichen Machtverhältnissen zu erfassen. Das Seminar trägt dazu bei, eine kritische 'AI literacy' zu entwickeln. Sie entwickeln Methodenkompetenz durch kritische Lektüre, Fallanalysen und diskursanalytische Verfahren. Sozialkompetenz stärken sie in kooperativen Arbeitsformen und Diskussionen, Selbstkompetenz durch eigenständige Reflexion ihrer Position im Spannungsfeld von Technologie, Diskriminierung und gesellschaftlicher Verantwortung.
Evaluation
Further information on teaching evaluation: https://www.leuphana.de/en/teaching/quality-management/feedback-instruments.html