KI in der in der Lehre #13: Automatisierte Stereotype? Genderbias in bildgenerativer KI
Reiter
KI in der Lehre #13: Automatisierte Stereotype? Genderbias in bildgenerativer KI
In dieser Folge schauen wir uns zusammen mit der Referentin aus dem Projekt EnableD an, welche Bia bildgenerative KI in Bezug auf Gender und Intersektionalität hat. Dazu lassen wir uns exemplarisch Output erstellen, den wir analysieren – natürlich ist das keine umfangreiche Untersuchung, aber es treten interessante Auffälligkeiten zu Tage! Zudem sprechen wir darüber, ob und inwiefern Bias einer KI vermieden werden können und wie wir als Nutzer:innen damit umgehen können. Die vollständigen Folien aus dem Podcast können hier heruntergeladen werden: https://doi.org/10.17192/es2025.0034
Eine Erklärung zu Diffusions-Modelle, ohne Formeln, aber relativ detailliert (SDv2, leider noch nicht SDv3; das Prinzip ist ähnlich, die Architektur anders): https://jalammar.github.io/illustrate...
Sehr detailliert, gute Erklärungen mit Formeln: https://lilianweng.github.io/posts/20...
Auch einigermaßen zugänglich, mehr Beispiele, SDv3: https://encord.com/blog/stable-diffus...
Einführung Diffusion an sich, dann SDv2, einige Formeln aber weniger als oben: https://theaisummer.com/diffusion-mod...
Netter Blogpost mit ein paar Schritt-für-Schritt Visualisierungen: https://erdem.pl/2023/11/step-by-step...
Eine Selbstlerneinheit zu KI und Bias von OpenHPI : https://open.hpi.de/courses/kibiases2025 Lernmodul der Philipps-Universität zum Thema bild- und textgenerative KI: https://ilias.uni-marburg.de/goto.php...
Hintergrundbilder im Intro, Outro und in den Schnittszenen erstellt mit Stabe Diffusion, Musik im Intro und Outro: „Driving“ von Jan-Michael Hökenschnieder x Fachhochschule Dortmund, CC BY 4.0, https://www.orca.nrw/oer-support/oer-...
Zeitmarken:
6:50 - Testen verschiedener Prompts mit StableDiffusion und Chat-GPT & Besprechung des Outputs
26:30 - Welche Art von Bias haben wir gesehen & wie kann dieser zustande gekommen sein?
40:10 - kurzer Überblick zur Architektur & Funktionsweise bildgenerativer KI
44:50 - zweite Testphase: Bias & historische Falschheit provozieren
47:30 - ist eine komplett bias-freie KI überhaupt möglich? Wie gehen wir als Nutzer:innen mit Bias um?