KI in der in der Lehre #13: Automatisierte Stereotype? Genderbias in bildgenerativer KI

Reiter

KI in der Lehre #13: Automatisierte Stereotype? Genderbias in bildgenerativer KI

Sie müssen einen Text eingeben
Privater Kommentar
Das Ende der Passage darf nicht kleiner sein als die aktuelle Zeit im Video
Ende der Passage

In dieser Folge schauen wir uns zusammen mit der Referentin aus dem Projekt EnableD an, welche Bia bildgenerative KI in Bezug auf Gender und Intersektionalität hat. Dazu lassen wir uns exemplarisch Output erstellen, den wir analysieren – natürlich ist das keine umfangreiche Untersuchung, aber es treten interessante Auffälligkeiten zu Tage! Zudem sprechen wir darüber, ob und inwiefern Bias einer KI vermieden werden können und wie wir als Nutzer:innen damit umgehen können. Die vollständigen Folien aus dem Podcast können hier heruntergeladen werden: https://doi.org/10.17192/es2025.0034

Eine Erklärung zu Diffusions-Modelle, ohne Formeln, aber relativ detailliert (SDv2, leider noch nicht SDv3; das Prinzip ist ähnlich, die Architektur anders): https://jalammar.github.io/illustrate...

Sehr detailliert, gute Erklärungen mit Formeln: https://lilianweng.github.io/posts/20...

Auch einigermaßen zugänglich, mehr Beispiele, SDv3: https://encord.com/blog/stable-diffus...

Einführung Diffusion an sich, dann SDv2, einige Formeln aber weniger als oben: https://theaisummer.com/diffusion-mod...

Netter Blogpost mit ein paar Schritt-für-Schritt Visualisierungen: https://erdem.pl/2023/11/step-by-step...

Eine Selbstlerneinheit zu KI und Bias von OpenHPI : https://open.hpi.de/courses/kibiases2025 Lernmodul der Philipps-Universität zum Thema bild- und textgenerative KI: https://ilias.uni-marburg.de/goto.php...

Hintergrundbilder im Intro, Outro und in den Schnittszenen erstellt mit Stabe Diffusion, Musik im Intro und Outro: „Driving“ von Jan-Michael Hökenschnieder x Fachhochschule Dortmund, CC BY 4.0, https://www.orca.nrw/oer-support/oer-...

Zeitmarken:

6:50 - Testen verschiedener Prompts mit StableDiffusion und Chat-GPT & Besprechung des Outputs

26:30 - Welche Art von Bias haben wir gesehen & wie kann dieser zustande gekommen sein?

40:10 - kurzer Überblick zur Architektur & Funktionsweise bildgenerativer KI

44:50 - zweite Testphase: Bias & historische Falschheit provozieren

47:30 - ist eine komplett bias-freie KI überhaupt möglich? Wie gehen wir als Nutzer:innen mit Bias um?