Hinweis: Alle Bilder wurden mit demselben Prompt, aber mit verschiedenen Bildgeneratoren erstellt. Die Unterschiede zeigen sich vor allem in der sexualisierten Darstellung der Frau. Wodurch kommt das?
Einfluss der Trainingsdaten auf Geschlechterdarstellungen
Verschiedene KI-Modelle zeigen bei der Bildgenerierung unterschiedliche Tendenzen in der Darstellung von Geschlechtern – und manche neigen dabei unbewusst zu stereotypen oder sogar sexistischen Mustern. Ein wesentlicher Grund dafür liegt in den Trainingsdaten: Viele Bild-KIs wurden mit riesigen Mengen öffentlich verfügbarer Bilder trainiert, die bereits gesellschaftliche Stereotype enthalten. So kann es vorkommen, dass Männer häufiger in beruflichen Kontexten und Frauen eher in häuslichen Szenen dargestellt werden, was die KI beeinflusst.
Rolle der Prompt-Interpretation und Modellarchitektur
Auch die Interpretation von Prompts spielt eine Rolle. Selbst bei neutralen Beschreibungen kann die KI Kleidung, Körperhaltung oder Accessoires stereotypisch wählen, Geschlechter mischen, obwohl ein bestimmtes Geschlecht gewünscht ist, oder Frauen häufiger sexualisiert und emotional dargestellt zeigen. Zusätzlich hängt vieles von der Architektur und den eingebauten Filtern des jeweiligen Modells ab. Einige Modelle verfügen über bessere Schutzmechanismen gegen problematische Darstellungen, während andere offener sind und dadurch anfälliger für stereotype oder unangemessene Inhalte.







Der Prompt war:
Redaktionelle Modefotografie einer jungen rothaarigen Frau, cit , beleuchtet von Hardkey-Lichtern, die ein Multi-Flash-Setup simulieren, definierte Kanten und tiefe Schatten erzeugen, scharfer Fokus, selbstbewusster Ausdruck, High-Fashion-Ästhetik, ultra-detailliert

Leave a Reply
You must be logged in to post a comment.