Mann im Anzug, Frau im Bikini. GPT-3 reproduziert Klischees bei Bildgenerierung
Wissenschaftler der George Washington University haben untersucht, wie das KI-Sprachmodell GPT-3 sich bei der Generierung von Bildergänzungen verhält. Als Trainingsmaterial für die Künstliche Intelligenz kamen unbeschriftete Bilder aus dem Internet zum Einsatz. Das Ergebnis: Die KI greift bei der Bildauswahl auf Vorurteile und Klischees zurück. So zeigten Bilder von Männern diese mehrheitlich im Anzug, Frauen hingegen wurden im Bikini oder tief dekolletiert dargestellt.
„Diese Modelle können alle Arten von schädlichen menschlichen Vorurteilen aus Bildern enthalten, die wir ins Internet stellen, und wir müssen genau darüber nachdenken, wer sie erstellt, wie und warum”, kommentierten die Wissenschaftler.