Über uns

Über die Convention

Künstliche Intelligenz bestimmt bereits mehr unseren Alltag, als wir vielleicht denken und wahrnehmen. Wir leben mit KI, und Forscherinnen und Forscher aus unterschiedlichen Disziplinen entwickeln KI als Systeme weiter, die möglichst komplexe Probleme lösen können. Für uns, unsere Gesellschaft, unsere gemeinsame Zukunft. Genau darum veranstalten wir mit vielen engagierten Partner*innen die 1. Convention „KI und wir“ zu Künstlicher Intelligenz und Gender.

Mehr Vielfalt in KI-Forschung und –Entwicklung!

Weltweit ist nicht einmal jede vierte KI-Fachkraft eine Frau. Das zeigt eine aktuelle Auswertung des Karrierenetzwerks LinkedIn für den “Global Gender Gap Report” des World Economic Forums, der im Dezember veröffentlicht wurde. Deutschland fällt in diesem Report besonders auf. Einerseits gehört Deutschland hinter USA und Indien zu den erfolgreichsten Ländern in dem KI-Ranking. Andererseits arbeiten in Deutschland besonders wenige Frauen im KI-Bereich. Nur 16 Prozent aller KI-Fachkräfte in Deutschland sind demnach weiblich.

Schlägt sich männlich dominierte KI-Kompetenz auch in männlich dominierten Denkmustern wieder, die über die digitalen Systeme tradiert werden? Vielfalt bei den Entwicklerinnen und Entwicklern schärft in jedem Fall den Blick auf Vorurteile, die sich unbemerkt auch Algorithmen einschleichen könnten. Auch über Wertevorstellungen, Gestaltung, Anwendung, das Design sollte auf breiterer Basis verhandelt werden. Warum haben digitale Assistenten wie Siri, Alexa zum Beispiel fast alle weibliche Vornamen?

Wie objektiv ist eine KI der Zukunft?

Wichtig ist immer die Frage, mit welchen Daten der Programmierer oder die Programmierin die lernenden Systeme füttert. Auch wenn eine Frau ein Projekt leitet, aber die Daten Frauen oder Männern ungleich darstellen, werden diese reproduziert und Diskriminierung abgeleitet.
Also muss KI als System von uns mit möglichst diversen Daten trainiert werden, stets Daten von Menschen aus verschiedenen Altersgruppen und aus unterschiedlichen Umfeldern nutzen und verwenden. Und wir müssen die Ergebnisse kritisch im Blick behalten, auf Diskriminierungen prüfen und ernst nehmen, wenn sich Menschen unfair behandelt fühlen. Diese Kontrolle werden wir nie allein den Maschinen überlassen können.
Wichtig ist also, dass solche Verzerrungen auffallen, in den Blick genommen werden, kritisch und offen reflektiert und diskutiert werden.