News aus der Welt der KI

Hier finden Sie interessante Beiträge aus Forschung und Medien zum Thema Künstliche Intelligenz.

Künstliche Intelligenz filtert Schmuddelbilder aus Direktnachrichten

Künstliche Intelligenz filtert Schmuddelbilder aus Direktnachrichten

Eine Studentin arbeitet an einer Software, die NutzerInnen vor anstößigen Bildern schützt. Um den Algorithmus zu trainieren, benötigt sie allerdings Referenzmaterial. Erfahren Sie hier mehr.
KÜNSTLICHE INTELLIGENZ: “CYBER VALLEY” BEKOMMT ETHIKBEIRAT

KÜNSTLICHE INTELLIGENZ: “CYBER VALLEY” BEKOMMT ETHIKBEIRAT

Das “Cyber Valley” soll die Forschung in der Künstlichen Intelligenz vorantreiben – was das für ethische und gesellschaftliche Folgen haben kann, soll ein Ethikbeirat künftig prüfen. Sie beschäftigen sich mit den Themen Ethik, menschliche Wahrnehmung und der Abschätzung von Technikfolgen. Lesen Sie hier mehr.
WIE VIEL RASSISMUS STECKT IN ALGORITHMEN?

WIE VIEL RASSISMUS STECKT IN ALGORITHMEN?

Mutale Nkonde ist Forscherin und kämpft gegen Rassismus im Zeitalter künstlicher Intelligenz. Ihre bisherige Bilanz für die Tech-Branche ist vernichtend. Hier mehr über ihr Projekt “Racial Literacy in Tech” .
KI-FORSCHER TOBY WALSH “MIKROTARGETING ZERSETZT DIE DEMOKRATIE”

KI-FORSCHER TOBY WALSH “MIKROTARGETING ZERSETZT DIE DEMOKRATIE”

Der australische Forscher Toby Walsh ist Professor für Künstliche Intelligenz an der University New South Wales und beschäftigt sich mit der Koexistenz des Homo sapiens mit dem Homo digitalis, warnt vor den Gefahren für die Demokratie und appelliert an die Gesellschaft, jetzt die Weichen für die Zukunft zu stellen. Erfahren Sie hier mehr.
Unsichtbar für KI mit Mode?

Unsichtbar für KI mit Mode?

Dieses Shirt macht Sie für Künstliche Intelligenz unsichtbar. Forscher aus Leuven haben durch Zufall ein Muster entwickelt, das Menschen für KI-Erkennungssysteme unsichtbar macht. Warum wissen die Wissenschafter aber nicht. Erfahren Sie hier mehr darüber.
ÜBERWACHUNG VON GEFÜHLEN

ÜBERWACHUNG VON GEFÜHLEN

Für die Werbebranche ist es von Vorteil zu wissen, was Bilder und Botschaften auslösen. Andere Programme sollen Autisten helfen, Gefühle zu erkennen. Lesen Sie hier mehr.
DIVERSITÄT UND ALGORITHMEN „NUR HÄNDE VON WEISSEN MENSCHEN WURDEN ERKANNT``

DIVERSITÄT UND ALGORITHMEN „NUR HÄNDE VON WEISSEN MENSCHEN WURDEN ERKANNT``

Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig. Lesen Sie den ganzen Artikel hier.