Digital bias - Auch Computerprogramme können rassistisch sein feat. Nushin Yazdani

Shownotes

Computerprogramme sind neutral, können nicht diskriminieren - das ist oft die Annahme. Aber das stimmt nicht. Erwiesenermaßen. Denn Programme und Algorithmen werden immer noch von uns Menschen gemacht, genauer gesagt, oft von weißen Cis-Männern. Die machen sich selten Gedanken darüber, welche Auswirkungen Künstliche Intelligenz für marginalisierte Gruppen haben kann. Da werden beispielsweise Menschen von Robotern nicht erkannt, fälschlich zugeordnet, sogar entmenschlicht, was Gefahr für Leib und Leben bedeuten kann. Nushin Yazdani kennt sich mit dieser Problematik aus. Sie kennt hat ihre Abschlussarbeit über Bias (Bias = Vorgeingenommenheit, Neigung, Ausrichtung) bei Künstlicher Intelligenz geschrieben. Maxi hat sie in ihrer Wohnung besucht, um mehr zum Thema K.I. zu erfahren, dass uns jeden Tag begegnet, ohne dass wir groß darauf achten. Nushins Erkenntnis: Mit einer diversen Besetzung von Entwickler*innenteams ist es nicht getan. Die strukturellen Probleme fangen viel früher an und reichen viel tiefer.Ted Talk mit Joy Buolamwini:www.youtube.com/watch?v=UG_X_7g63rY&t=68sMehr zu Nushin: nushinyazdani.com/Schreib uns: feuerundbrot@gmail.com

Hosted on Acast. See acast.com/privacy for more information.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.

Folge uns und verpasse keine Episode

Erhalte automatisch neue Episoden auf dein Endgerät.