#2 Warum ist KI diskrimierend? Und was können wir dagegen tun?

Shownotes

Heute sprechen wir darüber, warum Künstliche Intelligenz einen Bias hat und Vorurteile und Diskrimierung unserer Gesellschaft übernimmt. Hier sind einige Begriffe, die wir in dieser Folge verwenden:

Gender Health Gap: Es beschreibt geschlechtsspezifische Unterschiede in der Gesundheitsversorgung, die durch Vorurteile, mangelnde Forschung und unzureichende Berücksichtigung weiblicher Bedürfnisse entstehen.

Gender Data Gap: Es beschreibt die Lücke bei der Erhebung und Auswertung geschlechtsspezifischer Daten, wodurch weibliche Perspektiven und Bedürfnisse oft unzureichend berücksichtigt werden.

**Medizinische Studien: ** Frau.Herz. KI Studie Gender Data Gap: Die Welt der Daten ist männlich

Empfehlungen: 🔗Alexandra Wudel @alexandra_wudel

Folgt uns für Fragen, Anregungen und weiterführende Inhalte gerne auf unseren Social Media Kanälen:

🔗 Sarah’s Instagram: @sarah_rojewski 🔗 Inken’s Instagram @askinkenai

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.