(Un)fair AI by ZOLLHOF
Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft eingenommen: ob bei der Auswahl der Bewerber und Bewerberinnen, medizinischen Behandlungsempfehlungen oder Kreditwürdigkeitsprüfungen. Oft unterstützen oder ersetzen sie gar menschliche Entscheidungsträger. Während die Vorteile solcher Automatisierung unbestreitbar sind, wird vermehrt über Algorithmen berichtet, die bestimmte Personengruppen wegen sogenannter sensibler Merkmale, wie z.B. Geschlecht oder Hautfarbe, diskriminieren. Besonders Frauen sind oft davon betroffen.
Wieso diskriminieren Algorithmen? Und wie kann es dazu kommen?
Innerhalb des 7. Know-How Events by ZOLLHOF im Juli gibt Ihnen die Speakerin Klara Krieg einen Einblick in das Forschungsfeld des fairen maschinellen Lernens, das sich mit diesen Fragen befasst. Sie erklärt für Nicht-Techies und Informatikbeginner*innen, wie Algorithmen lernen, welche Rolle Daten spielen und wieso Diskriminierung auftreten kann.
Speakerin:
Klara Krieg hat im Bachelor Wirtschaftsingenieurwesen studiert und schließt im Moment ihren Master in Wirtschaftsinformatik ab. Klara Krieg setzt sich aktiv in verschiedenen Frauennetzwerken ein und steht für mehr Diversity im Tech und IT Bereich. Der Fokus ihrer aktuellen Forschung ist Gender Bias in Neural Networks, welches auch im Bereich der diskriminierenden Algorithmen liegt. Klara Kreg stand schon bei FEMTEC und PANDA auf der Bühne und möchte mehr Aufmerksamkeit und Sichtbarkeit der Themen Algorithmic Fairness und Diskriminierung schaffen.
Die Veranstaltung findet von 16.30h - 17.45h in deutscher Sprache statt. Anmeldung zur Veranstaltung via eventbrite.
Ihr Ansprechpartner:
Katinka Uppendahl
Tel.: +49 89 24210 7508
katinka.uppendahl(at)invest-in-bavaria.de
- calender Download event as iCal
- language Languages