Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity đłïžâđ
digital kompakt | Digitale Strategien fĂŒr morgen - En podcast av Joel Kaczmarek

EXPERTENGESPRĂCH | Eine kĂŒnstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natĂŒrlich auch in der Maschine wieder. Im GesprĂ€ch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch kĂŒnstliche Intelligenz fĂŒr Diversity besser sensibilisieren kann. Du erfĂ€hrst... âŠwarum Algorithmic Biases entstehen âŠwelche Algorithmic Biases in KI derzeit ein Problem sind âŠob man diese Biases einfach âreparierenâ kann âŠwie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht âŠob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können âŠmit welchen Methoden man Diskriminierung entlernen kann âŠwelche Empathie in die FĂŒhrung spielt âŠwie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann âĄïž Du konntest dir keine Notizen machen? Unser [digital kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir fĂŒr jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich schwerpunktmĂ€Ăig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-GrĂŒnderin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich fĂŒr Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmĂ€Ăig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie fĂŒreinander sowie ein ganzheitliches Bild und VerstĂ€ndnis fĂŒr verschiedene Rollen und Perspektiven. __________________________ ||||| PERSONEN ||||| đ€ Joel Kaczmarek, GeschĂ€ftsfĂŒhrer digital kompakt đ€ Lunia Hara, LinkedIn Changemaker đ€ Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM __________________________ ||||| SPONSOREN ||||| đ„ [Ăbersicht](https://www.digitalkompakt.de/sponsoren/) aller Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00) Vorstellung und EinfĂŒhrung ins Thema  (00:04:38) Was ist Algorithmic Bias?  (00:08:00) Kann man Algorithmic Bias reparieren?  (00:13:05) Reinforcement Learning  (00:17:18) Wie kann man Diversity lehren?  (00:20:45) Empathie in der FĂŒhrung __________________________ ||||| WIR ||||| đ [Mehr](https://lnk.to/dkompakt) tolle Sachen von uns đ„ Wir von digital kompakt streben die Verwendung einer geschlechtsneutralen Sprache an. In FĂ€llen, in denen dies nicht gelingt, gelten sĂ€mtliche Personenbezeichnungen fĂŒr alle Geschlechter.