Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity đŸłïžâ€đŸŒˆ

digital kompakt | Digitale Strategien fĂŒr morgen - En podcast av Joel Kaczmarek

Kategorier:

EXPERTENGESPRÄCH | Eine kĂŒnstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natĂŒrlich auch in der Maschine wieder. Im GesprĂ€ch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch kĂŒnstliche Intelligenz fĂŒr Diversity besser sensibilisieren kann. Du erfĂ€hrst... 
warum Algorithmic Biases entstehen 
welche Algorithmic Biases in KI derzeit ein Problem sind 
ob man diese Biases einfach „reparieren“ kann 
wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht 
ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können 
mit welchen Methoden man Diskriminierung entlernen kann 
welche Empathie in die FĂŒhrung spielt 
wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann âžĄïž Du konntest dir keine Notizen machen? Unser [digital kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir fĂŒr jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich schwerpunktmĂ€ĂŸig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-GrĂŒnderin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich fĂŒr Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmĂ€ĂŸig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie fĂŒreinander sowie ein ganzheitliches Bild und VerstĂ€ndnis fĂŒr verschiedene Rollen und Perspektiven. __________________________ ||||| PERSONEN ||||| đŸ‘€ Joel Kaczmarek, GeschĂ€ftsfĂŒhrer digital kompakt đŸ‘€ Lunia Hara, LinkedIn Changemaker đŸ‘€ Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM __________________________ ||||| SPONSOREN ||||| đŸ”„ [Übersicht](https://www.digitalkompakt.de/sponsoren/) aller Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00) Vorstellung und EinfĂŒhrung ins Thema   (00:04:38) Was ist Algorithmic Bias?   (00:08:00) Kann man Algorithmic Bias reparieren?   (00:13:05) Reinforcement Learning   (00:17:18) Wie kann man Diversity lehren?   (00:20:45) Empathie in der FĂŒhrung __________________________ ||||| WIR ||||| 💛 [Mehr](https://lnk.to/dkompakt) tolle Sachen von uns  đŸ‘„ Wir von digital kompakt streben die Verwendung einer geschlechtsneutralen Sprache an. In FĂ€llen, in denen dies nicht gelingt, gelten sĂ€mtliche Personenbezeichnungen fĂŒr alle Geschlechter.

Visit the podcast's native language site