Wie schafft man es, bei der Entwicklung von Software, von Algorithmen, von KI alle ethischen Fallstricke zu sehen und die richtigen Entscheidungen zu treffen? Aus der Erfahrung in KIDD geht das so:
Man braucht einen konkreten Anwendungsfall ā den Kontext ā anhand dessen diskutiert wird.
Und man braucht eine Gruppe von Menschen, die aus ganz unterschiedlichen Perspektiven auf die Anwendung schaut ā und das Mandat dafĆ¼r hat, Ć¼ber Fairness im Kontext zu entscheiden. Wir nennen es in KIDD das Panel der Vielfalt.
Wann ist eine Recruiting-Software fair? Wenn sie genauso viele Frauen wie MƤnner in den Shortlists vorschlƤgt? Oder genauso viele Frauen wie es dem Anteil der Frauen in der Gruppe der Bewerber*innen entspricht? Oder wenn das Geschlecht Ć¼berhaupt nicht betrachtet wird? Welche anderen Dimensionen auĆer dem Geschlecht sollten angeschaut werden? Solche Entscheidungen den Entwickler*innen zu Ć¼berlassen ist eine Ćberforderung und vor allem gefƤhrlich.
Wir bei Chemistree empfehlen unseren Kunden, bei der MaĆschneiderei unserer Lƶsungen vielfƤltige Perspektiven im Betrieb einzubinden. Und wir freuen uns immer, in enger Abstimmung mit Anwender*innen, BetriebsrƤt*innen oder anderen Stakeholdern zu definieren, was im Kontext #guteKI ist.