Zeit: | 26. September 2023, 18:00 Uhr |
---|---|
Download als iCal: |
|
Künstliche Intelligenz übernimmt Entscheidungen, die früher von Menschen getroffen wurden: Wer bekommt einen Bankkredit? Wer darf was studieren? Wer hat welche Krankheit? Anfangs gab es die Illusion, dass eine Künstliche Intelligenz objektiv ist, weil sie nicht aufgrund von Geschlecht, Hautfarbe oder Alter entscheidet. Es hat sich aber gezeigt, dass Künstliche Intelligenz unfaire Diskriminierungen vom Menschen lernt. Die KI-Forschung erforscht Maßnahmen, um solche Diskriminierungen zu vermeiden. Diese Maßnahmen sind aber selbst wertebehaftet und realisieren Karikaturen philosophischer Vorstellungen von Gerechtigkeit, über die auch in der derzeitigen Rechtsprechung gestritten wird. Sollten benachteiligte Gruppen eine bevorzugte Behandlung genießen? Hinter der Beantwortung dieser Frage und der Urteilsfindung der Künstlichen Intelligenz stecken ganz unterschiedliche Vorstellungen von Gerechtigkeit, die von Philosophen wie John Rawls oder Robert Nozick ganz verschieden konzipiert wurden.
Steffen Staab hat eine Professur für Analytic Computing am Institut für Künstliche Intelligenz der Universität Stuttgart und eine Professur für Web and Computer Science an der University of Southampton. Er ist Ko-Sprecher des Exzellenzclusters „Data-integrated Simulation Science (SimTech)“ und des Stuttgart Research Focus IRIS - Interchange Forum for Reflecting Intelligent Systems. Er ist Mitgründer der Semanux GmbH, deren Künstliche Intelligenz es erlaubt, flexibel mit Computern zu interagieren ohne die Hände zu benutzen.