Projektdetails
AITE
Das Projekt „Artificial Intelligence, Trustworthiness and Explainability“ (AITE) untersucht, welche erkenntnis- und wissenschaftstheoretischen Standards durch Künstliche Intelligenz eingehalten werden muss, damit sie zum einen als erklärbar gilt und zum anderen, welche ethische Normen sie erfüllen sollte, um als vertrauenswürdig gelten zu können. Im Zentrum unserer Untersuchung steht der Vertrauensbegriff im Hinblick auf Künstliche Intelligenz sowie auf seine Beziehung zur Erklärbarkeit.
Das Projekt besteht aus drei Teilprojekten. Im Teilvorhaben 1 steht die Formulierung epistemischer Standards für erklärbare KI (XAI) anhand von erkenntnis- und wissenschaftstheoretischer Erklärungsnormen im Fokus. Für XAI werden anhand ausgewählter moralisch relevanter Fälle moralische Normen im Teilprojekt 2 entwickelt. In Teilprojekt 3 wird der Vertrauensbegriff im KI-Kontext und seine Beziehung zur Erklärbarkeit untersucht.
Das Projekt wird in Zusammenarbeit des “Ethics and Philosophy Lab” (EPL) des DFG Exzellenz-Clusters “Machine Learning: New Perspectives for Science” (ML-Cluster) und dem “International Centre for Ethics in the Sciences and Humanities” (IZEW) der Universität Tübingen durchgeführt und von der Baden-Württemberg Stiftung gefördert.
Laufzeit | 01.11.2020 - 31.10.2023 |
---|