Der Themenschwerpunkt der Zeitschrift für Praktische Philosophie „Neue Vertrauensfragen? Digitalisierung und Künstliche Intelligenz“ herausgegeben von Prof. Dr. Karoline Reinhardt und Johanna Sinn ist erschienen. Dieser widmet sich der Frage, ob Digitalisierung und Künstliche Intelligenz neue konzeptionelle wie auch ethische Fragen hinsichtlich des Vertrauensbegriffs aufwerfen. Die Einleitung stellt einführend dar, wie Vertrauen bislang in der philosophischen Debatte verstanden wurde und welche neuen Fragen durch digitale Technologien aufgeworfen werden. Es wird herausgearbeitet, dass, obwohl Vertrauen schon lange ein Thema der Philosophie war, insbesondere im Bereich digitaler Technologien Unsicherheit und Verletzbarkeit neue Formen annehmen, die Implikationen für Vertrauensbeziehungen haben und die es philosophisch zu reflektieren gilt. Der Schwerpunkt umfasst neben einer Einleitung sechs Beiträge.
Christopher Koska, Julian Prugger, Sophie Jörg und Michael Reder untersuchen in ihrem Beitrag „Die Verlagerung von Vertrauen vom Menschen zur Maschine: Eine Erweiterung des zwischenmenschlichen Vertrauensparadigmas im Kontext Künstlicher Intelligenz“ die Transformation des Vertrauensbegriffs durch Künstliche Intelligenz. In aller Regel ist das Vertrauen in technische Artefakte eng mit deren Verlässlichkeit verbunden. Während diese Form der (technischen) Verlässlichkeit letztlich zumeist auf ein menschliches Gegenüber (z. B. auf die Herstellenden, die Betreibenden oder die Auditierenden) zurückgeführt wird, erfordert die zunehmende Präsenz von KI-Systemen eine Neubetrachtung dieses Zusammenhangs. Insbesondere bei selbstlernenden Systemen (wie der konnektivistischen KI), die ihre Auswahlkriterien und Selektionsmechanismen durch die Interaktion mit der Umwelt kontinuierlich verändern, zeichnet sich eine graduelle Verschiebung des Vertrauens ab: Vertrauen wandert, so lautet die These im Anschluss an Hartmann (2022), Schritt um Schritt vom Menschen zur Maschine.
Rico Hauswald widmet sich in seinem Beitrag „Caveat usor: Vertrauen und epistemische Wachsamkeit gegenüber künstlicher Intelligenz“ der aktuellen Diskussion zu künstlicher Intelligenz und Vertrauen, welche einerseits durch etwas geprägt ist, was man „Vertrauens-Enthusiasmus“ nennen könnte. Dabei wird Vertrauen als eine Einstellung konzeptualisiert, die wir gegenüber KI-Systemen prinzipiell ausbilden können und – sofern und sobald diese Systeme entsprechend ausgereift sind – auch ausbilden sollten. Auf der anderen Seite wird diese Verwendungsweise des Vertrauens-Begriffs in einem signifikanten Teil der philosophischen Literatur mit großer Skepsis betrachtet. Zwei der in diesem Zusammenhang maßgeblichen Argumente lauten, erstens, dass ein Vertrauen in KI-Systeme nicht mit der für diese Systeme charakteristischen Intransparenz kompatibel sei, und zweitens, dass es auf eine Art Kategorienfehler hinauslaufe, zu sagen, man könne solchen Systemen „vertrauen“. Ich möchte in diesem Aufsatz für die Auffassung argumentieren, dass sowohl die enthusiastische als auch die skeptische Position problematisch sind.
Arne Sonar und Christian Herzog diskutieren in ihrem Beitrag „Vertrauen (in Technik), Vertrauenswürdigkeit (von Technik), Vertrauensadjustierung (gegenüber Technik) - Mensch-Technik-Interaktion im Spannungsfeld von kommunikativen Fähigkeiten, einem kooperativen Miteinander und der Vertrautheit (mit Technik)“ die Bedeutung der zunehmend kommunikativen und damit einhergehenden kooperativen Fähigkeiten von innovativen, z.B. auf KI-Verfahren basierenden, technischen Anwendungen für die Triade aus Vertrauen (in Technologie), Vertrauenswürdigkeit (von Technologie) und Vertrauensadjustierung (gegenüber Technologie). Zudem wird die Frage aufgeworfen, inwiefern die Rolle der Vertrautheit (mit Technologie) in diesem Spannungsverhältnis einzuordnen ist. Vertrauen an sich ist ein essenzielles Moment von Beziehungs- und Interaktionsstrukturen, sowohl im zwischenmenschlichen Miteinander, als auch für die spezifischen Vorgänge der Mensch-Technik-Interaktion. Insbesondere neue Möglichkeiten in der Ausgestaltung kommunikativer Leistungsmerkmale technischer Anwendungen in der unmittelbaren Interaktion mit Nutzer:innen können dabei das auf Vertrauen gegründete, kooperative Miteinander von Mensch und Technik in gänzlich neuen Formen fördern.
Christian Budnik diskutiert in seinem Beitrag „Künstliche Intelligenz und Vertrauen im medizinischen Kontext“ die Frage, wie Vertrauen im medizinischen Kontext durch den Einsatz von KI-Technologien betroffen ist. KI-Anwendungen stellen bereits heute einen wichtigen Bestandteil der medizinischen Praxis dar. Ihr Einsatz verbindet sich allerdings mit einer Reihe von Problemen. In einem ersten Schritt wird hierzu rekonstruiert, worin die philosophische Herausforderung besteht, die sich mit Vertrauen verbindet, und es wird zweitens erläutert, welche Rolle ein plausibel verstandenes Vertrauen im Verhältnis zwischen Patient:innen und Ärzt:innen spielt. Im Hauptteil des Textes wird die Frage diskutiert, ob KI-Technologien vertraut werden kann. Diese Frage ist zentral: Beantwortet man sie positiv, könnte das Ärzt:innen-Patient:innen-Verhältnis als Vertrauensbeziehung überflüssig werden; beantwortet man sie negativ, könnte dies die Vertrauensbeziehung zwischen Ärzt:innen und Patient:innen direkt schädigen, weil wir davon ausgehen müssten, dass unsere Ärzt:innen sich einer Technologie bedienen, der man nicht vertrauen kann. In diesem Zusammenhang werden zwei wichtige Positionen diskutiert, die in der jüngsten Zeit von der These ausgehen, dass man KI-Anwendungen im medizinischen Bereich vertrauen kann – die Ansätze von Ferrario et al. (2021) und von Philip Nickel (2022).
Ingrid Becker untersucht in ihrem Artikel „Blockchain statt Vertrauen“ – Bedeutung der Blockchain-Technologie für Vertrauen und Sich-verlassen-auf“ Vertrauenslosigkeit und Vertrauen in Bezug auf die Blockchain. Vertrauenslosigkeit und damit Vertrauen gelten als Kategorien, die Blockchain- und digitale Technologien über Fragen der bekannten Bitcoin- Anwendung hinaus theoretisch interessant machen. Es zeigt sich jedoch, dass es schwierig wird, wenn wir von „(Nicht-)Vertrauen in die Blockchain“ sprechen. Ist es nicht oftmals eher Verlässlichkeit als Vertrauenswürdigkeit, auf deren Basis Bitcoin- Akteur:innen handeln? Ist Vertrauen in zwischenmenschlichen Beziehungen, das wir alltäglich konkret erleben und oft intuitiv verstehen, und das sich auf Institutionen und Professionen ausweiten kann, für die starre Blockchain-Technologie relevant? Und falls ja, auf welche Weise? Oder wird die Notwendigkeit für Vertrauen – wie es sich im Bitcoin-Whitepaper auf den ersten Blick lesen lässt – mit Bitcoin überflüssig? Sollten wir von einem Technologievertrauen sprechen, das, aufgrund der Unveränderlichkeit dessen, was in der Blockchain gespeichert ist, mit dem interpersonalen Vertrauensparadigma unvereinbar ist und damit eine tiefgreifende Transformation der sozialen Realitäten implizieren würde? Der hier unternommene Versuch, Vertrauen in Abgrenzung zu Sich-verlassen-auf, beide als philosophische Konzepte, im Blockchain-Kontext zu aktualisieren, bedeutet auch, Technologien in ihrer Verwobenheit mit sozial interpretierten Realitäten (des Vertrauens) zu verstehen.
Katja Stoppenbrink und Eva Pöll argumentieren in ihrem Beitrag „Trustless trust? – Zum Begriff des Vertrauens im Rahmen von Blockchainanwendungen“ dafür Vertrauen im Rahmen von Blockchainanwendungen als ‚Institutionenvertrauen‘ zu verstehen. Gegen die in der Literatur zu Blockchainanwendungen verbreitete These, diese erforderten kein nutzerseitiges Vertrauen oder generierten ein neuartiges „vertrauenloses Vertrauen“, wird in diesem Beitrag zunächst gezeigt, dass auch in der Nutzung von Blockchainanwendungen Vertrauensbeziehungen eine Rolle spielen. Das klassische bilaterale interpersonale Vertrauensverständnis von Vertrauenssubjekt und Vertrauensobjekt bleibt dabei strukturell erhalten, die Zuschreibung von Vertrauenswürdigkeit durch das Vertrauenssubjekt erfolgt in einem default-and-challenge Modell. Dabei zeigt sich bereits aus begrifflichen Gründen: Je ‚sicherer‘ das System, desto weniger bedarf es nutzerseitigen Vertrauens. Vertrauen setzt Vulnerabilität voraus. Diese ist mit Blick auf Blockchainanwendungen bei den meisten Nutzer:innen in hohem Maße vorhanden.