Autonome opake Systeme künstlicher Intelligenz und moralische Verantwortung
Projektleiter:
Finanzierung:
Haushalt;
Der Einsatz autonomer opaker Systeme künstlicher Intelligenz ruft neuartige ethische Probleme hervor. Solche Systeme sind autonom, sie "handeln" und sie sind aufgrund ihrer Opazität von moralischen Subjekten (bspw. Entwicklern und Gutachtern) nicht zu "durchschauen": Die Subjekte wissen nicht, was diese Systeme tun werden und warum sie tun werden, was sie tun werden. Als Artefakte sind diese Systeme Menschengemachtes. Selbst sind sie keine moralischen Subjekte. Allerdings sind ihre Taten von moralischer Relevanz. In dem mit Carlos Zednik (Eindhoven University of Technology) initiierten Forschungs- und Publikationsprojekt soll u.a. untersucht werden, ob in den Fällen, in denen solche Systeme in moralisch relevanter Weise "handeln", Verantwortungslücken (responsibility gaps) entstehen, und ob auftretenden Verantwortungsproblemen mit explainable AI zu begegnen ist.
Kooperationen im Projekt
Publikationen
Die Daten werden geladen ...
Kontakt
Dr. Christoph Sebastian Widdau
Otto-von-Guericke-Universität Magdeburg
Fakultät für Humanwissenschaften
Institut III: Philologien, Philosophie, Sportwissenschaft
Zschokkestr. 32
39104
Magdeburg
Tel.:+49 391 6756652
weitere Projekte
Die Daten werden geladen ...