« Projekte
Sie verwenden einen sehr veralteten Browser und können Funktionen dieser Seite nur sehr eingeschränkt nutzen. Bitte aktualisieren Sie Ihren Browser. http://www.browser-update.org/de/update.html
Autonome opake Systeme künstlicher Intelligenz und moralische Verantwortung
Finanzierung:
Haushalt;
Der Einsatz autonomer opaker Systeme künstlicher Intelligenz ruft neuartige ethische Probleme hervor. Solche Systeme sind autonom, sie "handeln" und sie sind aufgrund ihrer Opazität von moralischen Subjekten (bspw. Entwicklern und Gutachtern) nicht zu "durchschauen": Die Subjekte wissen nicht, was diese Systeme tun werden und warum sie tun werden, was sie tun werden. Als Artefakte sind diese Systeme Menschengemachtes. Selbst sind sie keine moralischen Subjekte. Allerdings sind ihre Taten von moralischer Relevanz. In dem mit Carlos Zednik (Eindhoven University of Technology) initiierten Forschungs- und Publikationsprojekt soll u.a. untersucht werden, ob in den Fällen, in denen solche Systeme in moralisch relevanter Weise "handeln", Verantwortungslücken (responsibility gaps) entstehen, und ob auftretenden Verantwortungsproblemen mit explainable AI zu begegnen ist.
Kontakt

weitere Projekte

Die Daten werden geladen ...