Welche Moral haben intelligente Maschinen?

Manchmal sind es vor allem die Fragen und weniger die Antworten, die deutlich machen, dass sich die Welt verändert. Das gilt zum Beispiel für Fragen, welche moralischen Folgen sich ergeben, wenn Maschinen und Computer intelligenter werden. Eine Gruppe von ETH-Studierenden hat sich dieser Thematik angenommen.

» Von Florian Meyer, ETH News, 03.04.2017 07:35.

weitere Artikel

Bildergalerie

Eigentlich ist klar: Roboter sind Maschinen und keine Menschen. Gebaut werden sie unter anderem, um den Menschen von rein mechanischer oder repetitiver Arbeit zu entlasten. Ihre Intelligenz ist nicht natürlich, sondern von Computerprogrammen gesteuert.

Infolge der Fortschritte der künstlichen Intelligenz, des maschinellen Lernens und der selbstlernenden Algorithmen erweitern sich aber die Einsatzmöglichkeiten für Maschinen. In der Industrie oder auch in Forschungslabors der ETH Zürich werden heute intelligente Roboter entwickelt und im Transport-, Gesundheits- und Produktionsbereich eingesetzt. Zudem sind bereits Angebote für Sicherheits-, Pflege- oder Dienstroboter auf dem Markt. Hinzu kommen weniger offensichtliche Anwendungen künstlicher Intelligenz wie zum Beispiel solche für Finanzwesen und Handel, soziale Netzwerke und digitale Werbung.

Verschiedene Institute, Laboratorien und Spin-offs der ETH Zürich wirken an der Entwicklung von selbständigen Robotern mit und machen aus Zürich laut der NZZ eine «Hauptstadt der Roboter».

Wie gut entscheidet eine Maschine?

Auch wenn derzeit intelligente Maschinen den Menschen im Denken nicht überflügeln können und vor allem Routineaufgaben übernehmen, so löst ihr Aufkommen doch Fragen aus. Wenn künstliche Maschinen «lernen» und «entscheiden», was passiert dann, wenn ihre Handlungen und Entscheidungen nach menschlichem Ermessen nicht «gut» sind? Wer ist dann für sie verantwortlich? Wer haftet, wenn sie Schaden anrichten?

Augenfällig werden solche moralischen und juristischen Fragen bei selbststeuernden Fahrzeugen und bei Kriegsrobotern. Wer entscheidet, ob ein intelligentes Waffensystem schiesst oder nicht? Unterscheidet ein Waffensystem zwischen einer Kampfsituation und einer Gefechtspause, zwischen fremden Soldaten und Zivilisten? Wie entscheidet ein selbststeuerndes Auto, wenn plötzlich ein Kind auf die Strasse springt, ausweichen aber eine grössere Gruppe von Menschen gefährdet? Noch gibt es keine vollständig autonomen Waffen und Autos, wohl aber weitere Fragen: Wer etwa ist für Fehler in grossen Organisationen verantwortlich oder in komplexen Netzwerken, in denen Menschen und Maschinen am Werk sind?

Immer ein Mensch, sagen die einen. Man muss für solche Fälle einen zusätzlichen Rechtsstatus für «digitale Personen» einrichten, sagen andere. Muss man überhaupt gesetzgeberisch handeln oder besser steuerpolitisch? Zum Beispiel die Wertschöpfung besteuern, die Roboter erzeugen, zumal dann, wenn Menschen ihretwegen Arbeit verlieren?

Das sind Fragen, die bis vor kurzem der Science Fiction vorbehalten schienen. Zuletzt hat jedoch die Medienwelt die Fragen, wie moralisch Maschinen sein müssen, oder welche Ethik für künstliche Intelligenz nötig ist, prominent zum Thema gemacht. Auch politisch gewinnen sie an Bedeutung wie zum Beispiel parlamentarische Vorstösse in der Schweiz und in Europa zeigen, wobei die europäische Resolution sowohl rechtliche Regelungen für die Robotik umfasst als auch einen ethischen Verhaltenskodex für Robotik-Ingenieure.

Nächste Seite: Robotik - ein Thema der Ethik

Werbung

KOMMENTARE

Keine Kommentare

KOMMENTAR SCHREIBEN

*
*
*
*

Alles Pflichfelder, E-Mail-Adresse wird nicht angezeigt.

Die Redaktion hält sich vor, unangebrachte, rassistische oder ehrverletzende Kommentare zu löschen.
Die Verfasser von Leserkommentaren gewähren der NMGZ AG das unentgeltliche, zeitlich und räumlich unbegrenzte Recht, ihre Leserkommentare ganz oder teilweise auf dem Portal zu verwenden. Eingeschlossen ist zusätzlich das Recht, die Texte in andere Publikationsorgane, Medien oder Bücher zu übernehmen und zur Archivierung abzuspeichern.