Absolventenpreis: Wie Roboter moralisches Verhalten lernen könnten

Ob Maschinen Moral lernen können, hat Lukas Brand in seiner Magisterarbeit analysiert. © RUB, Kramer

„Mit der zunehmenden Autonomie von Maschinen wird die Frage nach ihrem Verhalten in moralisch signifikanten Situationen immer drängender“, sagt Brand. „Große Technologieunternehmen schenken diesen Fragen daher wachsende Aufmerksamkeit.“

Wenn Maschinen auf moralische Probleme stoßen

Künstliche Intelligenz ist heute nicht nur in den digitalen Assistenten von Suchmaschinen und Onlineshops enthalten. „KI-Software hat in den vergangenen zwei Jahren sogar Weltmeister in klassischen Brettspielen wie Schach oder Go geschlagen“, erzählt Lukas Brand. Intelligente Maschinen könnten künftig praktische Aufgaben übernehmen und sich flexibel an neue Umgebungsbedingungen anpassen – wie etwa das selbstfahrende Auto. Was aber, wenn das System auf ein moralisches Problem stößt?

Genau mit dieser Frage beschäftigte sich der Bochumer Theologe in seiner Magisterarbeit „Künstliche Intelligenz und die Fähigkeit moralischen Urteilens“.

Software könnte entscheidendes Verhalten selbst lernen

Sein Fazit: „Die Merkmale moralischer Probleme sollten der Maschine nicht im klassischen Sinne einprogrammiert werden“, so Brand. Denn eine moderne künstliche Intelligenz ist in der Lage, die maßgeblichen Aspekte einer konkreten Situation selbst zu erkennen, indem sie aus vielen Beispielen lernt und Erfahrungen sammelt.

„Was KI heute so erfolgreich macht, ist ein künstliches neuronales Netzwerk, das in seiner Funktionsweise vom menschlichen Gehirn inspiriert ist“, erklärt der Theologe. In unterschiedlichen Verfahren lernen die Maschinen, Muster zu erkennen und so verschiedene Aufgaben zu bewältigen. „Ihre Lösungsstrategien sind dabei weitaus erfolgreicher als die von menschlichen Experten“, sagt Brand. Es sei nicht auszuschließen, dass ein künstliches neuronales Netzwerk auch ein Muster in menschlichem moralischen Verhalten finde und dieses auf neue Situationen anwende.

Moralisch urteilsfähig

Könnte die KI basierend auf ihren Erfahrungen moralisches Verhalten lernen, das dem des Menschen gleichkäme oder dieses sogar übertreffe, wäre sie als moralisch urteilsfähig anzusehen, folgert Brand in seiner Arbeit. Er stützt sich dabei auf die Definition des antiken Philosophen Aristoteles, der eine moralische, tugendhafte Handlung in der Erfahrung des Handelnden begründet sah.

Pressekontakt

Lukas Brand
Lehrstuhl für Philosophisch-Theologische Grenzfragen
Katholisch-Theologische Fakultät
Ruhr-Universität Bochum
Tel.: 0234 32 22414
E-Mail: lukas.brand@rub.de

Media Contact

Dr. Julia Weiler idw - Informationsdienst Wissenschaft

Weitere Informationen:

http://www.ruhr-uni-bochum.de/

Alle Nachrichten aus der Kategorie: Förderungen Preise

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Merkmale des Untergrunds unter dem Thwaites-Gletscher enthüllt

Ein Forschungsteam hat felsige Berge und glattes Terrain unter dem Thwaites-Gletscher in der Westantarktis entdeckt – dem breiteste Gletscher der Erde, der halb so groß wie Deutschland und über 1000…

Wasserabweisende Fasern ohne PFAS

Endlich umweltfreundlich… Regenjacken, Badehosen oder Polsterstoffe: Textilien mit wasserabweisenden Eigenschaften benötigen eine chemische Imprägnierung. Fluor-haltige PFAS-Chemikalien sind zwar wirkungsvoll, schaden aber der Gesundheit und reichern sich in der Umwelt an….

Das massereichste stellare schwarze Loch unserer Galaxie entdeckt

Astronominnen und Astronomen haben das massereichste stellare schwarze Loch identifiziert, das bisher in der Milchstraßengalaxie entdeckt wurde. Entdeckt wurde das schwarze Loch in den Daten der Gaia-Mission der Europäischen Weltraumorganisation,…

Partner & Förderer