Absolventenpreis: Wie Roboter moralisches Verhalten lernen könnten

Ob Maschinen Moral lernen können, hat Lukas Brand in seiner Magisterarbeit analysiert. © RUB, Kramer

„Mit der zunehmenden Autonomie von Maschinen wird die Frage nach ihrem Verhalten in moralisch signifikanten Situationen immer drängender“, sagt Brand. „Große Technologieunternehmen schenken diesen Fragen daher wachsende Aufmerksamkeit.“

Wenn Maschinen auf moralische Probleme stoßen

Künstliche Intelligenz ist heute nicht nur in den digitalen Assistenten von Suchmaschinen und Onlineshops enthalten. „KI-Software hat in den vergangenen zwei Jahren sogar Weltmeister in klassischen Brettspielen wie Schach oder Go geschlagen“, erzählt Lukas Brand. Intelligente Maschinen könnten künftig praktische Aufgaben übernehmen und sich flexibel an neue Umgebungsbedingungen anpassen – wie etwa das selbstfahrende Auto. Was aber, wenn das System auf ein moralisches Problem stößt?

Genau mit dieser Frage beschäftigte sich der Bochumer Theologe in seiner Magisterarbeit „Künstliche Intelligenz und die Fähigkeit moralischen Urteilens“.

Software könnte entscheidendes Verhalten selbst lernen

Sein Fazit: „Die Merkmale moralischer Probleme sollten der Maschine nicht im klassischen Sinne einprogrammiert werden“, so Brand. Denn eine moderne künstliche Intelligenz ist in der Lage, die maßgeblichen Aspekte einer konkreten Situation selbst zu erkennen, indem sie aus vielen Beispielen lernt und Erfahrungen sammelt.

„Was KI heute so erfolgreich macht, ist ein künstliches neuronales Netzwerk, das in seiner Funktionsweise vom menschlichen Gehirn inspiriert ist“, erklärt der Theologe. In unterschiedlichen Verfahren lernen die Maschinen, Muster zu erkennen und so verschiedene Aufgaben zu bewältigen. „Ihre Lösungsstrategien sind dabei weitaus erfolgreicher als die von menschlichen Experten“, sagt Brand. Es sei nicht auszuschließen, dass ein künstliches neuronales Netzwerk auch ein Muster in menschlichem moralischen Verhalten finde und dieses auf neue Situationen anwende.

Moralisch urteilsfähig

Könnte die KI basierend auf ihren Erfahrungen moralisches Verhalten lernen, das dem des Menschen gleichkäme oder dieses sogar übertreffe, wäre sie als moralisch urteilsfähig anzusehen, folgert Brand in seiner Arbeit. Er stützt sich dabei auf die Definition des antiken Philosophen Aristoteles, der eine moralische, tugendhafte Handlung in der Erfahrung des Handelnden begründet sah.

Pressekontakt

Lukas Brand
Lehrstuhl für Philosophisch-Theologische Grenzfragen
Katholisch-Theologische Fakultät
Ruhr-Universität Bochum
Tel.: 0234 32 22414
E-Mail: lukas.brand@rub.de

Media Contact

Dr. Julia Weiler idw - Informationsdienst Wissenschaft

Weitere Informationen:

http://www.ruhr-uni-bochum.de/

Alle Nachrichten aus der Kategorie: Förderungen Preise

Zurück zur Startseite

Kommentare (0)

Schreib Kommentar

Neueste Beiträge

Gedächtnistraining für das Immunsystem

Nach einer Infektion merkt sich das Immunsystem den Krankheitserreger und kann deshalb bei einer erneuten Infektion schnell reagieren. Wissenschaftler der Universität Würzburg haben jetzt neue Details dieses Vorgangs entschlüsselt. Wenn…

Wundheilende Wellen

Wie fragen Zellen in unserem Körper nach dem Weg? Selbst ohne eine Karte, die ihnen den Weg weist, wissen sie, wohin sie gehen müssen, um Wunden zu heilen und unseren…

Treffen der Generationen im Herzen der Galaxis

Astronomen finden eine bisher unbekannte Population von Sternen nahe dem Zentrum der Milchstraße Das Zentrum unserer Heimatgalaxie gehört zu den sternreichsten Gebieten des bekannten Universums. Innerhalb dieser Region haben nun…

By continuing to use the site, you agree to the use of cookies. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close