Absolventenpreis: Wie Roboter moralisches Verhalten lernen könnten

Ob Maschinen Moral lernen können, hat Lukas Brand in seiner Magisterarbeit analysiert. © RUB, Kramer

„Mit der zunehmenden Autonomie von Maschinen wird die Frage nach ihrem Verhalten in moralisch signifikanten Situationen immer drängender“, sagt Brand. „Große Technologieunternehmen schenken diesen Fragen daher wachsende Aufmerksamkeit.“

Wenn Maschinen auf moralische Probleme stoßen

Künstliche Intelligenz ist heute nicht nur in den digitalen Assistenten von Suchmaschinen und Onlineshops enthalten. „KI-Software hat in den vergangenen zwei Jahren sogar Weltmeister in klassischen Brettspielen wie Schach oder Go geschlagen“, erzählt Lukas Brand. Intelligente Maschinen könnten künftig praktische Aufgaben übernehmen und sich flexibel an neue Umgebungsbedingungen anpassen – wie etwa das selbstfahrende Auto. Was aber, wenn das System auf ein moralisches Problem stößt?

Genau mit dieser Frage beschäftigte sich der Bochumer Theologe in seiner Magisterarbeit „Künstliche Intelligenz und die Fähigkeit moralischen Urteilens“.

Software könnte entscheidendes Verhalten selbst lernen

Sein Fazit: „Die Merkmale moralischer Probleme sollten der Maschine nicht im klassischen Sinne einprogrammiert werden“, so Brand. Denn eine moderne künstliche Intelligenz ist in der Lage, die maßgeblichen Aspekte einer konkreten Situation selbst zu erkennen, indem sie aus vielen Beispielen lernt und Erfahrungen sammelt.

„Was KI heute so erfolgreich macht, ist ein künstliches neuronales Netzwerk, das in seiner Funktionsweise vom menschlichen Gehirn inspiriert ist“, erklärt der Theologe. In unterschiedlichen Verfahren lernen die Maschinen, Muster zu erkennen und so verschiedene Aufgaben zu bewältigen. „Ihre Lösungsstrategien sind dabei weitaus erfolgreicher als die von menschlichen Experten“, sagt Brand. Es sei nicht auszuschließen, dass ein künstliches neuronales Netzwerk auch ein Muster in menschlichem moralischen Verhalten finde und dieses auf neue Situationen anwende.

Moralisch urteilsfähig

Könnte die KI basierend auf ihren Erfahrungen moralisches Verhalten lernen, das dem des Menschen gleichkäme oder dieses sogar übertreffe, wäre sie als moralisch urteilsfähig anzusehen, folgert Brand in seiner Arbeit. Er stützt sich dabei auf die Definition des antiken Philosophen Aristoteles, der eine moralische, tugendhafte Handlung in der Erfahrung des Handelnden begründet sah.

Pressekontakt

Lukas Brand
Lehrstuhl für Philosophisch-Theologische Grenzfragen
Katholisch-Theologische Fakultät
Ruhr-Universität Bochum
Tel.: 0234 32 22414
E-Mail: lukas.brand@rub.de

Media Contact

Dr. Julia Weiler idw - Informationsdienst Wissenschaft

Weitere Informationen:

http://www.ruhr-uni-bochum.de/

Alle Nachrichten aus der Kategorie: Förderungen Preise

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Bakterien für klimaneutrale Chemikalien der Zukunft

For­schen­de an der ETH Zü­rich ha­ben Bak­te­ri­en im La­bor so her­an­ge­züch­tet, dass sie Me­tha­nol ef­fi­zi­ent ver­wer­ten kön­nen. Jetzt lässt sich der Stoff­wech­sel die­ser Bak­te­ri­en an­zap­fen, um wert­vol­le Pro­duk­te her­zu­stel­len, die…

Batterien: Heute die Materialien von morgen modellieren

Welche Faktoren bestimmen, wie schnell sich eine Batterie laden lässt? Dieser und weiteren Fragen gehen Forschende am Karlsruher Institut für Technologie (KIT) mit computergestützten Simulationen nach. Mikrostrukturmodelle tragen dazu bei,…

Porosität von Sedimentgestein mit Neutronen untersucht

Forschung am FRM II zu geologischen Lagerstätten. Dauerhafte unterirdische Lagerung von CO2 Poren so klein wie Bakterien Porenmessung mit Neutronen auf den Nanometer genau Ob Sedimentgesteine fossile Kohlenwasserstoffe speichern können…

Partner & Förderer