Künstliche Intelligenz verstehbar machen – Erklärprozesse gestalten

Die Mensch-Maschine-Interaktion ist komplex. Um computerbasierte Entscheidungen nachvollziehen zu können, bedarf es Erklärungen.
Universität Paderborn

Wissenschaftler der Universitäten Paderborn und Bielefeld erforschen neue Form der Mensch-Maschine-Interaktion

Bewerbungen aussortieren, Röntgenbilder begutachten, eine neue Songliste vorschlagen – die Mensch-Maschine-Interaktion ist inzwischen fester Bestandteil des modernen Lebens. Grundlage für solche Prozesse künstlicher Intelligenz (KI) sind algorithmische Entscheidungsfindungen. Da diese in der Regel aber schwer nachzuvollziehen sind, bringen sie häufig nicht den erhofften Nutzen mit sich.

Um das zu ändern, diskutieren Wissenschaftler der Universitäten Paderborn und Bielefeld, wie die Erklärbarkeit künstlicher Intelligenz verbessert und an die Bedürfnisse der Menschen angepasst werden kann. Der Ansatz wurde jetzt in dem renommierten Journal „IEEE Transactions on Cognitive and Developmental Systems“ veröffentlicht. Die Forscher stellen Erklären dabei als eine soziale Praktik vor, bei der beide Seiten den Prozess des Verstehens gemeinsam konstruieren.

Erklärbarkeitsforschung

„Künstliche Systeme sind komplex geworden. Das ist ein ernsthaftes Problem – insbesondere dann, wenn Menschen für computerbasierte Entscheidungen verantwortlich gemacht werden“, betont Prof. Dr. Philipp Cimiano, Informatiker der Universität Bielefeld. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ansätze, die eine Erklärbarkeit entsprechender Systeme zum Gegenstand hätten, ausreichend sei das aber noch lange nicht.

Auch Prof. Dr. Katharina Rohlfing von der Universität Paderborn bestätigt den dringenden Handlungsbedarf: „Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Anliegen ist nicht ohne Grund Gegenstand der General Data Protection-Verordnung der Europäischen Union.“ Das Ziel, Algorithmen zugänglich zu machen, ist Kern der sogenannten „eXplainable Artificial Intelligence (XAI)“: „Bei der Erklärbarkeitsforschung stehen Transparenz und Interpretierbarkeit aktuell als gewünschte Ergebnisse im Mittelpunkt“, so Rohlfing über den Stand der Forschung.

Entscheidungsfindung nachvollziehen

Die an der Veröffentlichung beteiligten Wissenschaftler gehen einen Schritt weiter und untersuchen computerbasierte Erklärungen aus unterschiedlichen Blickwinkeln. Dabei sehen sie es als gesetzt an, dass Erklärungen nur dann für die Anwender nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen: „Wir wissen aus vielen Alltagssituationen, dass eine gute Erklärung für sich nichts bringt, wenn die Erfahrungen der anderen Seite unberücksichtigt bleiben. Wer sich wundert, warum seine Bewerbung durch den Algorithmus aussortiert wurde, möchte normalerweise nichts über die Technologie des maschinellen Lernens erfahren, sondern fragt nach der Datenverarbeitung in Bezug auf die eigenen Qualifikationen“, erklärt Rohlfing.

„Wenn Menschen miteinander interagieren, sorgt der Austausch zwischen den Beteiligten dafür, dass eine Erklärung an das Verständnis des Gegenübers angepasst wird. Der Gesprächspartner stellt vertiefende Fragen oder kann Unverständnis äußern, das anschließend aufgelöst wird. Im Fall von künstlicher Intelligenz ist das aufgrund mangelnder Interaktionsfähigkeit mit Einschränkungen verbunden“, so Rohlfing weiter. Um das zu ändern, arbeiten Linguisten, Psychologen, Medienforscher, Soziologen, Ökonomen und Informatiker in einem interdisziplinären Team eng zusammen. Die Experten untersuchen Computermodelle und komplexe KI-Systeme sowie Rollen des kommunikativen Handelns.

Erklären als soziale Praktik

Die Paderborner und Bielefelder Wissenschaftler haben einen konzeptionellen Rahmen für das Design von erklärbaren KI-Systemen entwickelt. Rohlfing: „Mit unserem Ansatz können KI-Systeme ausgewählte Fragen so beantworten, dass der Prozess interaktiv gestaltet werden kann. Auf diese Weise wird eine Erklärung auf den Gesprächspartner zugeschnitten und soziale Aspekte in die Entscheidungsfindung miteinbezogen.“ Das Forscherteam versteht Erklärungen dabei als Abfolge von Handlungen, die von den Parteien im Sinne einer sozialen Praktik zusammengebracht werden.

Konkret soll das durch das sogenannte Scaffolding und Monitoring gesteuert werden. Die Konzepte stammen aus dem Bereich der Entwicklungsforschung: „Vereinfacht ausgedrückt beschreibt Scaffolding – aus dem Englischen für ‚Gerüst‘ – eine Methode, bei der Lernprozesse durch Denkanstöße und Hilfestellungen unterstützt und in Teilschritte zerlegt werden. Beim Monitoring geht es um das Beobachten und Einschätzen der Reaktionen des Gegenübers“, so Rohlfing. Ziel der Wissenschaftler ist es, diese Prinzipien auf KI-Systeme anzuwenden.

Neue Assistenzformen

Der Ansatz soll die aktuelle Forschung erweitern und neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz geben. Die zugrundeliegende Annahme ist, dass es nur dann gelingen kann, aus einer Erklärung Wissen und weiteres Handeln abzuleiten, wenn der Gesprächspartner in den Erklärprozess miteinbezogen wird. Im Kern geht es dabei um die Teilnahme der Menschen an soziotechnischen Systemen. „Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erklärbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu ermöglichen“, fasst Rohlfing zusammen.

Zum Paper: https://ieeexplore.ieee.org/document/9292993

Wissenschaftliche Ansprechpartner:

Prof. Dr. Katharina Rohlfing (PB), Fakultät für Kulturwissenschaften, Fon: 05251-60 5717, E-Mail: katharina.rohlfing@upb.de // Prof. Dr. Philipp Cimiano (BI), Technische Fakultät, Fon: 0521-106 12249, E-Mail: cimiano@cit-ec.uni-bielefeld.de

Originalpublikation:

https://ieeexplore.ieee.org/document/9292993

http://www.uni-paderborn.de

Media Contact

Nina Reckendorf Stabsstelle Presse und Kommunikation
Universität Paderborn

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neue universelle lichtbasierte Technik zur Kontrolle der Talpolarisation

Ein internationales Forscherteam berichtet in Nature über eine neue Methode, mit der zum ersten Mal die Talpolarisation in zentrosymmetrischen Bulk-Materialien auf eine nicht materialspezifische Weise erreicht wird. Diese „universelle Technik“…

Tumorzellen hebeln das Immunsystem früh aus

Neu entdeckter Mechanismus könnte Krebs-Immuntherapien deutlich verbessern. Tumore verhindern aktiv, dass sich Immunantworten durch sogenannte zytotoxische T-Zellen bilden, die den Krebs bekämpfen könnten. Wie das genau geschieht, beschreiben jetzt erstmals…

Immunzellen in den Startlöchern: „Allzeit bereit“ ist harte Arbeit

Wenn Krankheitserreger in den Körper eindringen, muss das Immunsystem sofort reagieren und eine Infektion verhindern oder eindämmen. Doch wie halten sich unsere Abwehrzellen bereit, wenn kein Angreifer in Sicht ist?…

Partner & Förderer