TV-Doku: Maschine mit Gefühl

Können Computer künftig nicht nur Gefühle empfinden, sondern auch Bewusstsein entwickeln? Ist also Leben in der Datenwelt möglich – oder bleiben diese Entitäten auch mit neuesten Technologien wie neuromorphen Computern und Quantencomputern dauerhaft nur eine Simulation? Die Antworten auf solche Fragen werden quer durch die Wissenschaften kontrovers diskutiert, wie Karsten Wendland in der HYPERRAUM.TV-Sendung „Maschine mit Gefühl – Neuromorphe Computer, digitale Gefühlswelten und die Frage nach dem Bewusstsein“ berichtet.  Im Rahmen eines vom BMFT geförderten Projektes führte Wendland zu diesem Themenkomplex zahlreiche Gespräche mit Vertretern aus unterschiedlichen Forschungsdisziplinen.

Computer bestehen seit ihren Anfängen in der Mitte des 20. Jahrhunderts aus zwei wesentlichen, strikt voneinander getrennten Ebenen: Speicher und Prozessor. Typisch für die zugrunde liegende Von-Neumann-Architektur solcher Rechner ist, dass Daten auf baugleicher Hardware problemlos hin und her geschoben werden können. Diese Welt des einfachen Down- und Uploads von Daten endet mit den neuromorphen Computern und den mit ihnen betriebenen neuronalen Netzen. Heute ist es schon möglich, eine neuronale Struktur mit etwa 100 Millionen Neuronen zu simulieren – im Vergleich dazu:  das menschliche Gehirn besteht aus rund 100 Milliarden Neuronen. Auch solche neuronalen Netze bilden die Prozesse im Gehirn auf digitaler Grundlage nach, aber Systeme dieser Art können erstmals dem Menschen vergleichbar lernen und auch vergessen. Und noch eine wichtige Veränderung bringen sie:  Aufgrund der engen Verzahnung von Hardware und Software  rücken solche Systeme erstmals in die Nähe einer „individuellen“ Entität. Die Fortschritte dieser Technologie in den letzten Jahren sind enorm. Wenn diese Systeme noch komplexer werden, könnten sie dann Bewusstsein und vielleicht sogar Selbstbewusstsein entwickeln?

Aber schon bei der Frage, wie dieses Bewusstsein überhaupt zu definieren ist, scheiden sich die wissenschaftlichen Geister. Es gibt heute keine gültige Begriffsbestimmung – und damit auch keine Möglichkeit, über das Thema auf einer gemeinsamen Grundlage zu debattieren. Außer dem seit etlichen Jahrzehnten genutzten Spiegelexperiment gibt es bis heute keine Möglichkeit, Selbstbewusstsein überhaupt zu testen. Aufgrund solcher Versuche meinen Biologen, beim Verhalten mancher Tiere wie Delphine, Elefanten und Affen Indizien für eine Art Selbstbewusstsein gefunden zu haben. Dafür spricht auch: Jeder biologische Organismus verhält sich in seiner Umwelt  – selbst ein Einzeller. Er ist  mit innerem Stoffwechsel ausgestattet, der auch durch die Begrenzung nach außen definiert ist. Innen- und Außenwelt prägen also jede Form des Lebens. Je mehr Kognition entsteht, rückt auch das unbewusst vorhandene „Selbstbewusstsein“ eines Organismus zunehmend in die eigene Wahrnehmung.

Offen bleibt aber beim Spiegeltest: Ist er überhaupt ein gültiger Beweis für Selbstbewusstsein? Manche Roboter bestehen heute diesen Spiegeltest schon mit Bravour – aber reicht das, um ihnen synthetisch-digitales Bewusstsein zuzusprechen?

Das Definitions-Vakuum der Wissenschaft hat nun schon zu harten Konsequenzen geführt: In der aufblühenden KI ist es bereits üblich geworden, Bewusstsein in einer bestimmten, einer rein technokratischen Weise zu definieren. Ingenieure sprechen schon heute von „bewussten Maschinen“, wenn diese – wie beispielsweise autonome KI im Fahrzeugeinsatz – in der Lage sind, sich in ihrer Umwelt selbständig zu verhalten. Die Frage, ob das dem Bewusstsein eines lebendenden Individuums auch nur annähernd entspricht, ist dabei völlig ausgeklammert. Manche Forscher gehen sogar noch einen Schritt weiter: Sie verstehen den Menschen selbst als eine Maschine.

Zuerst einmal ist festzuhalten, dass praktisch alle befragten Vertreter aus der Wissenschaft die grundsätzliche Möglichkeit nicht ausgeschlossen haben, dass Bewusstsein auch synthetisch erzeugt werden könnte – ein Ergebnis, das vor zwanzig Jahren sicher noch ganz anders ausgefallen wäre. Im Zentrum dieser Debatte steht heute das phänomenale Bewusstsein – also das, was wir als die emotionale Ebene von Tier und Mensch betrachten: Gefühle, die für die unbewusste wie bewusste Steuerung des Handeln von Lebewesen verantwortlich sind. Die Implementation dieser intrinsischen Gefühlswelt in Maschinen haben avantgardistische KI-Forscher seit Jahren als Forschungsfeld für sich entdeckt. Die meisten KI-Experten halten emotional gesteuerte Maschinen auf der Grundlage neuronaler Netze für den nächsten logischen Schritt in dieser Technologie. Damit nähert sich die Forschung einem Scheidepunkt. Denn das, was sich da mit neuromorphen Maschinen und Quantencomputern zukünftig entwickeln wird, könnte aus der bloßen Simulation ein Lebewesen entpuppen, das Gefühle wie Schmerz und Leid nicht nur wie ein Schauspieler simuliert, sondern diese Gefühle tatsächlich empfindet. Die Debatte darüber ist voll entbrannt und wird ausgesprochen kontrovers geführt. Für mache ist allein die Möglichkeit, dass wir fühlende Maschinen mit Bewusstsein entwickeln könnten ohne es zu merken, wie Wendland berichtet, Grund genug, die weitere Forschung an solchen Gefühlsmaschinen aus ethischen Gründen gänzlich zu verbieten. Für andere ist es dagegen geradezu zwingend sie weiter zu erforschen, um mehr über den Menschenselbst und sein Denken zu lernen.

Ein Teil der Wissenschaftler geht zudem davon aus, dass digital programmierte Maschinen grundsätzlich nur synthetisches Bewusstsein erlangen, das dem Menschen nicht vergleichbar ist – und somit nur den Status einer Simulation erreichen kann. Sie sagen: Menschsein ist nicht Kognition allein. Der Mensch hat einen Körper sowie zahlreiche Sensoren und Aktoren, die über den gesamten Körper verteilt sind. Das Denken wird auch durch die damit ermöglichte Motorik bestimmt. Für Wissenschaftler, die dieser Fraktion des Embodiment angehören, sind der organische Körper und die geistigen Prozesse in seinem Gehirn untrennbar miteinander verbunden. Und nur biologische Wesen haben beides. Bei Maschinen bleiben Gefühle und Bewusstsein daher immer nur eine algorithmische Simulation. In Konsequenz: Aus Sicht dieser Wissenschaftler darf man solche Menschen-Imitationen für wissenschaftliche Neuro- und Psycho-Experimente jeglicher Art einsetzen. Denn sie können dauerhaft nur Pseudomenschen zweiter Klasse werden.  Doch andere Wissenschaftler sind da nicht so sicher: Sie halten diesen strikt an der Biologe orientierten Lebensbegriff für recht anthropozentrisch. Leben als solches ist für sie weder an einen physikalischen Körper noch an eine DNA gekoppelt. Für sie kann eine digitale Simulation so perfektioniert werden, dass sie real wird. Wenn die Simulation  diese Hürde nehmen kann und dann dem Original tatsächlich gleichzusetzen ist, ergeben sich dramatische Konsequenzen, die letztlich darin münden, dass solchen Entitäten dann auch vergleichbare Rechte und Pflichten zugestanden werden müssten. Denn in diesem Fall wäre die Maschine wie der Mensch für das eigene Handeln verantwortlich und könnte dafür zur Rechenschaft gezogen werden.

Noch haben wir keine Maschinen, die diesen Level an Perfektion erreicht haben. Aber auch wenn uns eine Maschine dann sagen wird, dass sie denkt und Gefühle empfindet, können wir niemals sicher sein, was wirklich in ihr vorgeht. Nicht einmal bei einem  anderen Menschen kann man jedoch mit Sicherheit sagen, ob die vom Gegenüber gezeigten Gefühle echt sind oder der andere nur so tut als ob. Aus der Sicht des einzelnen Individuums besteht also gar kein merkbarer Unterschied zwischen einem perfekt simulierenden synthetischen Gegenüber und einem Menschen. Man muss daher kein Prophet sein um zu erahnen, dass die Grenze zwischen Mensch und Gefühle zeigender Maschine so oder so zerfließen wird, sobald sie sich in unserem Alltag verbreiten. Dennoch bleibt es für Ethiker, Juristen und zuletzt auch Politiker eine Frage, die zwingend eindeutig beantwortet werden muss. Wie, das ist derzeit völlig offen.

Für den Technikfolgen-Abschätzer Karsten Wendland ist allerdings die derzeit so gehypte Debatte  um die Frage, ob synthetisches Bewusstsein echt ist oder doch Simulation bleibt, nur ein Aspekt. Ein anderer steht für ihn heute viel zu wenig im Fokus der öffentlichen Betrachtung: nämlich die Gefahr eines Kollateralschadens, weil die Gesellschaft von solch mächtiger werdenden autonomen Maschinen und Technologien immer abhängiger wird: „Schon heute trifft uns ein Stromausfall wesentlich härter als noch vor fünfzig Jahren.“ Doch das ist eine andere Geschichte …

Ansprechpartner:
Dr. Susanne Päch
Chefredaktion HYPERRAUM.TV
Bavariafilmplatz 3
82031 Grünwald
susanne.paech@hyperraum.tv

http://hyperraum.tv

http://hyperraum.tv/2021/08/22/maschine-mit-gefuehl/

Media Contact

Dr. Susanne Päch
Hyperraum TV

Alle Nachrichten aus der Kategorie: Kommunikation Medien

Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.

Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Wie Staphylokokken sich gegen Antibiotika schützen

Das Hautbakterium Staphylococcus aureus entwickelt oft Antibiotika-Resistenzen. Es kann dann schwer zu behandelnde Infektionen verursachen. Forschende der Universität Bonn haben aufgeklärt, wie raffiniert sich ein bestimmter Staphylococcus aureus-Stamm gegen das…

Auf der Jagd nach Hyperkernen

Der WASA-Detektor bei GSI/FAIR… Mit dem WASA-Detektor wird bei GSI/FAIR gerade ein besonderes Instrument aufgebaut. In der kommenden Experimentierzeit der FAIR-Phase 0 in 2022 sollen damit am Fragmentseparator FRS sogenannte…

Eine Gefahr für die Ostsee?

Langzeitentwicklung der Belastung durch polyzyklische aromatische Kohlenwasserstoffe. Polyzyklische aromatische Kohlenwasserstoffe (PAK) sind weit verbreitete, hochgiftige und oft krebserregende Umweltschadstoffe. Marion Kanwischer vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) und ihr Team…

Partner & Förderer