Lernen im Computermodell

Dass das Gehirn lernen kann, liegt an den besonderen Eigenschaften der Nervenzellen, insbesondere deren Verbindungen, der Synapsen. Bei jeder Aktivität des Gehirns werden Informationen in Form von kurzen, elektrischen Impulsen von Zelle zu Zelle weitergegeben – man sagt, die Nervenzellen „feuern“.

Dabei kann die Weitergabe von Signalen regelrecht geübt werden. Wenn eine Zelle A einen Impuls aussendet, der in Zelle B eine Antwort auslöst, wird der Kontakt von der Zelle A zur Zelle B verstärkt. Besteht kein derartiger Kausalzusammenhang oder feuert wiederholt B kurz vor A, wird der Kontakt geschwächt. Durch diese so genannte „spike-timing dependent plasticity“ (STDP) werden Nervenbahnen durch häufige Wiederholungen ausgebaut. Andere Verknüpfungen hingegen, die selten gebraucht werden, verfallen.

Diese „Plastizität“ des Gehirns, die Fähigkeit zur physiologischen und strukturellen Veränderung, gilt als Grundlage des Lernens. In einer aufwändigen Computersimulation von 100.000 Neuronen mit jeweils 10.000 Kontakten – das entspricht etwas einem Kubikmillimeter Großhirnrinde – haben Abigail Morrison, Ad Aertsen und Markus Diesmann nun Hinweise darauf gefunden, dass STDP alleine noch nicht ausreicht, um Lernvorgänge in Zellen zu erklären. Die Arbeit der Wissenschaftler vom Bernstein Center for Computational Neuroscience, der Universität Freiburg und vom RIKEN Brain Science Institute in Tokyo wird in der Juni-Ausgabe der Zeitschrift Neural Computation publiziert.

Schon in früheren Experimenten konnten die Wissenschaftler zeigen, dass ihre Computersimulation viele Eigenschaften des Gehirns recht gut widerspiegelt. Die virtuellen Neurone feuern mit etwa gleicher Frequenz wie im Gehirn, die Aktivität schaukelt sich weder hoch, noch ebbt sie ab – das System befindet sich in einem „dynamischen Gleichgewicht“. Neu in ihrem Modell ist allerdings, dass die virtuellen neuronalen Verbindungen nun auch die Eigenschaft der Plastizität besitzen. Dazu entwickelte Morrison zunächst eine neue mathematische Formulierung der STDP-Lernregel, welche die in der Literatur publizierten experimentellen Ergebnisse deutlich besser beschreibt. Damit kommt das Modell der Realität noch ein Stück näher.

Um zu untersuchen, ob das Computermodell auch Lernvorgänge simulieren kann, regten die Wissenschaftler wiederholt eine bestimmte Gruppe von Neuronen an. Dabei beobachteten sie, dass zunächst genau das passierte, was ein Lernmodell voraussagen würde: Da die stimulierten Neurone die fortwährenden Impulse an die ihnen nachgeschalteten Neurone weitergaben, wurden diese Kontakte verstärkt. Dies ging aber auf Kosten der Kontakte von anderen vorgeschalteten Zellen im Netzwerk. Die Zellen hörten vornehmlich auf die von außen eingegebenen Signale, dadurch wurden die anderen Kontakte überflüssig und entsprechend abgebaut. Wie die Wissenschaftler feststellten, koppelte sich die ganze Gruppe von Nervenzellen, die auf die Stimulation reagierten, nach einiger Zeit vom Netzwerk ab.

STDP alleine kann also Lernen in einem größeren neuronalen Netzwerk nicht erklären, es müssen weitere Bedingungen erfüllt sein, damit das System tatsächlich lernen kann. Es gibt schon einige Hinweise darauf, was für Bedingungen das sein könnten. Mit der Simulation von großen Netzwerken haben Morrison und ihre Kollegen ein gutes Werkzeug in der Hand, um die verschiedenen Modelle zu überprüfen und sich dem Geheimnis des neuronalen Lernens weiter zu nähern.

Quelle:
Morrison, A., Aertsen, A., & Diesmann, M. (2007). Spike-timing dependent plasticity in balanced random networks. Neural Computation, 19 (6) 1437-1467

http://www.mitpressjournals.org/doi/abs/10.1162/neco.2007.19.6.1437

Kontakt:
Dr. Abigail Morrison
Diesmann Research Unit
Computational Neuroscience Group
RIKEN Brain Science Institute
2-1 Hirosawa
Wako City, Saitama 351-0198
Japan
tel: +81 48 467 9644
abigail@brain.riken.jp
Prof. Dr. Ad Aertsen
Bernstein Center für Computational Neuroscience
Albert-Ludwigs-Universität
Hansastrasse 9a
79104 Freiburg i.Br.
Tel: +49 (761) 203-9549
ad.aertsen@biologie.uni-freiburg.de

Alle Nachrichten aus der Kategorie: Biowissenschaften Chemie

Der innovations-report bietet im Bereich der "Life Sciences" Berichte und Artikel über Anwendungen und wissenschaftliche Erkenntnisse der modernen Biologie, der Chemie und der Humanmedizin.

Unter anderem finden Sie Wissenswertes aus den Teilbereichen: Bakteriologie, Biochemie, Bionik, Bioinformatik, Biophysik, Biotechnologie, Genetik, Geobotanik, Humanbiologie, Meeresbiologie, Mikrobiologie, Molekularbiologie, Zellbiologie, Zoologie, Bioanorganische Chemie, Mikrochemie und Umweltchemie.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neue Industrie-4.0-Lösung für niedrigschwelligen Zugang zu Datenräumen

»Energizing a Sustainable Industry« – das Motto der Hannover Messe 2024 zeigt klar, wie wichtig eine gleichermaßen leistungsstarke und nachhaltige Industrie für den Fertigungsstandort Deutschland ist. Auf der Weltleitmesse der…

Quantenpräzision: Eine neue Art von Widerstand

Physikforschende der Universität Würzburg haben eine Methode entwickelt, die die Leistung von Quantenwiderstands-Normalen verbessern kann. Sie basiert auf einem Quantenphänomen namens anomaler Quanten-Hall-Effekt. In der industriellen Produktion oder in der…

Sicherheitslücke in Browser-Schnittstelle erlaubt Rechnerzugriff über Grafikkarte

Forschende der TU Graz waren über die Browser-Schnittstelle WebGPU mit drei verschiedenen Seitenkanal-Angriffen auf Grafikkarten erfolgreich. Die Angriffe gingen schnell genug, um bei normalem Surfverhalten zu gelingen. Moderne Websites stellen…

Partner & Förderer