Zwar gibt es beim menschlichen Gehirn durchaus Parallelen zum Computer, denn auch das Gehirn arbeitet über kleine Stromimpulse, ähnlich wie in den Schaltkreisen auf einem Computerchip. Der entscheidenden Unterschied ist allerdings die Flexibilität, denn das Gehirn verändert ständig seine Hardware, während ein Computer eine starre Hardware besitzt, deren Chips und Schaltkreise sich nicht verändern, d.h., elektronische Schaltkreise sind nicht in der Lage, neue zu entwickeln und andere auszuschalten bzw. abzuschwächen. So sind die Versuche, im geplanten Human-Brain-Projekt die Funktionsweise des Gehirns besser zu verstehen, indem man es im Computer nachbaut, völlig aussichtslos ist, nicht allein wegen der derzeit noch fehlenden Rechnerkapazitäten, sondern grundsätzlicher Art. Das normale Funktionieren des Gehirns ist dadurch ausgezeichnet, dass ständig neue Verbindungen zwischen den Nervenzellen hergestellt werden, es stets in einem Wandel ist und sich den Anforderungen anpasst. Daher gehen die zu Beginn des 21. Jahrhunderts gestarteten Versuche, die Struktur des Gehirns zu analysieren, indem man die Hauptverbindungen zwischen den Hirnteilen kartiert und analysiert, an der Realität des Gehirns vorbei, denn dieser strukturelle Ansatz wurde schon vor mehr als einem halben Jahrhundert in der Psychologie versucht.
Schon zu Beginn des zwanzigsten Jahrhunderts wurden erste Karten des Gehirns erstellt, die den Regionen bestimmte Aufgaben zuordnen, etwa das Broca-Areal und das Wernicke-Zentrum, die für die Erzeugung und das Verständnis von Sprache zuständig sind. Diese grobe räumliche Aufteilung ist den modernen Neurowissenschaftlern nicht mehr genug, sondern sie wollen das menschliche Gehirn auf mikroskopischer Ebene zu durchleuchten. Sie wollen verstehen, wo die Hauptbahnen im Gehirn verlaufen, wie sie sich verzweigen, in welche Zellschichten sie gehen und wo die wichtigsten Verbindungen sind. Die Verbindungen der einzelnen Nervenzellen zu kennen, wäre natürlich einerseits für die Grundlagenforschung interessant, denn damit könnten höhere kognitive Leistungen, wie die Entstehung von Sprache, oder die Verarbeitung von visuellen Informationen besser verstanden werden, aber auch für die Diagnose und Behandlung neurologischer Erkrankungen oder der Folge von Schlaganfällen wäre es wichtig, die Verknüpfungen der betroffenen Neuronen möglichst zu kartieren. Zahlreiche psychische Erkrankungen haben eine neurobiologische Basis, denn so sind etwa bei der Schizophrenie verschiedene Aspekte der Konnektivität gestört, angefangen von den Neurotransmittern bis hin zu den Synapsen. Allerdings machen die verschiedenen Größenskalen, die man für ein vollständiges Konnektom, also der Gesamtheit aller Nervenverbindungen eines Gehirns, erfassen müsste, die Aufgabe äußerst schwierig, denn an jeder Synapse befinden sich zahlreiche Rezeptoren, die verschiedene Signalmoleküle binden. Wie viele davon vorhanden sind und auf welche Neurotransmitter sie reagieren, kann sich dabei stark unterscheiden, d. h., um die Weiterleitung eines Reizes von einer Nervenzelle zur nächsten exakt zu beschreiben, müsste man die genaue Zahl und Art aller Rezeptoren kennen. Davon ist die Neurophysiologie noch weit entfernt. Hinzu kommt: Beinahe alle Erkenntnisse der neueren Gehirnforschung bringen keine wirklich neuen Erkenntnisse, die über das hinausgehen, was schon die Gestaltpsychologie, die frühe experimentelle Wahrnehmungspsychologie oder die Ganzheitspsychologie bzw. Feldpsychologie entdeckt haben (s.u.). Die neueren Forschungen liefern höchstens zusätzliche Erklärungen für das Substrat, nicht aber für den Prozess, denn der ist in den Anfängen der Psychologie hinreichend abgeklärt worden, nur macht sich heute offensichtlich niemand die Mühe, diese Erkenntnisse in der einschlägigen Forschungsliteratur eta in der ersten Hälfte des 20. Jahrhunderts nachzulesen. Es wäre aber sicher reizvoll, die klassischen Gestaltgesetze mit den Forschungen der Neuropsychologie oder Neurobiologie abzugleichen.
Selbst wenn es möglich wäre, die Spikes aller Neuronen auf einmal aufzuzeichnen, existiert ein Gehirn niemals isoliert, denn um alles richtig zu verbinden, muss man gleichzeitig externe Reize, denen das Gehirn ausgesetzt ist, sowie das Verhalten des Organismus erfassen. Man müsste das Gehirn zunächst auf makroskopischer Ebene verstehen lernen, bevor man versuchen will zu entschlüsseln, was das Feuern der einzelnen Neuronen überhaupt bedeutet. Auch gibt es bis heute keine einheitliche Theorie über die Funktionsweise des Gehirns, und nicht alle WissenschaftlerInnen sind sich einig, dass der Bau eines simulierten Gehirns der beste Weg ist, dieses zu untersuchen. Vielmehr sind neue Instrumente und Techniken erforderlich, um das Gehirn auf aussagekräftigere Weise zu untersuchen. Bisher hat die Entwicklung solcher Methoden, wenn überhaupt, nur weitere Fragen über das Gehirn aufgeworfen und gezeigt, wie komplex es ist. Daher wird man in den letzten Jahren immer pragmatischer, erkennt die Grenzen des Möglichen an und konzentriert sich auf die Entwicklung von neuem Technologien zur Untersuchung des Gehirns.
Die Angst vor dem Brainscan
Nach einem Bericht von Stefan Krempl in heise.de vom Mai 2018 wird es immer leichter, mit Brainscannern Gehirnwellen zu messen. So fürchten man, dass sich die Geräte bald verbreiten wie Smartphones und dass Hirndaten im großen Maßstab von Facebook, Google & Co. in die Cloud geladen und analysiert werden. Es heißt dort: „Gehirn-Computer-Schnittstellen, über die Nutzer mit ihren Hirnströmen Rechner steuern können, wandern langsam aus dem Forschungsbereich in praktische Anwendungen etwa im Bereich Virtual-Reality-Spiele.“ Auf der re:publica in Berlin wurde schon weniger über Frage der Technik an sich diskutiert, sondern vor allem über den Datenschutz, denn es sei völlig unklar, wem die besonders sensiblen personenbezogenen Informationen gehörten und wer sie kontrolliere. Weiter heißt es dort: „Startups und Internetkonzerne dürften sich bald einen Wettbewerb um die Nutzung der menschlichen Hirndaten liefern, schätzt der Neurologe. Neue einschlägige Gadgets würden dann damit beworben, dass sie dank der Messung der Gehirnaktivitäten ein besseres Nutzungserlebnis böten oder die Anwender klüger machten. Auch mit Schlagwörtern wie „Bewusstseinserweiterung“ oder „Selbstoptimierung“ dürften Kunden angelockt werden. Ähnlich wie bei persönlichen Informationen in sozialen Netzwerken könnte dies dazu führen, dass „Hirndaten im großen Maßstab freigegeben, in die Cloud hochgeladen und ausgewertet werden (…). Die beteiligten Firmen könnten über derart angereicherte Big-Data-Analysen etwa versuchen, Depressionen oder eine Suizidgefahr vorherzusagen.“ In der neuen EU-Datenschutzverordnung gibt es keine spezielle Kategorie dafür jenseits etwa von allgemeinen Gesundheitsdaten, wobei die Einwilligungsoptionen vergleichsweise breit gefasst sind.
Ergebnisse des Human Brain Projects
2023 diskutierten Forschende die Ergebnisse des Human Brain Projects im Forschungszentrum Jülich, wobei 500 Wissenschaftler von mehr als 150 Forschungseinrichtungen aus 19 europäischen Ländern mit einem von 607 Millionen Euro angetreten waren mit dem Ziel, einen digitalen Zwilling des menschlichen Gehirns zu bauen. Über das Ziel, das manche Neurowissenschaftler als nicht erreichbar bezeichneten, gab es schon ein Jahr nach dem Projektstart heftigen Streit. Nach einigen Schlichtungsgesprächen wurde das Human Brain Project mit neuem Führungspersonal fortgesetzt. Um es kurz zu sagen: Einen digitalen Computer-Zwilling gibt es nicht. Dennoch wurde in dem interdisziplinären Mammut-Projekt viel erreicht.
Eines der bemerkenswertesten Ergebnisse ist der 3D-Hirnatlas, eine Art Google Maps für Hirnforscher, indem man den Aufbau menschlicher Gehirne analysierte, die Verstorbene der Wissenschaft zur Verfügung gestellt hatten. Dadurch konnten Gehirn-Areale so genau wie nie zuvor abgegrenzt, krankhafte Veränderungen festgestellt und feinste Verknüpfungen bis hin zu einzelnen Nervenzellen dokumentiert werden. Man kann anhand dieses 3D-Atlas jetzt die Hirnregionen abgrenzen, die bei Menschen mit Parkinson Veränderungen zeigen und durch die hochauflösenden 3D-Darstellungen können Hirnoperationen präziser geplant werden.
Dieser 3D-Atlas kann über einen normalen Internet-Browser aufgerufen und von jedem genutzt werden. Website Human Brain Project: https://www.humanbrainproject.eu/en/science-development/focus-areas/brain-atlases/
Robotik und das Human Brain Project
Es ist übrigens eine große Illusion des Human Brain Projects, dass Roboter schon bald komplizierte Aufgaben erledigen können, wenn man sich die Abläufe im menschlichen Gehirn noch genauer anschaut und sie dann auf die Robotik anwendet. Informatiker betonen gerne, dass die neuen Formen des maschinellen Lernens ähnlich ablaufen wie das Lernen im biologischen Gehirn, doch sie sind weder ähnlich noch identisch, denn Deep Learning funktioniert nach völlig anderen Prinzipien, als sie im Gehirn ablaufen, denn Nervenzellen sind viel komplexer als die Units beim maschinellen Lernen. In der Zwischenzeit sind die Vertreter des Human Brain Project mit ihren Versprechen sehr viel vorsichtiger geworden und man ist momentan damit zufrieden, beschränkte intellektuelle Leistungen des Gehirns auf Rechner zu bringen. So hat man „entdeckt“, dass die Objekterkennung in solchen computerbasierten Netzen ganz anders funktioniert als beim Menschen, denn künstliche Netze nutzen Informationen nur bruchstückhaft, d. h., ein künstliches Netz verarbeitet etwa den Inhalt eines Bildes ganz anders als das Gehirn. Nach Ansicht von Experten liegt der wichtigste Unterschied zwischen Mensch und der bisherigen Künstlichen Intelligenz im Generalisierungsverhalten, denn etwa werden wiederzuerkennen oder etwas aus Erfahrung zu lernen, funktioniert nur, wenn manche Details ausgeblendet werden, sodass die entscheidende lautet, welche Informationen können ignoriert werden und welche sind wichtig. Neuronale Netze nicht unbedingt besser, nur weil man ihre Konstruktion an das menschliche Gehirn anlehnt, denn manche Dinge können Maschinen einfach besser, etwa Muster in großen Datenmengen zu erkennen, auch wenn das genau eines jener Probleme verursacht, mit denen man in der Forschung kämpft. Maschinelle Algorithmen gehen eine Aufgabe ganz anders an, als es Menschen tun, denn ihnen fehlt ein Modell der Welt, sodass etwa Menschen teilweise nur ein einziges Trainingsdatum brauchen, um ein Tier wieder zu erkennen. Sie gleichen es einfach mit ihrem Weltmodell ab: Ein Körper mit vier Beinen, Fell, Schnauze? Klar, dass es sich um ein Tier handeln muss. Der Rest ist Feintuning. Umgekehrt sind das genau jene Eigenschaften, die Algorithmen fehlen: das Körpergefühl, das intuitive Verständnis für die Physik, das Menschen bei der Interaktion mit der Umwelt automatisch mitbekommen. Das biologische Gehirn verfügt über einzigartige Fähigkeiten, die das Überleben des Individuums sicherstellen sollen, sodass Menschen dadurch in schwierigen Situationen optimale Entscheidungen treffen können, bei denen widersprüchliche Informationen nicht zwangsläufig ein Problem dar stellen, während sie das für Computer unüberwindbare Hindernisse darstellen. So scheitert etwa die automatische Bilderkennung, wenn in einem Bild nur ein einziges Pixel verändert wird. Ein Mensch würde eine solche Änderung nicht einmal wahrnehmen, denn das Bild wäre für ihn dasselbe (Wolfangel, 2018).
Anmerkung: Das Phänomen der Ganzheit und die aus ihm abgeleitete naturphilosophische Problematik besitzt eine bis in die antike Wissenschaft zurückreichende Denk- und Forschungstradition. Am Beginn des 19. Jahrhunderts wird von Burdach und Goethe eine eigene biologische Ganzheitslehre (Morphologie) begründet, deren Aufgabe die Untersuchung der organischen Formgebung und des Gestaltwechsels der Organismen ist. Ende des 19. Jahrhunderts entstand in der Wahrnehmungspsychologie eine ganzheitlich orientierte Gestalttheorie, die die Ganzheitseigenschaften der menschlichen Wahrnehmung zum Gegenstand hatte. Sowohl in der Biologie wie in der psychologischen Theorienbildung wurde die Systemeigenschaft ‚Ganzheit‘ zunächst in ihrer spezifisch phänomenologischen Erscheinungsform ‚Gestalt‘ untersucht, wenn auch auf verschiedenen Forschungsebenen: der Morphologe beschreibt die empirisch-organischen Gestalten (‚Formen‘) in der lebenden Natur, der Gestalttheoretiker jedoch die Funktionseigenschaften der Wahrnehmungsorgane der Naturbeobachtungen dieser Formen, wobei eine gemeinsame methodologische Klammer beider Wissenschaften bildet deshalb das Problem von Teil und Ganzem.
Literatur
Wolfangel, E. (2018). Human Brain Project. Milliarden für die Künstliche Dummheit. Süddeutsche Zeitung vom 13. Juli.
https://www1.wdr.de/nachrichten/rheinland/human-brain-project-abschluss-juelich-100.html (23-09-13)
Nachricht ::: Stangls Bemerkungen ::: Stangls Notizen ::: Impressum
Datenschutzerklärung ::: © Werner Stangl :::
Zehn Jahre wird es dauern, versprach Henry Markram in einem denkwürdigen Vortrag, zehn Jahre, um menschliche Nervenzellen in mathematischen Gleichungen auszudrücken und das gesamte Gehirn in einem Supercomputer zu simulieren. Die daraus resultierenden Erkenntnisse werden gigantisch sein. Nicht nur sind dann gezielte Therapeutika in Reichweite, mit denen man Menschen mit psychischen Erkrankungen helfen könnte, sondern auch Fragen, mit denen sich Philosophen seit Jahrhunderten beschäftigen, lassen sich dann empirisch angehen: Wie erfassen wir mit unserem Gehirn die Welt, wie entstehen Bedeutung, Bewusstsein in unserem Kopf? Wie wird die von uns erlebte Wirklichkeit von der Architektur der Nervenbahnen bestimmt?
Forscher des umstrittenen Human Brain Project haben einen wichtigen Erfolg erzielt und die versprochene Simulation eines Hirnabschnitts einer Ratte veröffentlicht.
Ein von der ETH Lausanne koordiniertes internationales Konsortium mit 82 Forschern aus 18 verschiedenen Labors hat versucht, ein Stück eines Rattengehirns digital zu rekonstruieren. Die Eckdaten der Simulation lassen den riesigen Aufwand erahnen: 31’000 Neuronen, 55 Zelllagen, 207 Neuronentypen und 40 Millionen Synapsen soll das digitale Hirnstück umfassen. «Die Veröffentlichung ist das Resultat von 20 Jahren Forschungsarbeit im Labor und am Computer», sagt Henry Markram. Es sei das, was er 2005 versprochen habe, «der Beweis, dass die digitale Rekonstruktion von Gehirnstrukturen funktioniert».
Der Versuch einer digitalen Hirnrekonstruktion bedeutet allerdings nicht, dass der Computer nun denken oder fühlen könnte. Die Forscher beschränkten sich auf ein Drittel Kubikmillimeter der Hirnrinde einer Ratte, der unter anderem für den Tastsinn zuständig ist und den Neurowissenschaftler weltweit seit Jahren intensiv untersuchen. Dadurch ist zwar eine beträchtliche Menge an Daten aus Laborversuchen angefallen, für den Rekonstruktionsversuch reichte es jedoch trotzdem nicht. Es sind schlicht zu viele Neuronen und Synapsen, um deren Funktionsweise einzeln zu messen.
Quelle: Tagesanzeiger.ch/Newsnet vom 8. Oktober 2015