Zum Inhalt springen

Warum das Human-Brain-Projekt scheitern muss

Zwar gibt es beim menschlichen Gehirn durchaus Parallelen zum Computer, denn auch das Gehirn arbeitet über kleine Stromimpulse, ähnlich wie in den Schaltkreisen auf einem Computerchip. Der entscheidenden Unterschied ist allerdings die Flexibilität, denn das Gehirn verändert ständig seine Hardware, während ein Computer eine starre Hardware besitzt, deren Chips und Schaltkreise sich nicht verändern, d.h., elektronische Schaltkreise sind nicht in der Lage, neue zu entwickeln und andere auszuschalten bzw. abzuschwächen. So sind die Versuche, im geplanten Human-Brain-Projekt die Funktionsweise des Gehirns besser zu verstehen, indem man es im Computer nachbaut, völlig aussichtslos ist, nicht allein wegen der derzeit noch fehlenden Rechnerkapazitäten, sondern grundsätzlicher Art. Das normale Funktionieren des Gehirns ist dadurch ausgezeichnet, dass ständig neue Verbindungen zwischen den Nervenzellen hergestellt werden, es stets in einem Wandel ist und sich den Anforderungen anpasst. Daher gehen die zu Beginn des 21. Jahrhunderts gestarteten Versuche, die Struktur des Gehirns zu analysieren, indem man die Hauptverbindungen zwischen den Hirnteilen kartiert und analysiert, an der Realität des Gehirns vorbei, denn dieser strukturelle Ansatz wurde schon vor mehr als einem halben Jahrhundert in der Psychologie versucht.

Gehirn Kartierung

Gehirnforschung Kartierung

Schon zu Beginn des zwanzigsten Jahrhunderts wurden erste Karten des Gehirns erstellt, die den Regionen bestimmte Aufgaben zuordnen, etwa das Broca-Areal und das Wernicke-Zentrum, die für die Erzeugung und das Verständnis von Sprache zuständig sind. Diese grobe räumliche Aufteilung ist den modernen Neurowissenschaftlern nicht mehr genug, sondern sie wollen das menschliche Gehirn auf mikroskopischer Ebene zu durchleuchten. Sie wollen verstehen, wo die Hauptbahnen im Gehirn verlaufen, wie sie sich verzweigen, in welche Zellschichten sie gehen und wo die wichtigsten Verbindungen sind. Die Verbindungen der einzelnen Nervenzellen zu kennen, wäre natürlich einerseits für die Grundlagenforschung interessant, denn damit könnten höhere kognitive Leistungen, wie die Entstehung von Sprache, oder die Verarbeitung von visuellen Informationen besser verstanden werden, aber auch für die Diagnose und Behandlung neurologischer Erkrankungen oder der Folge von Schlaganfällen wäre es wichtig, die Verknüpfungen der betroffenen Neuronen möglichst zu kartieren. Zahlreiche psychische Erkrankungen haben eine neurobiologische Basis, denn so sind etwa bei der Schizophrenie verschiedene Aspekte der Konnektivität gestört, angefangen von den Neurotransmittern bis hin zu den Synapsen. Allerdings machen die verschiedenen Größenskalen, die man für ein vollständiges Konnektom, also der Gesamtheit aller Nervenverbindungen eines Gehirns, erfassen müsste, die Aufgabe äußerst schwierig, denn an jeder Synapse befinden sich zahlreiche Rezeptoren, die verschiedene Signalmoleküle binden. Wie viele davon vorhanden sind und auf welche Neurotransmitter sie reagieren, kann sich dabei stark unterscheiden, d. h., um die Weiterleitung eines Reizes von einer Nervenzelle zur nächsten exakt zu beschreiben, müsste man die genaue Zahl und Art aller Rezeptoren kennen. Davon ist die Neurophysiologie noch weit entfernt. Hinzu kommt: Beinahe alle Erkenntnisse der neueren Gehirnforschung bringen keine wirklich neuen Erkenntnisse, die über das hinausgehen, was schon die Gestaltpsychologie, die frühe experimentelle Wahrnehmungspsychologie oder die Ganzheitspsychologie bzw. Feldpsychologie entdeckt haben (s.u.). Die neueren Forschungen liefern höchstens zusätzliche Erklärungen für das Substrat, nicht aber für den Prozess, denn  der ist in den Anfängen der Psychologie hinreichend abgeklärt worden, nur macht sich heute offensichtlich niemand die Mühe, diese Erkenntnisse in der einschlägigen Forschungsliteratur eta in der ersten Hälfte des 20. Jahrhunderts nachzulesen. Es wäre aber sicher reizvoll, die klassischen Gestaltgesetze mit den Forschungen der Neuropsychologie oder Neurobiologie abzugleichen.

Selbst wenn es möglich wäre, die Spikes aller Neuronen auf einmal aufzuzeichnen, existiert ein Gehirn niemals isoliert, denn um alles richtig zu verbinden, muss man gleichzeitig externe Reize, denen das Gehirn ausgesetzt ist, sowie das Verhalten des Organismus erfassen. Man müsste das Gehirn zunächst auf makroskopischer Ebene verstehen lernen, bevor man versuchen will zu entschlüsseln, was das Feuern der einzelnen Neuronen überhaupt bedeutet. Auch gibt es bis heute keine einheitliche Theorie über die Funktionsweise des Gehirns, und nicht alle WissenschaftlerInnen sind sich einig, dass der Bau eines simulierten Gehirns der beste Weg ist, dieses zu untersuchen. Vielmehr sind neue Instrumente und Techniken erforderlich, um das Gehirn auf aussagekräftigere Weise zu untersuchen. Bisher hat die Entwicklung solcher Methoden, wenn überhaupt, nur weitere Fragen über das Gehirn aufgeworfen und gezeigt, wie komplex es ist. Daher wird man in den letzten Jahren immer pragmatischer, erkennt die Grenzen des Möglichen an und konzentriert sich auf die Entwicklung von neuem Technologien zur Untersuchung des Gehirns.

Die Angst vor dem Brainscan

Nach einem Bericht von Stefan Krempl in heise.de vom Mai 2018 wird es immer leichter, mit Brainscannern Gehirnwellen zu messen. So fürchten man, dass sich die Geräte bald verbreiten wie Smartphones und dass Hirndaten im großen Maßstab von Facebook, Google & Co. in die Cloud geladen und analysiert werden. Es heißt dort: „Gehirn-Computer-Schnittstellen, über die Nutzer mit ihren Hirnströmen Rechner steuern können, wandern langsam aus dem Forschungsbereich in praktische Anwendungen etwa im Bereich Virtual-Reality-Spiele.“ Auf der re:publica in Berlin wurde schon weniger über Frage der Technik an sich diskutiert, sondern vor allem über den Datenschutz, denn es sei völlig unklar, wem die besonders sensiblen personenbezogenen Informationen gehörten und wer sie kontrolliere. Weiter heißt es dort: „Startups und Internetkonzerne dürften sich bald einen Wettbewerb um die Nutzung der menschlichen Hirndaten liefern, schätzt der Neurologe. Neue einschlägige Gadgets würden dann damit beworben, dass sie dank der Messung der Gehirnaktivitäten ein besseres Nutzungserlebnis böten oder die Anwender klüger machten. Auch mit Schlagwörtern wie „Bewusstseinserweiterung“ oder „Selbstoptimierung“ dürften Kunden angelockt werden. Ähnlich wie bei persönlichen Informationen in sozialen Netzwerken könnte dies dazu führen, dass „Hirndaten im großen Maßstab freigegeben, in die Cloud hochgeladen und ausgewertet werden (…). Die beteiligten Firmen könnten über derart angereicherte Big-Data-Analysen etwa versuchen, Depressionen oder eine Suizidgefahr vorherzusagen.“ In der neuen EU-Datenschutzverordnung gibt es keine spezielle Kategorie dafür jenseits etwa von allgemeinen Gesundheitsdaten, wobei die Einwilligungsoptionen vergleichsweise breit gefasst sind.

Robotik und das Human Brain Project

Es ist übrigens eine große Illusion des Human Brain Projects, dass Roboter schon bald komplizierte Aufgaben erledigen können, wenn man sich die Abläufe im menschlichen Gehirn noch genauer anschaut und sie dann auf die Robotik anwendet. Informatiker betonen gerne, dass die neuen Formen des maschinellen Lernens ähnlich ablaufen wie das Lernen im biologischen Gehirn, doch sie sind weder ähnlich noch identisch, denn Deep Learning funktioniert nach völlig anderen Prinzipien, als sie im Gehirn ablaufen, denn Nervenzellen sind viel komplexer als die Units beim maschinellen Lernen. In der Zwischenzeit sind die Vertreter des Human Brain Project mit ihren Versprechen sehr viel vorsichtiger geworden und man ist momentan damit zufrieden, beschränkte intellektuelle Leistungen des Gehirns auf Rechner zu bringen. So hat man „entdeckt“, dass die Objekterkennung in solchen computerbasierten Netzen ganz anders funktioniert als beim Menschen, denn künstliche Netze nutzen Informationen nur bruchstückhaft, d. h., ein künstliches Netz verarbeitet etwa den Inhalt eines Bildes ganz anders als das Gehirn. Nach Ansicht von Experten liegt der wichtigste Unterschied zwischen Mensch und der bisherigen Künstlichen Intelligenz im Generalisierungsverhalten, denn etwa werden wiederzuerkennen oder etwas aus Erfahrung zu lernen, funktioniert nur, wenn manche Details ausgeblendet werden, sodass die entscheidende lautet, welche Informationen können ignoriert werden und welche sind wichtig. Neuronale Netze nicht unbedingt besser, nur weil man ihre Konstruktion an das menschliche Gehirn anlehnt, denn manche Dinge können Maschinen einfach besser, etwa Muster in großen Datenmengen zu erkennen, auch wenn das genau eines jener Probleme verursacht, mit denen man in der Forschung kämpft. Maschinelle Algorithmen gehen eine Aufgabe ganz anders an, als es Menschen tun, denn ihnen fehlt ein Modell der Welt, sodass etwa Menschen teilweise nur ein einziges Trainingsdatum brauchen, um ein Tier wieder zu erkennen. Sie gleichen es einfach mit ihrem Weltmodell ab: Ein Körper mit vier Beinen, Fell, Schnauze? Klar, dass es sich um ein Tier handeln muss. Der Rest ist Feintuning. Umgekehrt sind das genau jene Eigenschaften, die Algorithmen fehlen: das Körpergefühl, das intuitive Verständnis für die Physik, das Menschen bei der Interaktion mit der Umwelt automatisch mitbekommen. Das biologische Gehirn verfügt über einzigartige Fähigkeiten, die das Überleben des Individuums sicherstellen sollen, sodass Menschen dadurch in schwierigen Situationen optimale Entscheidungen treffen können, bei denen widersprüchliche Informationen nicht zwangsläufig ein Problem dar stellen, während sie das für Computer unüberwindbare Hindernisse darstellen. So scheitert etwa die automatische Bilderkennung, wenn in einem Bild nur ein einziges Pixel verändert wird. Ein Mensch würde eine solche Änderung nicht einmal wahrnehmen, denn das Bild wäre für ihn dasselbe (Wolfangel, 2018).


Anmerkung: Das Phänomen der Ganzheit und die aus ihm abgeleitete naturphilosophische Problematik besitzt eine bis in die antike Wissenschaft zurückreichende Denk- und Forschungstradition. Am Beginn des 19. Jahrhunderts wird von Burdach und Goethe eine eigene biologische Ganzheitslehre (Morphologie) begründet, deren Aufgabe die  Untersuchung der organischen Formgebung und des Gestaltwechsels der Organismen ist. Ende des 19. Jahrhunderts entstand in der Wahrnehmungspsychologie eine ganzheitlich orientierte Gestalttheorie, die die Ganzheitseigenschaften der menschlichen Wahrnehmung zum Gegenstand hatte. Sowohl in der Biologie wie in der psychologischen Theorienbildung wurde die Systemeigenschaft ‚Ganzheit‘ zunächst in ihrer spezifisch phänomenologischen Erscheinungsform ‚Gestalt‘ untersucht, wenn auch auf verschiedenen Forschungsebenen: der Morphologe beschreibt die empirisch-organischen Gestalten (‚Formen‘) in der lebenden Natur, der Gestalttheoretiker jedoch die Funktionseigenschaften der Wahrnehmungsorgane der Naturbeobachtungen dieser Formen, wobei eine gemeinsame methodologische Klammer beider Wissenschaften bildet deshalb das Problem von Teil und Ganzem.

Literatur

Wolfangel, E. (2018). Human Brain Project. Milliarden für die Künstliche Dummheit. Süddeutsche Zeitung vom 13. Juli.


Nachricht ::: Stangls Bemerkungen ::: Stangls Notizen ::: Impressum
Datenschutzerklärung ::: © Werner Stangl :::





Ein Gedanke zu „Warum das Human-Brain-Projekt scheitern muss“

  1. Rattenhirn im Computer nachgebaut

    Forscher des umstrittenen Human Brain Project haben einen wichtigen Erfolg erzielt und die versprochene Simulation eines Hirnabschnitts einer Ratte veröffentlicht.

    Ein von der ETH Lausanne koordiniertes internationales Konsortium mit 82 Forschern aus 18 verschiedenen Labors hat versucht, ein Stück eines Rattengehirns digital zu rekonstruieren. Die Eckdaten der Simulation lassen den riesigen Aufwand erahnen: 31’000 Neuronen, 55 Zelllagen, 207 Neuronentypen und 40 Millionen Synapsen soll das digitale Hirnstück umfassen. «Die Veröffentlichung ist das Resultat von 20 Jahren Forschungsarbeit im Labor und am Computer», sagt Henry Markram. Es sei das, was er 2005 versprochen habe, «der Beweis, dass die digitale Rekonstruktion von Gehirnstrukturen funktioniert».

    Der Versuch einer digitalen Hirnrekonstruktion bedeutet allerdings nicht, dass der Computer nun denken oder fühlen könnte. Die Forscher beschränkten sich auf ein Drittel Kubikmillimeter der Hirnrinde einer Ratte, der unter anderem für den Tastsinn zuständig ist und den Neurowissenschaftler weltweit seit Jahren intensiv untersuchen. Dadurch ist zwar eine beträchtliche Menge an ­Daten aus Laborversuchen angefallen, für den ­Rekonstruktionsversuch reichte es ­jedoch trotzdem nicht. Es sind schlicht zu viele Neuronen und Synapsen, um ­deren Funktionsweise einzeln zu ­messen.

    Quelle: Tagesanzeiger.ch/Newsnet vom 8. Oktober 2015

Schreibe einen Kommentar