Spätestens seit den 1990er-Jahren sind die Neurowissenschaften „in“. Dies bescheinigte dieser bunten Mischung aus Wissenschaftsdisziplinen – unter anderem der Biologie, Chemie, Medizin, Informatik und Psychologie – kein Geringerer als der damalige Präsident der USA, George H. W. Bush. Mit seiner Proklamation einer „Dekade des Gehirns“ strömten finanzielle Mittel und Aufmerksamkeit in die Erforschung des Nervensystems. Ziel: neurodegenerative Erkrankungen wie Alzheimer oder Parkinson besser zu verstehen und, typisch für amerikanische Verhältnisse, den „Krieg gegen Drogen“ zu unterstützen.
Wenige Jahre später folgte auch die Europäische Kommission diesem Trend. Im Jahr 2004 legte Deutschland nach: Elf, wie es hieß, führende Neurowissenschaftlerinnen und Neurowissenschaftler veröffentlichten ein Manifest „über Gegenwart und Zukunft der Hirnforschung“ (Christian E. Elger / Angela D. Friederici / Christof Koch / Heiko Luhmann / Christoph von der Malsburg / Randolf Menzel / Hannah Monyer / Frank Rösler / Gerhard Roth / Henning Scheich / Wolf Singer: „Das Manifest. Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung“, in: Gehirn & Geist, Zeitschrift für Psychologie und Hirnforschung, 6/2004, S. 30–37), das in den Medien große Beachtung fand. Allerdings stieß das darin vermittelte Bild der Disziplin als einer Art Superwissenschaft des Menschen mit dem Ziel, „Geist, Bewusstsein, Gefühle, Willensakte und Handlungsfreiheit als natürliche Vorgänge“ zu erklären, auf Kritik. Selbstverständlich sollten die Fortschritte auch Patientinnen und Patienten zugute kommen.
Dass man den Neurowissenschaften weiterhin großes Potenzial beimisst, zeigt das 2013 von der Europäischen Union geförderte Human Brain Project (European Commission: Horizon 2020. The EU Framework Programme for Research and Innovation, FET Flagships, http://ec.europa.eu/programmes/horizon2020/en/h2020-section/fet-flagships; Human Brain Project, http://www.humanbrainproject.eu). Dabei steht die Vision im Zentrum, ein menschliches Gehirn in einem Supercomputer zu simulieren. Wie realistisch dieses Ziel ist und was es zum Verständnis des Nervensystems beitrüge, wird in der Fachwelt kontrovers diskutiert. Jedenfalls ist die Hälfte der Projektlaufzeit schon verstrichen.
Willensfreiheit – ausgeschlossen?
Ich bestreite keinesfalls die Bedeutung der Neurowissenschaften, insbesondere angesichts älter werdender Gesellschaften. Die geschürten Erwartungen – einhergehend mit so mancher Prophezeiung – der letzten drei Jahrzehnte verdienen aber eine kritische Betrachtung. Zum einen befeuerte die Medienberichterstattung so manchen Hype; zum anderen verbreiteten sich selbst in der Wissenschaft „Neuro-Mythen“. Zu bedauern ist vor allem auch, dass die Dominanz der Neurowissenschaften in einigen Bereichen, etwa in der Psychiatrie, inzwischen zu verlorenem Wissen um konkurrierende Ansätze führte.
Ein Paradebeispiel für einen Hype um einen Mythos ist die Diskussion um die Willensfreiheit – und zwar sowohl im deutschsprachigen Raum als auch international. Vorweg sei betont, dass die Frage, wie sich die Freiheit des Menschen zu den Naturkräften verhält, mindestens seit der griechischen Antike immer wieder philosophisch, theologisch und naturwissenschaftlich diskutiert wurde. Auch im sogenannten Materialismusstreit im 19. Jahrhundert vertraten Physiologen die These, natürliche Determination lasse keinen Raum für Freiheit und erfordere eine Anpassung des Rechtssystems, vor allem des Strafrechts. Für das Argument bedarf es freilich keiner neurowissenschaftlichen Erkenntnisse. Ein auf die Spitze getriebener physikalischer Determinismus würde implizieren, dass genau dieser Satz schon zum Zeitpunkt des Urknalls vor Milliarden Jahren festgelegt war, und nicht im Moment meiner als frei erfahrenen Entscheidung dafür, ihn zu schreiben.
Relevanter als der Streit um Determinismus oder die philosophischen Antworten darauf ist in unserem Zusammenhang die Frage, auf welches Wissen man sich in der Hirnforschung berief, um Willensfreiheit auszuschließen.
Ausschlaggebend waren dafür Untersuchungen von Benjamin Libet (1916 bis 2007), der in den 1970er- und 1980er-Jahren mithilfe der Elektroenzephalographie (EEG) im Gehirn die zeitliche Dynamik von Bewusstseinsprozessen erforschte. Dabei wurde in der Diskussion behauptet, die Hirnaktivierung zur kausalen Determination einer Bewegung würde bereits einige Hundert Millisekunden vor der bewussten Entscheidung für diese Bewegung auftreten. Mit anderen Worten: Das Gehirn habe längst unbewusst entschieden, wenn wir meinen, es bewusst zu tun. Am Rande sei erwähnt, dass Sigmund Freud (1856 bis 1939) bereits vor 100 Jahren ähnliche Thesen vertreten hatte.
Folgenreiche Fehlinterpretationen
Dass Libet sich dieser Interpretation nicht anschloss und die entsprechende Gehirnaktivierung, das sogenannte Bereitschaftspotenzial, seinen Messungen zufolge auch ohne die Bewegung auftrat und daher nicht ihre (hinreichende) Ursache sein konnte, wurde bei der vorherrschenden Interpretation geflissentlich übersehen. Auch Gehirnstimulationsexperimente, die zeigen sollten, dass Menschen ihren eigenen Willen fehlinterpretieren, wurden falsch zitiert. So wurde behauptet, dass sich Patientinnen und Patienten fälschlicherweise eine Bewegung selbst zugeschrieben hätten, obwohl diese mit einem elektrischen Puls im Gehirn ausgelöst wurde. Tatsächlich weisen die Quellen auf das Gegenteil hin: Die Betroffenen waren sich darüber im Klaren, dass der Strom die Ursache für die Bewegung war, nicht ihr Wille.
Nachdem einige Koryphäen der Forschung diese (Fehl-)Interpretationen verbreitet hatten, wurden diese vielfach abgeschrieben und unter diesem Vorzeichen diskutiert. Ähnlich verhält es sich mit dem wohl berühmtesten neurologischen Patienten, dem Bahnarbeiter Phineas Gage, der bei einem Arbeitsunfall 1848 einen Hirnschaden erlitt. In den folgenden rund 170 Jahren wurden ihm die unterschiedlichsten Persönlichkeitsveränderungen zugeschrieben, um bestimmte Theorien über Gehirnfunktionen zu stützen, die gerade in Mode waren. Dabei verbietet allein die dürftige Quellenlage solche Schlüsse, zumal Änderungen der Persönlichkeit auch Folgen eines psychischen Traumas sein können, ähnlich, wie wir es bei Kriegsveteranen oder Unfallopfern schon bei weniger schlimmen Verletzungen beobachten können.
Vermeintliche Durchbrüche
Wissenschaftlicher Fortschritt ist oft langsam und geht in kleinen Schritten voran. Allein deshalb sollte man behaupteten Durchbrüchen kritisch gegenüber stehen. Die hier angerissenen Beispiele widerlegen nicht die Relevanz der Neurowissenschaften, werfen jedoch die Frage auf, ob sie neue Erkenntnisse vom Menschen im zeitlichen Rahmen von Initiativen wie der „Dekade des Gehirns“ oder dem Human Brain Project liefern können.
Tatsächlich empfahl der Hirnforscher und Nobelpreisträger Roger Sperry schon 1981 seiner eigenen Zunft, der Gesellschaft aus strategischen Gründen praktische Lösungen zu versprechen (Roger W. Sperry: „Changing Priorities“, in: Annual Review of Neuroscience, 4/1981, S. 1–15). Beachtlich an seinem Essay ist das Selbstverständnis der Hirnforschung, wie wir es seitdem immer wieder erlebt haben: „Ideologien, Philosophien, religiöse Doktrinen, Weltmodelle, Wertesysteme und dergleichen werden in Abhängigkeit von den Antworten stehen oder fallen, wie sie die Hirnforschung schließlich entdecken wird. Alles kommt im Gehirn zusammen.“
Man stelle sich einmal vor, es gäbe statt parlamentarischer Demokratie, statt politischer Bildung und statt eines Diskurses mit Argumenten und Gründen eine Versammlung von Vertreterinnen und Vertretern der Hirnforschung, Neurochirurgie und Neuropsychologie, die aus Gehirnuntersuchungen Gesetze ableiten würde. Dass das durchaus ernst gemeint ist, bewies Michael Gazzaniga, ein Schüler Sperrys und heute einer der bedeutendsten Neurowissenschaftler, rund 25 Jahre später. Er behauptete, man könne durch Hirnforschung entdecken, was die „richtige“ Moral für uns Menschen sei.
Hyper-Wettbewerb in der Wissenschaft
Darin äußert sich nicht nur eine problematische politische Sichtweise, sondern auch ein grundlegendes Missverständnis über den Status experimentellen Wissens. Dieses muss nämlich interpretiert werden. Es ist nicht so, dass „Fakten“ in der Welt versteckt sind und darauf warten, von uns „entdeckt“ zu werden. Vielmehr sind diese Erkenntnisse menschengemacht, von Forscherinnen und Forschern, die Hypothesen formulieren, sich Versuchsaufbauten ausdenken, Instrumente und Methoden auswählen, Daten interpretieren und schließlich in einer bestimmten Weise aufschreiben, sodass die Erklärungen von einer Fachgemeinschaft akzeptiert werden.
Es verhält sich also gerade umgekehrt, als Sperry es formulierte: Auch die Ergebnisse der Hirnforschung hängen von Denkweisen und Moden ab, wie wir es an den einschlägigen Beispielen Willensfreiheit und Phineas Gage gesehen haben. Wie könnte sonst jemand auf die Idee kommen, die reiche Fülle menschlicher Erfahrungen und Entscheidungen auf eine spontane Fingerbewegung zu reduzieren, wie es mit Benjamin Libets Experimenten getan wurde?
Die Kultur heutiger Wissenschaftlerinnen und Wissenschaftler schließt Bedingungen extremen Wettbewerbs mit ein, gar eines Hyper-Wettbewerbs, wie es führende amerikanische Forscherinnen und Forscher kürzlich formulierten. Danach müssen sie in vorgegebenen Zeitfenstern und vorgegebenen Zeitschriften Erfolge produzieren, die genügend Aufmerksamkeit und Zitationen erfahren, damit das nächste Forschungsprojekt finanziert wird und die folgende Evaluation und Beförderungsrunde positiv verläuft.
Aus dieser Perspektive überraschen die vielen Neuro-Prophezeiungen nicht. Sie folgen kurzfristigen Erfolgsstrategien, ersetzen aber nicht die Notwendigkeit solider Grundlagen- und Anwendungsforschung, die auf Hypes verzichtet. Die kritische Reaktion auf so manches unerfüllte Versprechen hat gezeigt, dass Hirnforschung andere Disziplinen nicht ersetzt, sondern voraussetzt: Die Psychologie bleibt erste Experimentalwissenschaft vom Menschen. Soziologie, Ökonomie und Politikwissenschaften beschreiben gesellschaftliche Prozesse und die Philosophie bietet Orientierungswissen. Ich prophezeie, dass sich daran auf absehbare Zeit nichts ändern wird.
Weiterführende Literatur des Autors
Die Neurogesellschaft: Wie die Hirnforschung Recht und Moral herausfordert, Hannover 2010.
„Brains in context in the neurolaw debate: The examples of free will and ‚dangerous‘ brains“, in: International Journal of Law and Psychiatry, 35(2), 2012, S. 104–111.
-----
Stephan Schleim, geboren 1980 in Wiesbaden, Philosoph, promovierter Kognitionswissenschaftler und Associate Professor für Theorie und Geschichte der Psychologie an der Universität Groningen (Niederlande).