13. Heft - Manfred Bierwisch: DIE UNDURCHSICHTIGE KEHRSEITE DER ERKENNTNIS


Die wesentlichen Erkenntnisfortschritte, das hat Thomas Kuhns These von der Struktur wissenschaftlicher Revolutionen deutlich gemacht, sind das Ergebnis von einschneidenden Sprüngen, von radikalen Änderungen der Agenda, die er Paradigmenwechsel genannt hat. Die moderne Physik mit relativistischer und Quantenmechanik ist keine Modifikation der klassischen Mechanik Newtons, sondern ein Bruch, der ganz neue Denkweisen verlangt, so wie Newtons Gravitationstheorie ein radikaler Bruch mit der Mechanik von Druck und Stoß war. Allerdings, und das schafft dann doch Kontinuität über die Folge von Brüchen und Sprüngen hinweg, muss ein neues Paradigma, wenn es sich durchsetzen soll, nicht nur Antworten auf Fragen geben, die im alten nicht zu lösen waren, es muss im Wesentlichen auch die früheren Erkenntnisse im neuen Rahmen erklären - oder ihre Abschaffung begründen, wie zum Beispiel die Annahme des Äthers, die mit der Relativitätstheorie hinfällig geworden ist.

Die wichtigsten Sprünge dieser Art bestehen in der Zusammenführung getrennter Wissensbereiche. Ein enorm folgenreiches Beispiel ist die Integration von Physik und Chemie durch Linus Paulings Theorie der chemischen Bindung, ein anderes die Zurückführung der Biologie auf die Prinzipien der physikalischen Chemie durch die Biochemie und Molekularbiologie generell und die Einsicht in die DNS-Struktur als Träger des Erbguts im Besonderen. Das Entscheidende ist, dass bei Umbrüchen dieser Art jeweils große Komplexe von Einzelerkenntnissen, Teilzusammenhängen, aber auch unerklärten Fakten und Beobachtungen in einen erklärenden, theoretischen Zusammenhang gebracht werden, der sie systematisch ableitbar, vielleicht sogar vorhersagbar und jedenfalls einsichtig macht. Das geschieht freilich in der Regel um den Preis immer abstrakterer, vom alltäglichen Verständnis immer entfernterer Erklärungsmuster. Was wir wirklich und primär einsehen können, wird ersetzt durch die Erklärungszusammenhänge von theoretischen Prinzipien, die wachsenden Abstand von der Alltagserfahrung haben. Die Wechselwirkung zwischen Körpern durch Druck und Stoß und ihre Vermessung ist unmittelbar verständlich. An die Annahme der Gravitation als Wirkung auf Distanz und im leeren Raum haben wir uns gewöhnt, obwohl Leibniz sie nicht für zulässig hielt und auch Newton, der ihr theoretisch Geltung verschafft hat, sie letztlich als Skandal angesehen hat. Für die vier Wechselwirkungskräfte dagegen, die im Moment den theoretischen Rahmen der Physik bestimmen, kann von Verständnis im Ernst eigentlich niemand sprechen, und die alltägliche Rede von schwarzen Löchern und vom Big Bang ist nichts als reimportierte Metaphorik, die mit Einsicht in das theoretisch Gemeinte nichts zu tun hat. Wirklicher Erkenntnisfortschritt ist so gesehen immer auch eine Reduzierung des Verstehens, und zwar in einem ganz elementaren Sinn, der schon Galilei zu der skeptischen Meinung veranlasst hat, dass die Menschen niemals auch nur einen einzigen Naturvorgang vollständig verstehen werden.


Der Gang des Erkenntnisgewinns besteht natürlich nicht nur aus Brüchen und Paradigmenwechseln mit neuen, abstrakteren Konstrukten. Vor einem Umbruch muss notwendigerweise immer erst etwas zusammengetragen werden, was umgestürzt oder neu geordnet werden kann, ein Vorrat an Fakten, Beobachtungen, Details, durch die ein neues Paradigma gerechtfertigt ist. Zwischen den Revolutionen findet daher das statt, was Kuhn die normale Wissenschaft nennt, nämlich die Akkumulation von Einzelerkenntnissen, die das jeweils geltende und akzeptierte Paradigma möglich macht und herausfordert. Die normale Wissenschaft ist der Bereich des Sammelns und Experimentierens, der Analysen und der Bestätigung der geltenden Auffassung, also des Zusammentragens affirmativer Kenntnisse, aber eben auch der Beobachtungen, die sich später womöglich als Anzeichen für die Unzulänglichkeit des Paradigmas herausstellen. Der Sprung allerdings, also der Paradigmenwechsel, kommt in Form einer neuen Theorie. Neu sind dabei meist nicht die beobachteten Tatsachen als solche, sondern ihre Erklärung aufgrund neuer, fast immer zugleich abstrakterer und in gewissem Sinn unverständlicherer Prinzipien.

Zwischen den großen Sprüngen, die ganze Disziplinen ummodeln, gibt es kleinere und größere Paradigmenwechsel, die einzelne Bereiche oder Teildisziplinen betreffen, so etwa wenn zunächst die mannigfaltigen Erscheinungsformen der Elektrizität und des Magnetismus in vielen Schritten auf ein Prinzip zurückgeführt werden, das dann in noch weiteren Schritten mit allen Formen elektromagnetischer Wellen vereinigt wird. Mit nicht zufälligen Grenzen gilt das Schema des Paradigmenwechsels schließlich auch für bestimmte Bereiche der geistes- und sozialwissenschaftlichen Fächer. Der von Jakob Grimm und anderen ge- oder erfundene Stammbaum der indogermanischen Sprachen ist ein exemplarisches Beispiel für ein neues Paradigma mit abstrakten und zunächst weitgehend unverstandenen Erklärungsprinzipien im Bereich der Struktur und Geschichte der menschlichen Sprache.

Dies alles ist gut bekannt, es gehört zum weitgehend akzeptierten Bild rationalen Erkenntnisgewinns, der zwar nicht als linear und kontinuierlich angesehen wird, sondern als ein Prozess mit Brüchen und Sprüngen, aber im Ganzen doch als Fortschritt im Sinn zunehmender Einsicht in die Prinzipien der Welt, der Realität, der Gegebenheiten, die uns umgeben und uns bestimmen. Dabei können auch echte oder vermeintliche Kenntnisse zeitweise oder gänzlich verloren gehen, weil sie keinen Platz im Erklärungsrahmen finden. Ist, um ein Beispiel zu nennen, die chinesische Medizin, von der wir ohne jede ernstliche Begründung die Akupunktur ganz praktizistisch übernehmen, so irrational, wie das europäische Wissenschaftsbild sie erscheinen lässt? Aber unbeschadet aller Schwunderscheinungen wächst zweifellos die schiere Quantität des verfügbaren Wissens und der beantwortbaren Fragen, die Komplexität des Verständnisses von Prinzipien und Zusammenhängen nimmt zu, und es gibt Abschätzungen über die (steigende) Geschwindigkeit, mit der das geschieht. Der Erfolg dieses Prozesses, ausgewiesen durch die wachsende Fähigkeit, über die Umwelt und ihre Strukturen zielgerichtet zu verfügen, gibt diesem Bild grundsätzlich Recht, auch wenn das ungebrochene Vertrauen auf die Vernünftigkeit von Technologie, wissenschaftlicher und wirtschaftlicher Effizienz längst vergangen ist. Das Fortschreiten der Erkenntnis ist aber auch dann, wenn man von der Ambivalenz absieht, die mit der Verwertung des akkumulierten Wissens verbunden ist, von fundamentalen Paradoxien durchzogen.

Außer dem Gewinn an Erklärungskraft, der bezahlt wird mit wachsendem Verzicht auf unmittelbare Einsicht, so dass wir die Welt zwar besser erklären, aber weniger verstehen können, bringen die wechselnden Paradigmen bemerkt oder unbemerkt eine Veränderung des Geltungsbereichs mit sich. Die Grunderwartung ist, dass mit einem neuen Paradigma Verallgemeinerungen verbunden sind, der Geltungsbereich der Theorie sich also erweitert, oder mehrere Bereiche zusammenfasst, wie im Beispiel des elektromagnetischen Wellenspektrums. Aber ist diese Erhaltung und Erweiterung des Geltungsbereichs immer gültig? Gewiss, die Prinzipien der Biologie gelten überall, wo die Randbedingungen für entsprechende Makromoleküle gegeben sind. Aber wissen die Biologen, was das heißt? Und mitunter wird die Fragwürdigkeit der Erwartung konstanter Erweiterung in prinzipiellen Festlegungen sichtbar. Im Leibniz'schen und Laplace'schen Determinismus zum Beispiel wäre für einen fiktiven Dämon, der über die lückenlose Kenntnis des Anfangszustands eines beliebig komplexen abgeschlossenen Systems verfügte, jeder folgende Zustand vollständig vorhersagbar. Wenn aber diese Kenntnis nicht lediglich fiktiv ist, sondern definitiv unmöglich, ändern sich dann die Gesetze und Prinzipien, auf denen der Determinismus beruht? Hebt die Chaos-Theorie, die unter anderem die prinzipielle Unmöglichkeit dieser vollständigen Kenntnis zum Thema macht, die Prinzipien auf, die den Determinismus ausgemacht haben? Schränkt das den Bereich des kausalen Determinismus ein, gibt es Spielräume für andere Prinzipien frei? Wächst das Erklärungsvermögen, oder wird es eingeschränkt? Dies sind rein spekulative Fragen, für die Orientierung im Ganzen - also auch für die Anforderungen und Chancen, die für ein neues Paradigma gelten - sind sie dennoch bedeutsam.


Folgenreicher für den konkreten Erkenntnisgang ist eine handfestere, nur scheinbar triviale Paradoxie: Mit jedem Zuwachs an Wissen nimmt auch die Menge der Fragen zu, also das Ausmaß an artikulierbarem oder sogar ausdrücklichem Unwissen. So hat die erwähnte faszinierende Idee vom Stammbaum der indogermanischen Sprachen - der Zusammenhang vom Sanskrit bis zum Gälischen, Isländischen und Neuhochdeutschen - nicht nur Fragen nach all den unbekannten, verschollenen oder nicht recht ins Bild passenden Dialekten aufgeworfen, sondern auch Anomalien sichtbar gemacht, Eigenschaften, die aus den Gesetzen der Lautverschiebungen, die die Dialekte miteinander verbinden, nicht abzuleiten sind. In einigen Fällen haben neue, kleinere Umbauten der Theorie solche Anomalien nicht nur beseitigt, sondern sogar zu tieferer Einsicht in die Richtigkeit des Paradigmas geführt, so zum Beispiel das Verner'sche Gesetz, das den Einfluss der Betonung in Rechnung stellt, oder Saussures Laryngaltheorie, die durch die Entdeckung des Hethitischen eindrucksvoll bestätigt wurde. Aber im Ganzen war der Stammbaum nicht zu halten und musste einem weit weniger großartigen Gestrüpp weichen. Viel dramatischer sind die Relativierungen, die das Bild des Stammbaums in der Evolutionstheorie getroffen haben. Stephen Gould hat pointiert von der 'Illusion Fortschritt' gesprochen, bezogen auf die nicht erst seit Darwin geläufige Überzeugung, dass die Entstehung der Arten im Prinzip in der Herausbildung zunehmend komplexerer Systeme besteht.

Das kritische Problem ist dabei nicht so sehr die stets unüberschaubare Fülle von Details, für die mehr oder weniger offensichtliche Erklärungsmöglichkeiten im jeweiligen Theorierahmen enthalten sind. Das eigentliche Paradox liegt darin, dass in jeder interessanten Theorie Leerstellen enthalten sind, ohne deren Akzeptierung relevante Zusammenhänge gar nicht herstellbar wären, Erklärungen also unmöglich blieben. Die Beziehungen der Sprachverwandtschaft bilden unter anderem darum ein undurchsichtiges Gestrüpp, weil die Lautverschiebungsregeln über das meiste, was die Verhältnisse zwischen Sprechergruppen ausmacht, nichts sagen können und sollen. Ein viel direkteres Beispiel sind die Einsichten der physikalischen Chemie, die die Gesetze, denen komplexe Moleküle unterliegen, so exakt erfassen, dass die überraschendsten Vorhersagen über Struktur und Eigenschaften dieser in Wahrheit völlig unanschaulichen Gebilde möglich sind - solange sie auf der Ebene der molekularen Struktur bleiben. Aber so einfache makrophysikalische Konsequenzen wie die Temperatur, bei der Kochsalz flüssig wird, sind dagegen vollkommen unableitbar. Den Schmelzpunkt einer chemischen Verbindung aus der Struktur ihrer Moleküle und der physikalischen Begründung für diese Struktur abzuleiten liegt außerhalb der Reichweite der Theorie. Natürlich hatten solche Fragen weder in der Physik noch in der Chemie vor ihrer Vereinigung überhaupt einen Platz - wie in Demokrits antiker Atomvorstellung vertrauten die Wissenschaftler damals und heute (zu Recht) darauf, dass der Zusammenhang irgendwie gesichert ist.


Das dramatischste Beispiel für die explosionsartige Zunahme des Nichtwissens ist der Bereich der Genetik und alles, was direkt oder indirekt mit ihm zusammenhängt. Die Bedeutung der Einsicht in die biochemischen Prinzipien, auf denen die Erbeigenschaften aller Organismen, von den Bakterien bis zum Homo sapiens, beruhen, wird aufgrund der scheinbaren Vertrautheit, die der elegante Name 'Doppelhelix' suggeriert, ebenso massiv unter- wie überschätzt. Unterschätzt wird der systematische Stellenwert der Erkenntnis. Sie hat nicht nur für Darwins Lehre von der Entstehung der Arten und für Mendels Ansätze der Vererbungslehre - zwei Grundpfeiler der modernen Wissenschaft vom Leben - überhaupt erst ein kohärentes Fundament erzeugt, sie hat auch das Selbstbild des Menschen umgestürzt. Norbert Wieners Diktum 'Der Mensch - eine Nachricht', das die Komplexität des Organismus mitsamt dem Verhalten als Sache der Codierung bestimmt, gibt dafür eine nur etwas robust geratene Zusammenfassung.

Überschätzt wird hingegen meist, was durch diese molekularbiologische Grundeinsicht tatsächlich erklärt ist. Die mehrfach verkündete Entschlüsselung des genetischen Codes - das weiß inzwischen jeder Gebildete - besagt nicht, was scheinbar versprochen wird, nämlich dass wir die Codierung des Erbguts verstehen. Sie bedeutet nur, dass die Buchstabenfolge bekannt ist, in der der Roman unserer Erbeigenschaften niedergelegt ist, aber sie sagt nichts über die Wörter, in die die Buchstaben zu gliedern sind, geschweige denn über deren Bedeutung oder gar den Sinn der Sätze, die sie bilden, um bei der Metapher des Codes zu bleiben. Wie viel damit unbekannt ist oder eigentlich erst unbekannt wird, das wissen im Grunde nur die Molekularbiologen selbst. Tatsächlich nämlich laufen die nach wie vor intensiven Versuche, die Bedeutung der DNS zu entschlüsseln, vorläufig nur auf wachsende Unübersichtlichkeit hinaus, sie driften in alle Richtungen auseinander. Es ist vielleicht nicht einmal klar, in welchem Maß auf diesem Weg immerhin wichtiges Detailwissen entsteht. Es geht dabei um zwei ineinander verschränkte Arten von Fragen. Bei der einen handelt es sich um die Verankerung der phänotypischen Eigenschaften des Organismus in den Abschnitten des DNS-Strangs, also um die Identifizierung der Gene, wenn man sich an die traditionelle Redeweise hält. Zu den Schwierigkeiten gehört dabei, dass es sich als naiv herausgestellt hat, einzelne Eigenschaften des Organismus, etwa Spezifika des Knochenbaus oder des Hirnwachstums, jeweils einzelnen Genen zuordnen zu wollen, wie man ja auch nicht ernsthaft versuchen würde, die Bedeutung eines Wortes, etwa Unverfrorenheit, aus seinen Teilen - wie fror, en, ver, heit, und un - zusammenzurechnen. Es ist die Struktur des Genoms, also der Erbinformation im Ganzen, die immer auch für die Ausprägung einzelner Eigenschaften im Spiel sein kann. Und das heißt, es geht um die Kombinatorik von Elementen in der Größenordnung von Millionen von Einheiten, und zwar bezogen auf einzelne Bausteine des Genoms. Dass in bestimmten Fällen einzelne Erbeigenschaften als solche auf Abschnitte des Genoms zurückgeführt werden konnten, ändert daran nichts, auch wenn es von eminenter Wichtigkeit für das Erkennen von Erbschäden sein kann.

Die zweite Art von Fragen betrifft die im Prinzip zwingende, im Detail aber gänzlich in der Luft hängende Annahme, dass die genetisch fixierten Eigenschaften eines Organismus durch eine verwickelte Folge von Proteinsynthesen entstehen, die grundsätzlich von der Erbinformation gesteuert werden. Um die Imponderabilien dieser Annahme zu ahnen, muss man nicht unbedingt an komplexe Organe wie die Leber oder das visuelle System denken. Es genügt, sich nach der Determination so scheinbar unwichtiger Phänomene wie der Farbverteilung in der Musterung einer Vogelfeder zu fragen, die überdies zu symmetrischer Schönheit in den beiden ganz unabhängig voneinander wachsenden Flügeln führt. Noch eine Stufe mehr an Rätseln kommt ins Bild, wenn die Eigenschaften des Organismus erst in der Funktion auf Distanz, also in der Interaktion mit der Umwelt wirksam werden. Die beeindruckende Komplexität des angeborenen Verhaltens sozialer Insekten zum Beispiel muss aus der genetisch bedingten Struktur ihres weniger als einen Kubikmillimeter großen Gehirns hervorgehen. Was sich im Blick auf solche Probleme aus dem Zusammenwirken von Molekularbiologie und Verhaltensforschung ergibt, ist die ebenso triftige wie im Moment völlig unbeantwortete Frage, wie die Natur diese Bedingung einlöst.


Die zwei Arten von Fragen - die nach der Struktur des Genoms und die nach der Realisierung des Phänotyps - sind überdies unausweichlich aufeinander angewiesen, weil nur Antworten auf die letztere im Dschungel der ersteren wirklich weiterhelfen könnten.

Das letzte Beispiel für Fragen, die umso schwieriger werden, je mehr unser Wissen wächst, betrifft das Gehirn als Grundlage des menschlichen Verhaltens. Das Problem beginnt bei alltäglichen Vorgängen wie dem Erkennen eines Gesichts oder dem Benennen eines Gegenstands und umfasst letztlich Grundfragen wie das Leib-Seele-Verhältnis und das Rätsel des freien Willens. Dass die Fähigkeit zum Denken oder zum Erwerb und schöpferischen Gebrauch der Sprache auf der Funktion des Gehirns beruhen und letztlich durch das menschliche Genom bedingt sind, das ist zwar bislang nur ein Glaubenssatz, aber da keine vernünftige Alternative absehbar ist, gehen alle ernst zu nehmenden Theorien von dieser Annahme aus. Aber genau dann, wenn das vernünftig ist, bleibt zwischen den spektakulären Ergebnissen der Neurowissenschaften und den Theorien der Geistes- und Kognitionswissenschaften, soweit sie ernsthaft als Theorien gelten können, eine unüberbrückte Kluft. Die Neurobiologie hat zwar die entscheidende und über die ganze Phylogenese unveränderte Struktur und Funktion der Nervenzellen im Prinzip aufgeklärt und ingeniöse Modelle ihrer unglaublich komplexen Verschaltung entworfen. Aber die Elemente und Prinzipien, die für angemessene Theorien der Sprachstruktur oder des Sozialverhaltens gebraucht werden, sind davon so weit entfernt wie die makrophysikalischen Eigenschaften von der mikrophysikalischen Molekülstruktur.


Es ist gewiss nicht einfach ein Aperçu, dass der Geist ein Phänomen der Natur ist und in den Zuständigkeitsbereich der Biologie gehört. Aber wie diese Vorstellung einzulösen ist, wie aus den Schaltungen der Milliarden von Synapsen tatsächlich Satzbedeutungen und also Bewusstseinstatsachen entstehen, ist ein ebenso heftig wie inkonklusiv diskutiertes und analysiertes Bündel von Fragen, in dem Scheinerfolge eine nicht geringe Rolle spielen. So sind die interessanten und ambitionierten Modelle der so genannten künstlichen Intelligenz vor allem darum hilfreich, weil sie zeigen, wie die natürliche Intelligenz bestimmt nicht funktioniert. Die Frage, ob das menschliche Gehirn überhaupt in der Lage ist, das Rätsel seiner eigenen Funktionsweise als Organ des Denkens und Wollens zu lösen, mag noch weit jenseits all der unbeantworteten Fragen liegen, von denen bisher die Rede war.


Die betrachteten Beispiele für Unkenntnis, die gerade durch erfolgreiche neue Theorien entsteht, haben einen gemeinsamen Nenner, der etwas vereinfacht als Abgrund zwischen der Makro- und Mikroebene eines Bereichs von untersuchten Phänomenen gedeutet werden kann. Zwei unterschiedliche Theoriesysteme, etwa das der klassischen physiko-chemischen Eigenschaften und das der Molekularstruktur oder auch das der Sprachstruktur und das der Neurobiologie, müssen aufeinander bezogen werden, und die traditionelle Erwartung, die Mikroebene werde die Phänomene der Makroebene schließlich erklären, erweist sich als ebenso unausweichlich wie uneingelöst, vielleicht sogar uneinlösbar. Das ist nicht ein neuer Typ von Einwänden gegen reduktionistische Vorstellungen. Die Vereinigung von Physik und Chemie und Biologie ist die wissenschaftliche Erfolgsgeschichte des letzten Jahrhunderts. Die lebenswissenschaftlichen Zweige der Ethologie, der funktionellen Anatomie, der Evolutionstheorie bis hin zur Molekularbiologie sind alle in einer Disziplin zusammengeführt und durch die physikalische Chemie begründet. Und dass auch die Phänomene, mit denen sich die Sozial- und Geisteswissenschaften befassen, schließlich innerhalb dieses wissenschaftlichen Kosmos liegen, bezweifeln nur Irrationalisten. Die ungelösten Rätsel betreffen dabei nicht die Beziehung zwischen verschiedenen Disziplinen, sondern das Verhältnis zwischen unterschiedlichen Formen der Verstehbarkeit im gleichen Bereich.

Das heißt freilich nicht, dass wachsende Unübersichtlichkeit gerade und nur die Kluft zwischen, bildlich gesprochen, makroskopischen und mikroskopischen Bereichen betrifft. In anderer, womöglich noch undurchdringlicherer Form sucht sie die Versuche heim, aus theoretischem Wissen Handlungsorientierungen abzuleiten in hybriden Bereichen wie Ökonomie oder Ökologie. Am ehesten werden unbeantwortbare Fragen zur willkommenen Herausforderung da, wo es sich für unseren Horizont um die absoluten Randbereiche des Kosmos handelt, also da, wo dem Verstehen entzogene Konstrukte wie Strings, dunkle Materie, Singularitäten und rückwärts laufende Zeit den theoretischen Normalfall bilden.


Ein Fazit aus all dem ist unangebracht. Nur so viel: Die Erkenntnisbewegung ist gewiss keine kontinuierliche Zunahme von Einsicht und Wissen, und auch Revolutionen erzeugen mit dem neuen Wissen stets mehr neue Unkenntnis als abgeschlossenes Wissen. Wer zur Harmonisierung neigt, könnte immerhin meinen, die normale Wissenschaft zwischen den Brüchen erzeuge nicht nur kumulative Detailkenntnis, sondern auch das nötige Nichtwissen für die nächste Revolution. Dennoch ist es zwar verführerisch, aber falsch, die Zunahme der Unkenntnis zum Anzeichen künftigen Erkenntnisfortschritts zu machen. Und es ist insgesamt ziemlich wahrscheinlich, dass wir die Welt nicht wirklich verstehen, weil unser Erklärungsvermögen dafür entweder nicht ausreicht oder gar nicht geeignet ist.