Das Entstehen eines neuen Forschungsfeldes

Wurzeln der Kognitionswissenschaft

Eine fundierte Vorgeschichte würde im Rahmen dieses Buches zu weit führen, daher möchten wir hier nur vier Strömungen und Ideen aus den Disziplinen Philosophie, Psychologie, Linguistik und Informatik skizzieren, deren interdisziplinäres Zusammenwirken wesentlich für das Entstehen des neuen Forschungsfeldes Kognitionswissenschaft war:
Die Vorstellung, dass menschliches Denken letztlich Rechnen sei, findet sich schon im 17. Jahrhundert bei Gottfried Wilhelm Leibniz (1646 – 1716), der, nebenbei bemerkt, auch das Binärsystem erfand, das mit der Erfindung des Computers eine große Bedeutung erhalten sollte. Die Analytische Philosophie wurde Anfang des 20. Jahrhunderts von den britischen Philosophen Bertrand Russell (1872–1970) und George Edward Moore (1873–1958) und vom Wiener Kreis begründet und kann als eine Fortführung der Leibniz'schen Ideen begriffen werden. Ihre Vertreter wiesen folgende Gemeinsamkeiten auf: Ein systematisches, anstatt geschichtliches Herangehen an philosophische Fragen, eine Orientierung an empirischen Wissenschaften sowie der Versuch eine logische Formalsprache (widerspruchsfreie Idealsprache) zu schaffen, beziehungsweise die Analyse von Sprache mit Mitteln der Logik, mit dem Ziel, die angenommene logische Formalsprache hinter unserer Alltagssprache zu beschreiben. Es soll nicht unerwähnt bleiben, dass viele Vertreter dieser Richtung vor dem nationalsozialistischen Regime fliehen mussten und ihre Arbeit in England und den USA fortsetzten.
Disziplin Linguistik Mathematik (Informatik) Philosophie Psychologie
Beitrag zur Kognitionswissenschaft und Entstehung des Kognitivismus Beschreibung sprachlicher Strukturen
 
Neu: Universalgrammatik
Mathematischer Beweis, Computer
 
Neu: formale Sprachen, Simulation
Philosophische Basis („Denken ist rechnen“)
 
Neu: Formale Logik
Empirische Daten, Experiment
 
Neu: in die „Black Box hineinschauen“
Tab. 1: Überblick über die Disziplinen und ihren Beitrag an der Entstehung der frühen Kognitionswissenschaft
In der Psychologie hatte der Behaviorismus, von John B. Watson 1913 ursprünglich als Gegenposition zur Phänomenologie formuliert, die Untersuchung von Verhalten mit naturwissenschaftlichen Methoden und damit eine Objektivierung der Psychologie eingeführt und war zum vorherrschenden Paradigma geworden. Das Gehirn wurde als Black Box betrachtet, über deren Inhalt keine Aussage möglich sei. Lediglich das beobachtbare Ereignis in der Umwelt (Reiz) und das mutmaßlich daraus resultierende Verhalten (Reaktion) durfte Gegenstand einer wissenschaftlichen Untersuchung sein. Lernen war die Assoziation von Reiz und Reaktion, der Geist eine tabula rasa. Darüber hinaus wurde über die Vorgänge und Strukturen innerhalb der Black Box nicht weiter theoretisiert, ein Umstand, der zunehmend kritisiert wurde.
1957 erschien das Buch „Verbal Behavior“, in dem der Behaviorist seiner Zeit, Burrhus Fredric Skinner, seine Hypothese zum Spracherwerb formulierte. In einer Buchbesprechung übte der Linguist Noam Chomsky (1959) harsche Kritik und argumentierte, dass ein so komplexes Verhalten wie Sprache unmöglich durch den Behaviorismus, und somit durch assoziatives Lernen, allein, erklärt werden könne. Vielmehr müsse es ein genetisch determiniertes mentales Modul geben, das es Menschen erlaubt, Sprache zu erwerben, eine universale Grammatik, welche die Basis für den Erwerb jeglicher menschlichen Sprache biete. Damit revolutionierte er nicht nur die Linguistik; die Kritik an Skinner wird auch als Meilenstein auf dem Weg zu einem neuen Paradigma gesehen: dem Kognitivismus.
Bevor der Kognitivismus näher diskutiert wird, muss auf die vielleicht für die Entstehung der Kognitionswissenschaften wesentlichste Erfindung und Voraussetzung hingewiesen werden: der Computer und seine formalen Grundlagen. 1936 hatte der Mathematiker Alan Turing (1912-1954) gezeigt, dass jede berechenbare Funktion durch eine Turingmaschine implementiert werden kann (Turing, 1936; 1950). Eine genaue Erklärung würde an dieser Stelle zu weit führen; wesentlich ist in unserem Kontext, dass sie – unendlich großen Speicher vorausgesetzt – jede berechenbare Funktion berechnen kann und, dass sie den Begriff Algorithmus exakt präzisiert. Als solche bildete sie die theoretische Basis für die Entwicklung des Computers (etwa 1946 durch den Mathematiker John von Neumann), dessen Architektur nach wie vor die Basis jedes Computers bildet (eine ausführlichere Darstellung findet sich in Bechtel und Graham, 1998, 6-14).
Zusammengefasst, lässt sich der wissenschaftsgeschichtliche Kontext um 1950 in sehr vereinfachter Form zuspitzen (Tabelle 1): In der Psychologie gab es eine weit verbreitete Unzufriedenheit mit dem Behaviorismus, dessen Methoden es nicht erlauben, etwas darüber auszusagen oder zu untersuchen was, salopp gesagt, im Kopf (der Black Box) passiert. Gerade daran hatten aber all jene Interesse, die menschliche Kognition verstehen wollten. Auf Seiten der Analytischen Philosophie gab es ein Angebot: Denken ist logisch und basiert auf einer (formalen) Sprache; wir müssen also „nur“ einen Weg finden die Formalsprache „hinter“ der Alltagssprache zu beschreiben. Chomskys Idee der Universalgrammatik bot eine neue Brücke zwischen formaler Logik und natürlichen Sprachen. Und der Computer erschloss eine vollkommen neue Herangehensweise, mit der wissenschaftliche Theorien einer Prüfung unterzogen werden konnten. Anstatt Modelle mit Papier und Bleistift durchzurechnen, konnten diese Modelle, wenn man sie in eine formalisierte Form (entspricht Algorithmen, die als Computerprogramme implementiert werden) bringt, automatisch berechnet werden und gegebenenfalls Vorhersagen für die empirische Forschung machen: die Methode der Computersimulation.
Ein weiteres wichtiges Puzzlestück für die Analogie zwischen Denken und Logik lieferten der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts 1943. Die Turingmaschine (und in der Folge auch von Neumann-Computer) verwenden das von Leibniz erfundene Binärsystem, das heißt sie „kannte“ die zwei Symbole „1“ und „0“. Auch Nervenzellen kennen zwei Zustände: sie feuern („1“) oder sie feuern nicht („0“). Auf Basis dieser Überlegung entwickelten McCulloch und Pitts (1943) ein sehr vereinfachtes, abstrahiertes Neuronenmodell, mit dessen Hilfe sie zeigen konnten, dass ein Netzwerk dieser Neuronenmodelle – und damit auch das menschliche Gehirn – im Prinzip die selben Kapazitäten hat, wie eine Turingmaschine, das heißt jede berechenbare Funktion berechnen und damit auch logische Formalsprachen verkörpern kann.