Diese Seite ist Teil der Homepage von Thomas Knob aus Österreich. - Letzte Änderung 2.10.2025


Vorbemerkung:

Dieses unentgeltlich zur Verfügung gestellte Kompendium diente dem Verfasser und seinen Schülerinnen und Schülern vor allem als Vorlage für den gymnasialen Schulunterricht im Unterrichtsfach „Psychologie“ und erhebt weder Anspruch auf Vollständigkeit noch auf Fehlerlosigkeit. Es ist hemmungslos eklektizistisch und will Hilfestellung für Lehrende und Lernende zur persönlichen Verwendung, nicht Wiedergabe eigener Forschungen sein. Jede weitergehende Nutzung, insbesondere die Speicherung in Datenbanken, Vervielfältigung und jede Form von gewerblicher Nutzung sowie die Weitergabe an Dritte (auch in Teilen oder in überarbeiteter Form) ohne Zustimmung des Autors sowie die Einbindung einzelner Seiten in fremde Frames bitte zu unterlassen! Alle Informationen werden unter Ausschluss jeder Gewährleistung oder Zusicherung, ob ausdrücklich oder stillschweigend, zur Verfügung gestellt. Der Verfasser übernimmt ferner keine Haftung für die Inhalte verlinkter, fremder Seiten.

Zur Bedienung: Die Darstellung der Webseiten kann auf allen Ausgabegeräten erfolgen. Der beste optische Eindruck sollte im Tablet-Format (senkrecht oder waagrecht) zu erzielen sein. Interne Links werden im selben Frame (Rückkehr meist mit ALT+Pfeil links oder über die entsprechende Schaltfläche), externe Links in einem neuen Fenster geöffnet. Die Volltextsuche verweist nur auf die Seite (führt nicht direkt zur gesuchten Textstelle), danach hilft die Seitensuchfunktion (meist STRG+F) weiter. Quellenangaben werden, soweit dies möglich ist, beigegeben. Sollten diesbezüglich (oder anderweitig) Fehler bemerkt werden bzw. Unterlassungen passiert sein, so möge dies bitte nachgesehen und über die beigegebene Mailadresse gemeldet werden. So bald wie möglich werden Korrekturen erfolgen. Um die letztgültige Version zu erhalten, ist eine Seitenaktualisierung (automatisch oder manuell) günstig.

 

 

KOMPENDIUM DER PSYCHOLOGIE, 3. TEIL

(mit LINKS ins Internet)

 

 


Teil 1 - Teil 2 - Teil 4 - Teil 5 - Inhalt

Volltextsuche in allen 5 Teilen:
(Auf der Seite selbst: STRG+F)

Suchbegriffe bitte in Groß- oder Kleinschreibung, ganz oder unvollständig
(aber in genauer Buchstabenfolge ohne Anführungszeichen) eingeben!

Fragen und Kommentare an thomas.knob@chello.at

 

 


 

INHALT DES 3. TEILS:

V. INTELLIGENZPSYCHOLOGIE (Intelligenzdefinitionen - Der Intelligenzquotient / IQ - Die Anlage-Umwelt-Problematik - Intelligenztests und -konzepte)
VI. DENKPSYCHOLOGIE (Definitionen und Historisches - Funktionen des Denkens - Entwicklung des Denkens nach Piaget - Erscheinungsformen des Denkens - Denken und Sprache)
VII. LERNEN UND GEDÄCHTNIS (Definitionen - Lernen im kognitiven Bereich - Lernen im vegetativen Bereich - Lernen im Verhaltensbereich - Lernmodelle)


 


V. INTELLIGENZPSYCHOLOGIE
 

 

Vgl. Seite von neuronation.de, Seite von GEO oder die IQ-Page von Mensa.at, .de oder .ch. Zu Intelligenz im Allgemeinen vgl. diese Video-Vorlesung.

 

INTELLIGENZDEFINITIONEN

* Volk der Luo (Kenia): Es gibt vier Arten des klugen Handelns: rieko (intellektuelle Fähigkeiten), luoro (respektvoller Umgang mit anderen), paro (Kreativität) und winjo (Meisterung alltäglicher Probleme).

* William Stern (1871-1938): Intelligenz ist die personale Fähigkeit, sich unter zweckmäßiger Verfügung über Denkmittel auf neue Forderungen einzustellen.

* Édouard Claparède (1873-1940): Intelligenz ist ein durch mangelhafte Anpassung hervorgerufener geistiger Prozess, der dazu dient, das Individuum wieder anzupassen.

* Edwin Boring (1886-1968): Intelligenz ist, was der jeweilige Intelligenztest misst.

* David Wechsler (1896-1981): Intelligenz ist die zusammengesetzte oder globale Fähigkeit des Individuums, zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung wirkungsvoll auseinander zu setzen.

* Jean Piaget (1896-1980; s. a. o. und u.): Intelligenz ist nicht das, was wir wissen, sondern das, was wir tun, wenn wir nicht wissen.

* Hubert Rohracher (1903-1972): Intelligenz ist der Leistungsgrad der psychischen Funktionen bei der Lösung neuer Probleme.

* Anne Anastasi (1908-2001) / John Porter Foley jr. (1910-1994): Unter Intelligenz versteht man jene Fähigkeiten, die den innerhalb einer Kultur Erfolgreichen gemeinsam sind.

* Peter Hofstätter (1913-1994): Intelligenz ist die Befähigung zum Auffinden von Ordnung und die Befähigung zum Auffinden von Redundanz in der Welt.

* Rudolf Amthauer (1920-1989): Intelligenz ist eine strukturierte Ganzheit von seelisch geistigen Fähigkeiten, die in Leistungen wirksam werden und den Menschen befähigen, als Handelnder in seiner Welt bestehen zu können.

* Gerhard Roth (1942-2023): Intelligenz ist kreatives Problemlösen unter Zeitdruck.

* Linda Susanne Gottfredson (*1947) u. a.: Intelligenz ist eine sehr allgemeine geistige Fähigkeit, die unter anderem die Fähigkeit zum schlussfolgernden Denken, zum Verstehen komplexer Ideen, zum raschen Auffassen und zum Lernen aus Erfahrung einschließt.

* Günther Paal (alias Gunkl; *1962): „Intelligenz“ kommt ja von „intellegere“, wörtlich „wähle zwischen“, also ist Intelligenz zuallererst die Fähigkeit, Unterscheidungen treffen zu können.

* David Chalmers (*1966): Intelligenz ist ein hochentwickeltes und flexibles zielgerichtetes Verhalten. / Während Intelligenz eine Sache des objektiven Verhaltens ist, ist Bewusstsein eine Sache des subjektiven Erlebens.

Intelligenz ist ein nicht direkt beobachtbares (sondern aus den Reaktionen einer Person ableitbares) hypothetisches Konstrukt, dessen Elemente unterschiedlich ausgewählt werden. Manche Völker inkludieren auch Geduld, Moral, Familiensorge, Bedächtigkeit oder Weisheit. Der Begriff „Intelligenz“ wird nicht nur auf den Menschen angewendet, wobei uns Tiere, denen es an systematischem Wissensdurst und aktivem Forscherdrang mangelt, sowohl in der Wissensakkumulation wie auch in der Weitergabe von Erlerntem deutlich unterlegen sind.

Prinzipiell ist Intelligenz wie jede andere Eigenschaft zu betrachten. Ein bestimmter IQ stellt kein Werturteil dar und darf nicht fetischisiert oder mit anderen Parametern verwechselt werden. Das Intelligenzniveau korreliert nicht notwendigerweise mit einem bestimmten moralischen Niveau: Auch Serienmörder (die ansonsten gar keine Serie zustande brächten) und Staatsverbrecher (vgl. z. B. das Nürnberger Tagebuch von Gustave M. Gilbert, 1911-1977, der als österreichischstämmiger und damit deutschkundiger amerikanischer Gerichtspsychologe mit den angeklagten Nationalsozialisten Gespräche führte und IQ-Tests machte) besitzen bzw. besaßen tw. hohe Intelligenz.

Stephen Hawking, 1942-2018, meinte, dass nicht mangelnde Intelligenz, sondern fehlende Empathie der Grund für das Aussterben der Menschheit sein werde. Trotzdem gibt hohe Intelligenz manchmal bessere Chancen bei der Bewältigung mancher Lebensprobleme und erleichtert einiges: „Der Vorteil der Klugheit besteht darin, dass man sich dumm stellen kann. Das Gegenteil ist schon schwieriger“. (Irrtümlich Kurt Tucholsky, 1890-1935, zugeschrieben)

* Begabung: Ein in diesem Zusammenhang oft verwendeter (und wie „Intelligenz“ alltagssprachlich wertebezogen eingefärbter) Begriff ist der der Begabung (oft synonym zu Talent verwendet). Er bezeichnet die potentielle Leistungsfähigkeit auf einem spezifischen Gebiet, die durch mehrere - hauptsächlich angeborene und tw. erworbene - Faktoren bestimmt wird. Dazu zählen Erbanlagen (günstig wirken sich eine hohe Zahl an Interneuronen / Schaltzellen im Cortex, viele Synapsen und ein großes Gehirnvolumen v. a. im Hippocampus aus), Krankheiten und Behinderungen, gute Ernährung (v. a. in der perinatalen Phase), frühe Umwelteinflüsse, „erlernte Lernfähigkeit“ durch vorausgegangene Lernprozesse etc.). Begabungen zeigen inter- und intraindividuelle Unterschiede.

Der früher statische Begabungsbegriff wird heute (oft zu optimistisch) manchmal dynamisch verstanden („jemanden begaben“), wie dies etwa 1968 im umstrittenen Milwaukee-Projekt der University of Wisconsin (Leitung Rick Heber, *1932) versucht wurde. In diesem Ex. wurden die Mütter sozial benachteiligter Kinder gezielt gefördert. Der dabei scheinbar erreichte Anstieg des IQs ihres Nachwuchses erwies sich aber nach Wegfall der Unterstützung als nicht nachhaltig.

Einzelne Befähigungen können auch unabhängig von niedriger Intelligenz auftreten (und umgekehrt). Zudem stimmen Leistung (da diese motivationsabhängig ist, also von durch Bewusstsein und Freiheit getragenen Intentionen, die zu Bereitschaft führen, bestimmt wird) und Begabung nicht immer überein; eine anregende Lernumgebung kann (v. a. in den ersten drei Lebensjahren) mangelnde Erbausstattung teilweise kompensieren (und umgekehrt). Eine erwartungswidrig schlechte / gute Performance wird als Underachievement / Overachievement bezeichnet. Genauso wie geistige Behinderung (s. o.) erforscht die Psychologie auch das Phänomen der Hochbegabung (ca. ab IQ 130). Die Materie wird u. a. im Marburger Hochbegabtenprojekt MHP, das mit gängigen Vorurteilen wie dem von großteils sozial schlecht integrierten Underachievern aufräumt, von Detlev Rost, *1945, bearbeitet (vgl. diese Broschüre).

* Künstliche Intelligenz: Eine nicht psychologischen Parametern unterliegende (aber aufgrund ihrer lawinenartig zunehmenden Bedeutung - verbunden auch mit vielfältigen psychologischen Auswirkungen - hier dennoch diskutierte) Form der Intelligenz ist die KI (bzw. AI; artificial intelligence; der Begriff wurde 1956 vom amerikanischen Informatiker John McCarthy (1927-2011) im Vorfeld der Dartmouth-Konferenz geprägt). Ihre Entwicklung erfolgt exponentiell - nach Schätzungen wurden allein 2022 und 2023 90% aller Daten produziert, die bis dahin insgesamt jemals von der Menschheit gespeichert wurden -, ihre Algorithmen übersteigen daher auf vielen Gebieten (bis hin zu der Erstellung von Krankheitsdiagnosen - z. B. bei der Interpretation von Mammographien -, und damit der Möglichkeit von personalisierter Medizin, dem Steuern selbst fahrender Fortbewegungsmittel, Schach- oder Go-Computern, Rechnern, in Filterblasen, der Erstellung von Smartphone-Photos, bei Prognosen aller Art, z. B. wer sich für welches Buch interessieren wird, usw. usf.) bei Weitem das, was Menschen leisten könnten (vor allem, seit die KI, die zudem nicht von Noise (s. o.) betroffen ist, selbst lernend vorgeht, unvorhersehbare Lösungswege findet und man ihr Intuition - s. o. - zusprechen muss). Das Internet wurde in diesem Zusammenhang als „Neuroprothese“ bezeichnet. (Der Philosoph Markus Gabriel, *1980, merkt dazu an, dass diese Qualitäten allerdings höchstens mit einem Aktenordner vergleichbar seien, der im Abheften von Papier ja auch besser als der Mensch sei - eine Einschätzung, die aufgrund neuerer Entwicklungen möglicherweise obsolet werden könnte.)

Beachtenswert ist die Tatsache, dass sich seit den 2020er-Jahren KI nicht mehr auf das Rechnen (im weitesten Sinne) beschränkt, sondern durch Training - zum Teil aus sich selbst heraus - lernt und so treffende Urteile durch Ausschluss der gemachten Fehler zu generieren imstande ist. Beispiele: Das Erkennen von Hautkrebs übertrifft inzwischen die menschlichen Diagnosen an Exaktheit. Oder: Da das Errechnen von Proteinfaltungen (also Strukturen von Aminosäurenketten oder Peptiden) gar nicht möglich wäre bzw. deren Sichtbarmachung langwierig erfolgen musste (zum ersten Mal durch den Österreicher Max Perutz, 1914-2002; Chemienobelpreis 1962 und Neffe 2. Grades des Schriftstellers Leo Perutz, 1882-1957) , werden diese Aufgaben inzwischen von der KI mit weit höherer Geschwindigkeit und größerem Erfolg - röntgenkristallographische und kryoelektronenmikroskopische Verfahrensweisen alt erscheinen lassend - übernommen. (Für diese Leistung wurde 2024 der Chemienobelpreis u. a. an Demosthenes Hassabis, s. u., verliehen.) In seinem Buch This is for Everyone (2025) sagte Tim Berners-Lee (*1955) voraus, dass der Einfluss der KI auf das von ihm mittels HTML und WWW entwickelte - nunmehr der KI uneingeschränkt Daten liefernde - Internet bewirken werde, dass dieses in Zukunft nicht mehr als Seite, sondern als Overlay über die physische Welt erschienen werde.

Das Vorhandensein künstlicher neuronaler Netze (für deren Erforschung und Entwicklung der Kognitionspsychologe und Informatiker Geoffrey Everest Hinton, *1947, 2024 den Nobelpreis für Physik erhalten hat) und die Verbindung von Informationstechnologie und Biotechnologie bestimmen dabei unser Leben jetzt schon mehr, als vielen Menschen bewusst ist (vgl. z. B. das Buch 21 Lektionen für das 21. Jahrhundert des Historikers Yuval Harari, *1976, oder Manfred Spitzer, Künstliche Intelligenz, erschienen 2023). Vor allem das unentwegte automatische Tracking aller virtuellen Verhaltensweisen und die daraus aufgrund der unbestechlichen (da nicht menschlich verzerrten) Einsichten in die Gefühlswelt der Überwachten gezogenen Schlüsse ermöglichen Kontrolle und Prognose (wobei ja die Betroffenen diesen Methoden einer „STASI für Freiwillige“ - Zitat vom österreichischen Kabarettisten Michael Niarawani, *1968 - durch die meist völlig naive Benützung der zur Verfügung stehenden Technologien und Netzwerke ohne Zwang zugestimmt haben - s. a. u. zu Filterblasen). Inwieweit künstlichen Systemen Intentionalität (nach Franz Brentano, 1838-1917, in Psychologie vom empirischen Standpunkt das Kernmerkmal aller Erkenntnisakte) zugestanden werden kann, ist allerdings umstritten; die Fragestellung unterliegt der Gefahr des Anthropomorphisierens.

Wie sich hier zeigt, ist Bewusstsein keine notwendige Folge, Begleiterscheinung oder Bedingung von Intelligenz, höchstens insofern Voraussetzung, als (jetzt noch) denkende, bewusstseinsfähige Menschen die KI erschaffen. (Dies hängt allerdings von der Definition von „Bewusstsein“ ab. Wissenschaftler wie Chalmers - s. o. - nehmen an, dass eine bewusste KI, die auch moralische Urteile zu fällen imstande ist, die Zukunft der Menschheit sein werde, Anil Kumar Seth, *1972; s. o., nimmt - zumindest vorläufig - an, dass Bewusstsein durch KI zwar simuliert, aber nicht erzeugt werden könne.) Bemerkenswert ist, dass auch unser Nervensystem nach dem der KI zugrundeliegenden 1-0-Binärsystem funktioniert: Neurone feuern oder sie feuern nicht. (Ein duales Zahlensystem wurde bereits von Gottfried Wilhelm Leibniz, 1646-1716, entwickelt, die heutige Computerstruktur geht auf John von Neumann, 1903-1957; s. a. u., zurück und einen weiteren Meilenstein zur KI steuerte der 2024 mit dem Nobelpreis für Chemie bedachte Demosthenes „Demis“ Hassabis, *1976, durch die Gründung von DeepMind, einer Tochtergesellschaft von Alphabet, die das proteinentschlüsselnde Tool AlphaFold entwickelte, bei - alles drei frühentwickelte Wunderkinder.)

Zur Feststellung der Gleichwertigkeit von menschlichen und (simulierten) maschinellen Reaktionen dient der 1950 als Gedankenexperiment entwickelte Turing-Test für Maschinen(intelligenz): er gilt dann als bestanden, wenn man während eines Chats nicht mehr in der Lage ist zu unterscheiden, ob man sich mit einem Menschen oder mit einem Computerprogramm unterhält (entwickelt vom Informatiker und Langstreckenläufer Alan Turing, 1912-1954; Suizid - nach manchen Vermutungen Mord - durch einen vergifteten Apfel nach einer aufgrund seiner Homosexualität erfolgten gerichtlich veranlassten chemischen Kastration; eine Begnadigung erfolgte fast 60 Jahre nach seinem Tod durch die schon zum Zeitpunkt der Verurteilung auf dem Thron sitzenden Elizabeth Alexandra Mary Windsor / Queen Elizabeth II., 1926-2022). 1980 (in Minds, Brains and Programs) wies der Philosoph John Searle (*1932; vgl. Vortrag Mind Machines and Consciousness 1996) darauf hin, dass selbst ein gelungener Turing-Test analog folgender Situation des Chinesischen Zimmers sei: Ein Mensch, der nicht Chinesisch kann, erhält unter der Tür einen Zettel mit chinesischen Schriftzeichen in einen verschlossenen Raum durchgeschoben. Die dort vorhandenen Bücher geben darüber Auskunft, wie die Person antworten solle. Sie ist aufgrund der erhaltenen Anleitungen dazu imstande und schiebt den Zettel zurück - versteht aber trotzdem nichts von dem, was sie geschrieben hat, auch wenn dies der Empfänger annehmen wird. Die Ausführung eines Programms konstituiere also noch lange nicht Bewusstsein.

Eine wirkmächtige und auf vielen Gebieten folgenreiche Annäherung an Turings Ideal ist das seit 1. 12. 2022 (in den ersten 5 Tagen bereits 1 Mio. Nutzer!) zugängliche Programm ChatGPT (Generative Pre-trained Transformer; ein von der US-Firma OpenAI entwickelter Chatbot aus der Gruppe der LLMs / Large Language Models, der auf Zuruf - auch anspruchsvolle - sinnvolle Texte zu produzieren imstande ist; vgl. u. das aus heutiger Sicht unbeholfen wirkende Programm ELIZA). In weiterer Folge entstanden in rasanter Weiterentwicklung immer mehr Funktionen bzw. Fähigkeiten dieses Programms (bzw. seiner Nachfolgeprodukte wie des 2025 lancierten chinesischen DeepSeek), sodass dessen Anwendungsmöglichkeiten eine niemals erhoffte Vielfältigkeit erreichten. B. F. Skinner (s. u.) meinte allerdings schon Jahrzehnte davor: „The real problem is not whether machines think but whether men do“.

Zu beobachten ist, dass Computer bzw. deren Output immer öfter als soziale Agenten (Begriff von Clifford Nass, 1958-2013) gesehen werden, denen man wie Menschen gegenübertritt (= ELIZA-Effekt; vgl. Pflegeroboter oder die Sprachassistenten Cortana, Alexa, Siri). Schon 1944 haben Fritz Heider (1896-1988; s. u.) u. a. in einem Trickfilmex. nachgewiesen, dass Kreise und Dreiecke, die sich in einer gewissen Art und Weise bewegen, von den Betrachtern als Frauen und diese verfolgende Männer interpretiert werden. Die Attribuierung menschlicher Eigenschaften ist die Grundlage dafür, dass die Mensch-Maschine-Kommunikation der menschlichen Kommunikation manchmal nahekommt. (In diesem Zusammenhang: Am 25. 10. 2017 wurde dem in Hongkong entwickelten und mit KI ausgestatteten humanoiden Roboter Sophia die saudiarabische Staatsbürgerschaft verliehen, auch von „Liebesbeziehungen“ zu KI-Avataren wurde bereits berichtet.)

Zu den Möglichkeiten, die sich durch die KI eröffnen, s. Seite der ÖAW über Gefühlsmanipulation und den Videovortrag The End of Privacy

 

DER INTELLIGENZQUOTIENT - IQ

Schon aus der obigen kurzen Zusammenstellung von Intelligenzdefinitionen geht die Problematik des IQ hervor. Misst er wirklich, was er zu messen vorgibt? Lässt sich Intelligenz überhaupt messen? Ist Intelligenz ein hypothetisches Konstrukt? Welche Definition von Intelligenz lege ich meiner Messung zugrunde? (Am ehesten lässt sich Übereinstimmung erzielen, wenn man von rascher und effizienter Verarbeitung großer Informationsmengen spricht.) Folgerichtig wurde und wird die IQ-Messung von zahllosen Autoren - je nach Position - immer wieder gefordert, in Frage gestellt, relativiert, problematisiert etc. Für die letzten Jahrzehnte könnte man etwa auf die vom Buch The Bell Curve (von Richard Herrnstein, 1930-1994, und Charles Murray, *1943, die auch den Ausdruck „Flynn-Effekt“ - s. u. - geprägt haben) ausgelöste Diskussion (s. hier) um die Unausweichlichkeit angeborener Intelligenzgrenzen (vgl. Statement von 52 Intelligenzexperten), die angeblich genetisch bedingten Unterschiede in den IQs verschiedener Ethnien (z. B. Arthur Robert Jensen, 1923-2012) oder den 1995 in die Diskussion gebrachten „EQ“ (s. u.) verweisen.

 

- Definition:

   Abb. 3/1: William Stern

Der Intelligenzquotient / IQ ist ein ursprünglich für Kinder eingeführtes Verhältnismaß, das heute als wichtigste Größe der Differenziellen Psychologie (s. u.) gilt. Sein Erfinder war 1912 William Louis Stern (1871-1938, geb. als Ludwig Wilhelm Stern; vgl. W. Stern-Gesellschaft 1, 2), der aus Berlin gebürtige, 1933 aufgrund von Nazi-Mobbing über die Niederlande in die USA emigrierte Begründer des Kritischen Personalismus, Schüler von Ebbinghaus (s. u.), Mitbegründer der Hamburger Universität und Vater des Philosophen Günther Anders (s. a. o.; 1902-1992). Sterns Motiv, wissenschaftliche Psychologie zu betreiben, formulierte er so: „Das Spekulieren und Spintisieren braucht ein Gegengewicht“, „Deutungspfuschern“, die Meinungen und Vorurteile als Wissenschaft ausgeben, gehöre das Handwerk gelegt. Der IQ wird nach folgender Formel berechnet:

                                          
                                    Intelligenzalter (IA)
Intelligenzquotient (IQ) =    _______________________    x 100
                                   Lebensalter (LA)

Abb. 3/2: Formel des Intelligenzquotienten nach Stern

Der IQ für Erwachsene wird heute mittels geeichter Intelligenztests erstellt, die eine Normstichprobe definieren. Die Abweichung vom Mittelwert ergibt dann den IQ. (Anstelle des Terminus IQ setzte sich ca. seit den 2000er-Jahren international allmählich der Terminus GMA = General mental ability durch - laut Lehrbuch Psychologie des Springer-Verlages - s. Link - ein „relativ stabiles, global psychologisches Fähigkeitsmerkmal von Personen. Je höher die allgemeine Intelligenz einer Person ist, desto leichter fällt es ihr, neuartige und komplexe geistige Probleme zu lösen und sich neues Wissen schnell und gründlich anzueignen“. IQ-Test entsprechen demgemäß GMA-Tests.)

 

- Verteilung des IQ:
Die Verteilung der Intelligenz in der Bevölkerung kann immer mit der von Carl Friedrich Gauß (1777-1855) 1809 beschriebenen Normalverteilung (Gauß'sche Glockenkurve / engl. bell curve; s. Graphik) erfasst werden, da der IQ ist kein absolutes, über alle Zeiten gültiges Maß ist, sondern durch die individuelle Abweichung vom Mittelwert der Bezugsgruppe definiert wird. ø = 100 bedeutet, dass gleich viele Testpersonen mit höherer wie mit niedrigerer Punktezahl abschneiden. Der Mittelwert wird durch Eichung der Intelligenztests (s. u.) an der (bei Kindern gleichaltrigen) Gesamtbevölkerung gewonnen. Der in Neuseeland lehrende US-Politologe James R. Flynn (1934-2020) wies - zunächst für US-Amerikaner im Zeitraum 1932 bis 1978 - nach, dass der absolute Wert im Laufe der Jahrzehnte (vor allem bei guten Nicht-Kriegs-Bedingungen) um ca. 3 Punkte pro Jahrzehnt ansteigt. (Dieses Phänomen, das eher der Verbesserung einzelner Spezialfaktoren als der Allgemeinintelligenz geschuldet ist und seit Beginn der Messungen bis ca. 2010 30 Punkte erreicht hat - aber seither in den Industrieländern zu stocken scheint -, wird seit 1994 Flynn-Effekt genannt und zeigt, dass Intelligenz und Weisheit zweierlei sind, da die Probleme der Menschheit ja dadurch nicht verringert wurden.)


IQ 52
oligophren
IQ 68
sehr niedrig
IQ 84
niedrig
IQ 100
durchschnittlich
IQ 116
hoch
IQ 132
sehr hoch
IQ 148
genial

Abb. 3/3: Die Glockenkurve der Intelligenzverteilung (Graphik aus IQTest.ag)

Die Graphik zeigt, dass bei IQ ø = 100 68,26% der Gesamtbevölkerung im Normalbereich zwischen 84 - 116 IQ-Punkten, 95% zwischen 69 und 132 und nur 5% in den Extrembereichen liegen. Die Verteilung lautet etwa:
                                                  1 von 1000 zwischen     0 und   52
                                                22 von 1000 zwischen   52 und   68
                                              136 von 1000 zwischen   68 und   84
                                              341 von 1000 zwischen   84 und 100
                                              341 von 1000 zwischen 100 und 116
                                              136 von 1000 zwischen 116 und 132
                                                22 von 1000 zwischen 132 und 148
                                                  1 von 1000 zwischen 148 und 200

 

- Bezeichnungen der verschiedenen Intelligenzgrade:
* Idiotisch, imbezill: IQ von 0 bis 52

* Debil, engl. moron: IQ von 53 bis 68

* Schwachbegabt: IQ von 69 bis 84

* Normalbegabt: IQ von 85 bis 116

* Überbegabt: IQ von 117 bis 132

* Hochbegabt: IQ von 133 bis 148

* Genial: IQ von 149 bis 200

Die angegebenen Grenzen sind willkürlich gezogen, die Terminologie schwankt über Zeit und Raum und ist von außerwissenschaftlichen Faktoren wie der so genannten Sprache der PC (politcal correctness) beeinflusst. (Der Ausdruck „politically correct“ stammt von einem Gerichtsverfahren 1793 in den USA, in dem es als „nicht politisch korrekt“ bezeichnet wurde, einen Trinkspruch auf den Staat statt auf das Volk auszubringen, weil der Staat zwar „das edelste Werk des Menschen“, der Mensch aber „das edelste Werk Gottes“ sei.)

Zusätzlich zu den erwähnten Intelligenzgradbezeichnungen existieren noch alltagssprachliche Ausdrücke wie z. B. Dummheit“. (Vgl.: Friedrich Schiller, 1759-1805 in der Jungfrau von Orleans: „Mit der Dummheit kämpfen Götter selbst vergeblich.“ - Albert Einstein, 1879-1955: „Zwei Dinge sind unendlich: das Universum und die menschliche Dummheit... aber beim Universum bin ich mir noch nicht ganz sicher.“ - Ödön von Horváth, 1901-Unfall 1938, in den Geschichten aus dem Wienerwald: „Nichts gibt so sehr das Gefühl der Unendlichkeit als wie die Dummheit.“)

 

DAS ANLAGE-UMWELT-PROBLEM

Zu den biologischen Grundlagen der Vererbung s. o., zum Einfluss der Genetik auf das Verhalten vgl. die Videodokumentation „Wie Gene unsere Persönlichkeit beeinflussen“.

 

- Grundeinstellungen:
Die Frage, ob Intelligenz hauptsächlich vererbt (hereditär / kongenital „gegeben“) oder durch die Umwelt beeinflusst (während des Heranwachsens „erworben“) sei, bzw. ob das Verhalten des Menschen ganz allgemein eher von der Natur oder eher von seiner Umgebung (Kultur) geprägt wird, wird je nach Grundeinstellung unterschiedlich beantwortet: (Vgl. a. o.)

* Milieuoptimistische Schule: Sie vertritt die Ansicht, dass Intelligenz vor allem durch Erziehung bestimmt sei. Vertreter sind z. B. die Behaviouristen, v. a. der Gründer dieser Richtung (in seinem Buch Psychology as the behaviorist views it, 1913) Watson (s. a. u.; „Nurture-Theorie“). John Locke, 1632-1704, formulierte schon im 17. Jhdt. die - inzwischen widerlegte - Vorstellung vom Menschen als tabula rasa (einem unbeschriebenen Blatt).

* Milieupessimistische Schule: Intelligenz wird nach Meinung dieser Strömung durch die Erbanlangen determiniert (z. B. Galton, s. u.; „Nature-Theorie“).

Durch den Nachweis sogenannter epigenetischer Vorgänge (Adrian Peter Bird, *1947: Epigenetik beschreibt die strukturelle Anpassung chromosomaler Regionen, um veränderte Zustände der Aktivierung zu kodieren, zu signalisieren oder zu konservieren.“) und der damit verbundenen genomischen Prägung sieht man heute die beiden gegensätzlichen Schulen enger miteinander verflochten als ursprünglich angenommen bzw. die ursprüngliche Frage als falsch gestellt an. Die Epigenetik (s. a. o.) geht prinzipiell davon aus, dass die Aktivitäten bestimmter vorgeschalteter Gene durch Umwelteinflüsse beeinflusst (modelliert) und diese Festlegungen auch an die Folgegeneration weitergegeben werden können, ohne dass die DNA selbst verändert wird. Epigenetische Kontrollmechanismen „lesen“ die Gene wie Buchtexte aus (ganz, teilweise oder gar nicht) und konstituieren - im Unterschied zu den etwa 20 000 Genen, die sich innerhalb der Menschheit (und selbst zwischen Affe und Mensch) kaum voneinander unterscheiden und ohne Epigenetik mit einem Tonband ohne Abspielgerät zu vergleichen wären - die Individualität eines Wesens.

Das Zusammenwirken von Genetik, Entwicklung und Umwelt bestimmt also unsere „Seele“ mit all ihren Eigenheiten (z. B. dem Ausmaß, in dem Einwirkungen später positiv oder negativ wirksam werden können). Als Faktoren für eine positive Intelligenzentwicklung haben neuropsychologische Untersuchungen vor allem eine stressfreie Schwangerschaft, gute Bindungserfahrungen und eine ruhige, anregende Umwelt in den ersten Lebensjahren festgestellt. Nach drei, vier Lebensjahren seien diesbezüglich viele wichtige Entscheidungen bereits gefallen (s. a. o.). Zur Frage: Wie frei bin ich, mich so zu entwickeln, wie ich sein möchte? vgl. folgendes Videointerview

 

- Historische Klärungsversuche:
* Zuchtforschung: untersucht den Zusammenhang der Intelligenz von tierischen Nachkommen mit der jeweiligen Elterngeneration, z. B. Ex. von Tolman (s. u.): Kreuzt man labyrinthkluge Ratten miteinander, so sind die Nachfolgegenerationen im ø intelligenter als die von labyrinthdummen.

Vorteil: rasche Generationenabfolge bei geeigneten Tieren; Nachteil: bei Menschen aus ethischen Gründen nicht durchführbar.

* Familienforschung: untersucht den Zusammenhang der Intelligenz von menschlichen Nachkommen mit der jeweiligen Elterngeneration, z. B. Untersuchungen über die musikalische Familie von Johann Sebastian Bach (1685-1750) oder die mathematisch begabte Familie von Daniel Bernoulli (1700-1782).

Vorteil: Menschen- statt Tierbeobachtung; Nachteil: Erb- und Umwelteinflüsse sind schwer trennbar, da die Kinder meist von ihren Erbgebern erzogen werden.

* Zwillingsforschung: begründet 1875 von Francis Galton (1822-1911; s. a. o.), einem selbst unter Berücksichtigung zeittypischer Denkmuster heute in manchen seiner Ansichten um- bzw. bestrittenen Pionier der Experimentalpsychologie aus England, Großcousin von Charles Darwin (1809-1882). Galton behauptete die Vererbung geistiger Eigenschaften und prägte den später missbrauchten Begriff Eugenik. (Er schlug u. a. vor, „fleißigen, ordnungsliebenden Chinesen“ an der Ostküste Afrikas eine Ansiedlung zu ermöglichen, damit dort durch deren Nachkommen die „minderwertige Negerrasse“, bestehend aus „faulen, palavernden Wilden“, abgelöst werde.) Die Zwillingsforschung untersucht den Einfluss der Umgebung auf erbgleiche, vorzugsweise in früher Kindheit getrennte Individuen. In Frage kommen dafür homozygote, also eineiige Zwillinge. (Zweieiige Zwillinge sind wie zeitversetzte Geschwistern zu betrachten, wenn sie auch meist ähnlichere Umweltbedingungen vorfinden.) Bei gemeinsam aufwachsenden Zwillingen ist dabei die geteilte Umwelt (z. B. dieselben Eltern) von der nicht geteilten Umwelt (z.B. unterschiedliche Schulklassen) zu unterscheiden.

Vorteil: Methodisch einwandfrei, da genau das untersucht wird, was untersucht werden soll; Nachteil: geringe Anzahl von beobachtbaren Fällen.

Am bekanntesten wurde die ab 1979 von Thomas J. Bouchard jr. (*1937) u. a. durchgeführte „Minnesota Study of Twins reared apart“ (vgl. Video-Vortrag bzw. das 2012 erschienene Buch Born Together-Reared Apart: The Landmark Minnesota Twin Study von Nancy Segal). Voraussetzung: eineiige Zwillinge (EZ; monozygot) haben im Unterschied zu bizygoten Zwillingen (ZZ) und anderen Geschwistern (G) identische Erbanlagen. (Andere Menschen haben „nur“ 99% ihrer Gene gemeinsam.) Werden sie nun nach der Geburt ohne Kontaktmöglichkeit getrennt, ergeben sich nach Jahr(zehnt)en interessante Forschungsmöglichkeiten. Die Untersuchungen ergaben erstaunliche Ähnlichkeiten (skurille Angewohnheiten, kuriose Gemeinsamkeiten), die auch nach früher und langer Trennung bemerkbar waren. Folgende Korrelationskoeffizienten bezüglich der Intelligenz wurden gefunden:

Intelligenzkorrelationen von Geschwistern

  EZ, zusammen aufgewachsen:   r = 0.92
  EZ, getrennt aufgewachsen:  r = 0.84
  G, zusammen aufgewachsen:  r = 0.60
  G, getrennt aufgewachsen:  r = 0.46

Interpretation: Sowohl der Erbeinfluss (r von getrennten EZ ist höher als der gemeinsam aufgewachsener Geschwister!) wie auch der Umwelteinfluss (r bei getrennten EZ ist nicht 1, was ja in diesem Fall auf die Umgebung bzw. eine unterschiedliche Epigenetik zurückzuführen sein muss!) wurden nachgewiesen. Adoptivkinder zeigen (wenn die Zahl der untersuchten Individuen groß genug ist) statistisch signifikante Unterschiede zu gemeinsam aufwachsenden, nicht leiblich verwandten Geschwistern. Die Erblichkeit der Intelligenz wurde augrund dieser Erkenntnisse mit etwa 0.80 angenommen.

Zu Zwillingen siehe Seite der ISTS (International Society for Twinstudies), Zwillinge, Zwillingsforschung, Seiten der Univ. Saarland, Seiten von ARD-Alpha oder die Netflix-Doku von 2024 Zwillinge per Zufall (Hermanos por accidente) über einen (Zu)fall in Bogotá.

 

- Fazit:
Die Untersuchungsmöglichkeiten wurden seit der vollständigen Entschlüsselung des menschlichen Genoms und durch die nun möglichen genomweiten Assoziationsstudien (GWAS = Genome-wide association studies), die der Identifizierung von Genotyp-Phänotypbeziehungen dienen, beträchtlich erweitert. So werden laufend Korrelationen bestimmter Krankheiten oder sonstiger Erscheinungen mit bestimmten Genkonstellationen entdeckt. Da (tw. erbliche) Persönlichkeitsmerkmale mit Verhaltensweisen assoziiert werden können, ergaben Studien z. B. auch, dass die politische Einstellung zu 40%, die Häufigkeit, mit der Nachrichten verschickt werden, zu 50% und aggressives Verhalten zu 60% erblich ist. (Die Zahlen beziehen sich dabei nicht auf das Individuum, sondern auf die untersuchte Kohorte.)

Insgesamt geht man heute davon aus, dass der Faktor der Erblichkeit bei Körpermerkmalen (Größe, Haarfarbe etc.) sehr hoch, bei kognitiven Fähigkeiten (Intelligenz, Lernfähigkeit etc.) relativ hoch, bei den großen Persönlichkeitsmerkmalen (Ängstlichkeit, Offenheit etc.) mittel und bei den Einstellungen (moralische Vorstellungen, Werte) gering ist. Faktoren wie Genetik, Bildung, Ernährung, Leistungsanspruch usw., die alle in dieser Welt völlig ungleich verteilt sind und in kaum zu quantifizierendem Umfang auf die Intelligenz einwirken, erschweren jedoch die Herstellung von Ceteris-paribus-Bedingungen und damit evidenzbasierte Aussagen stark.

Außerdem ist zu beachten, dass durch Anlagen umschriebene Potentiale immer erst durch Lernprozesse, die motivationalen Faktoren unterliegen, aktualisiert und realisiert und epigenetische Einflüsse berücksichtigt werden müssen. Nicht alle vorhandenen Gene werden auch ausgelesen, epigenetische Faktoren und die Genregulation (ausbleibende oder vorhandene Anregungen und Förderungen in der frühen Kindheit) verschließen oder entfalten gewisse Anlagen. Auch soziale Erfahrungen aktivieren oder deaktivieren diverse Gene. Im Hinblick auf die Modifikationsbreite, in der ein und derselbe Genotyp auf unterschiedliche Einflüsse reagieren kann, spricht man von Reaktionsnorm. Sie ist bei der Intelligenz hoch. (Dieser Begriff, der die Spanne möglicher Merkmalsausprägungen unter verschiedenen Umweltbedingungen ausdrückt, wurde vom deutschen Zoologen Richard Woltereck, 1877-1944, geprägt.) Donald O. Hebb (1904-1985, s. a. u.; er hat auch die Folgen von Reizdeprivation - s. o. - untersucht) formulierte: „Entwicklung liegt zu 100% an der Genetik und zu 100% an der Umgebung.“

Unter dem Motto „Die Natur-Umwelt-Debatte ist vorüber“ postulierte 2000 Eric Turkheimer (*1953?) die „Drei Gesetze der Verhaltensgenetik“ (bei der es „weder um die Quantifizierung genetischer Einflüsse noch um die Feststellung biogenetischer Ursachen von Verhaltenssyndromen“ gehe. „Stattdessen handelt es sich dabei um eine Methode der Verwendung genetischer Daten, entweder auf der genomischen oder phänotypischen Untersuchungsebene, um die kausale Deduktion in Bezug auf Hypothesen über menschliche Entwicklung in Bereichen, wo randomisiertes Experimentieren nicht möglich ist, zu stützen.“):

° „Alle menschlichen Verhaltensmerkmale sind erblich“ (Gemeint sind beständige menschliche Eigenschaften wie die allgemeine Sprachfähigkeit im Unterschied zur durch Zufall realisierten Muttersprache, aber auch die Stärke gewisser Überzeugungen, der Hang zu Aggressivität usw.)
° „In der gleichen Familie aufzuwachsen, hat einen geringeren Einfluss, als die gleichen Gene zu haben“ (Vgl. die Ergebnisse der Zwillingsforschung, aber auch umgekehrt die Tatsache, dass nicht genetisch verwandte Adoptivgeschwister einander oft erstaunlich unähnlich sind.)
° „Ein erheblicher Anteil der Variation in komplexen menschlichen Verhaltenseigenschaften wird nicht durch die Effekte von Genen oder Familien erklärt.“ (Der dritte Faktor wäre die individuelle Umwelt, die eine individuelle Persönlichkeitsentwicklung prägt.)

 

INTELLIGENZZTESTS UND -KONZEPTE

Prinzipiell hängt die Konzeption jedes Intelligenztests von der von den jeweiligen Designern vertretenen Intelligenzdefinition ab (vgl. o.: Intelligenzdefinition von Boring). Laut Aljoscha C. Neubauer (*1960; Vortrag vor dem ÖZBF 2006 in Salzburg) sind IQ-Tests entgegen ihrem Ruf sehr valide und gehören zu den aussagekräftigsten Tests überhaupt. Ein hoher IQ korreliert unter ansonsten gleichen Bedingungen signifikant mit dem höchsten erreichten Bildungsabschluss und guten beruflichen Leistungen, erhöht die Wahrscheinlichkeit für ein besseres Urteilsvermögen und ist daher als prognostisches Instrument im Hinblick auf zukünftigen Schul- oder Berufserfolg weit treffender als z. B. Assessmentverfahren (die ursprünglich auf Tests für deutsche Offizieranwärter zurückgehen, die im 1920 gegründeten psychologischen Forschungszentrum der Universität Berlin von seinem Leiter Johann Baptist Rieffert, 1883-1956, u. a. im Auftrag des Reichswehrministeriums entwickelt wurden; vgl. hier und für GMA-Tests hier). Diese Zusammenhänge sind eindeutig in vielen Studien nachgewiesen worden. Manche sehen die Problematik von Intelligenztests darin, dass einzelne soziale Gruppen diskriminiert werden könnten oder die Tests häufiger auf die Unterschiede zwischen den Probanden in einem spezifischen Test als auf Intelligenz an sich (zur Diskussion dieses Begriffs s. o.) fokussieren. (Dies tangiert allerdings die Aussagen über den prognostischen Wert der Tests nicht. Es empfiehlt sich jedoch, im Anlassfall die Frage zu klären, warum einzelne Gruppen bei IQ-Tests schlecht abschneiden.)

 

- Ältere Tests:
* Erste Tests: Intelligenztests entstanden, als 1880 nach der Einführung der allgemeinen Schulpflicht in Frankreich durch den Ministerpräsidenten Jules François Ferry (1832-1893) offensichtlich wurde, dass manche Kinder die Unterrichtsziele nicht erreichen konnten. Um eine diesbezügliche Voraussagemöglichkeit schon beim Schuleintritt zu schaffen, wurden seit 1904 von den Franzosen Alfred Binet (1857-1911) und Théodore Simon (1873-1961) aus Schulreife- und Rekrutentauglichkeitstests die ersten Intelligenztests (das sogenannte „Binetarium“) entwickelt und 1916 im militärischen Bereich von Lewis Madison Terman (1877-1956, der 1928 auch die erste Hochbegabtenstudie initiierte) an der Universität Stanford weiterentwickelt („Stanford-Binet-Test“, im deutschen Sprachraum durch Ebbinghaus - s. u. - verbreitet). Aufgabenformate waren Lücken-, Ergänzungs-, Analogie-, logische, sprachliche, rechnerische Tests etc.

* Faktorentheorie:
Seit 1904 vom Londoner Charles E. Spearman (1863-1945; promovierte bei Wundt) im Anschluss an Galton folgende Unterscheidung vollzogen wurde, haben Tests die Faktoren-Theorie zur Grundlage, die die jeweiligen Grunddimensionen zu ermitteln trachtet (und damit der Schwierigkeit / Unmöglichkeit unterliegt, Intelligenzfaktoren ausschließend - nicht überschneidend -, aber vollständig angeben zu sollen). Spearman, dem aufgefallen war, dass Kinder, die in einem Fach gute Schulnoten bekamen, auch in ihren schwächeren Fächern oft immer noch besser abschnitten als schwache Kinder in ihren besseren Disziplinen, unterschied

          2 Faktoren:

° g-Faktor (genereller Faktor, an allen Leistungen mitbeteiligt)
° s-Faktoren (spezielle Faktoren, für jede Leistung anders)

1938 entwickelte Louis Leon Thurstone (1887-1955) die Faktorentheorie in Chicago weiter und unterschied folgende

          7 Begabungsfaktoren:

° spatial ability (Raumvorstellungsvermögen)
° numerical ability (zahlengebundenes Denken)
° verbal comprehension (Sprachkreativität)
° verbal fluency (Wortflüssigkeit)
° memory (Merkfähigkeit)
° inductive reasoning (Abstraktionsfähigkeit)
° perceptual speed (Konzentration, Tempo)

Die Testaufgaben nehmen diese Faktoren in unterschiedlicher Weise in Anspruch. (Ähnlich die Sampling-Theorie von Godfrey Hilton Thomson, 1881-1955, und Thorndike, s. u., die alle Leistungen aus einer großen Anzahl nicht näher identifizierter, elementarer Begabungsfaktoren erklärt, von denen aber jeweils nur einige in Anspruch genommen würden; Korrelationen bestünden zwischen ihnen insofern, als gemeinsame Elementarfaktoren zur Geltung kämen. Jede Leistung stelle somit eine bestimmte Stichprobe - „sample“ - aus dem Universum der Elementarfaktoren dar.)

Thurstones Faktoren wurden für den deutschen Sprachraum später von Adolf Otto Jäger, 1920-2002, adaptiert: s. u.). Da Tests, die einzelne Faktoren betreffen, miteinander manchmal korrelieren (was nicht sein dürfte, wenn es sich tatsächlich um eigenständige Faktoren handelte), ist die Faktorenzerlegung (wie auch in der Persönlichkeitspsychologie: s. u.) nur tw. geglückt. Die prinzipielle Schwierigkeit der Faktorenbestimmung besteht, wie bereits erwähnt, darin, Überschneidungen zu vermeiden und Vollständigkeit herzustellen. (Neurobiologische Ex.e zur numerischen Kognition von Stanislas Dehaene, *1965, wiesen z. B. 1999 nach, dass zahlengebundenes Denken teilweise sprachabhängig - bei exakten Rechnungen - und teilweise räumlich-abstrakt - bei Schätzungen - im Kortex repräsentiert ist. Dehaene plädiert für einen Mathematikunterricht, der beide Aspekte berücksichtigt.)

Die Faktorentheorie wurde später neu aufgegriffen: 1944 postulierte der Schweizer Richard Meili (1900-1991) ein von der Gestaltpsychologie beeinflusstes und später ausgeweitetes Modell mit den

          4 Faktoren:

° Komplexität (Fähigkeit zur Herstellung von Beziehungen zwischen zahlreichen verschiedenen Gegebenheiten)
° Globalisation (Fähigkeit zur Bildung von Ganzheiten und Ordnungen)
° Plastizität (Fähigkeit zur Umstrukturierung)
° Flüssigkeit (Leichtigkeit, von einer Idee zu einer anderen zu wechseln)

1963 beschrieb Raymond Bernard Cattell (1905-1998; sein Namensvetter James McKeen Cattell, 1860-1944, prägte den Ausdruck „Intelligenztest“)

          2 Arten von Intelligenz:

° fluide Intelligenz: sie ist angeboren und kann kaum durch die Umwelt beeinflusst werden (z. B. Fähigkeit zu lernen bzw. zu deduktivem und induktivem Denken, geistige Kapazität, Auffassungsgabe, generelles Verarbeitungsniveau, mentale Prozesse etc.)
° kristalline Intelligenz: sie umfasst alle durch Umwelt und Lernen beeinflussbaren Fähigkeiten (das explizite Wissen, also semantisches, episodisches, Faktenwissen, die individuelle Wissensbasis, und implizites Wissen wie bestimmte Verhaltensweisen, Menschenkenntnis, Fahrradfahren, Rechnen etc.)

Die kristalline Intelligenz, also die Fähigkeit, seine Lebenserfahrung auf bestimmte Gebiete anwenden zu können, ist von der fluiden Intelligenz, also der „Mechanik des Geistes“, abhängig. Diese Theorie wurde später zum Cattell-Horn-Carroll-Modell, das immer mehr Faktoren zu berücksichtigen versucht, ausgebaut und immer weiter verfeinert (nach John L. Horn, 1928-2006, und John B. Carroll, 1916-2003).

 

- Moderne Tests:
Seit dem Zweiten Weltkrieg wird zunehmend versucht, die Soziale Intelligenz (Verhaltensintelligenz; vgl. hier diesbezügliche Testbeispiele) sowie die Kulturabhängigkeit und die Emotionale Intelligenz (EQ, vgl. Test bzw. s. u.) als Testvoraussetzung zu berücksichtigen. Prinzipiell gilt, dass jeder Test von der Intelligenzdefinition abhängig ist, die sein/e Schöpfer/in ihm zugrunde legt.

* HAWIE (Hamburg-Wechsler-Intelligenztest für Erwachsene): 1955 entwickelte Überarbeitung eines vom in Rumänien geborenen Amerikaner David Wechsler (1896-1981) in den USA erstellten Tests. (Wechsler Adult Intelligence Scale „WAIS“; der Hamburg-Wechsler-Intelligenztest für Kinder, HAWIK, erschien schon 1949.) Zugrunde liegende Intelligenzdefinition: s. o. Der HAWIE, einer der bekanntesten Intelligenztests, besteht aus 11 Subtests, die jeweils mehrere Items enthalten (Sprachteil, Handlungsteil; 6 sprachliche Subtests, 5 sprachfreie Subtests) und wurde 1991 als HAWIE-R (R für revidiert) neu bearbeitet, seit 2006, heute basierend auf WAIS IV, nur noch Wechsler-Intelligenztest für Erwachsene „WIE“ betitelt.

Die 11 Items des HAWIE

Allgemeinwissen 6 sprachliche Tests ← ↓ 5 sprachfreie Tests
Allgemeines Verständnis Zahlen-Symbol-Test
Nachsprechen einer Zahlenreihe Ordnen von Bildergeschichten
Rechnerisches Denken Bilder ergänzen
Auffinden von Gemeinsamkeiten Mosaiktest
Wortschatz (Synonyme-Test) Figuren legen

* I-S-T-70 Intelligenzstrukturtest: 1970 aus dem Vorgängermodell IST von Rudolf Amthauer (1920-1989; Intelligenzdefinition s. o.) entwickelt; einer der (v. a. in Deutschland) meistverwendeten Tests (inzwischen zum I-S-T 2000R ausgebaut). Er dient - mit dem Ziel, nicht nur das Intelligenzniveau, sondern auch die Intelligenzstruktur zu erfassen - zur Schullaufbahn- und Berufsberatung ab dem Ende der Sekundarstufe 1 und prüft in 176 Einzelaufgaben

          9 Fähigkeiten:

° Urteilsbildung (SE - Satzergänzung)
° Erfassen von sprachlichen Bedeutungsgehalten (WA - Wortauswahl)
° Kombinationsfähigkeit (AN - Analogien)
° sprachliche Abstraktionsfähigkeit (GE - Gemeinsamkeiten)
° Merkfähigkeit (ME - Merkaufgaben)
° praktisch-rechnerisches Denken (RA - Rechenaufgaben)
° theoretisch-rechnerisches Denken (ZR - Zahlenreihen)
° Vorstellungsfähigkeit (FA - Figurenauswahl)
° räumliches Vorstellungsvermögen (WÜ - Würfelaufgaben)

* Intelligenzstrukturmodell (ISM) von Joy Paul Guilford (1897-1987): der Autor unterschied (ursprünglich für die Pilotenausbildung der US Airforce) 1967 120 verschiedene Intelligenzleistungen, die sich dadurch ergeben, dass 5 Operationen, 4 Inhalte und 6 Produkte miteinander in Beziehung gebracht werden. In einem dreidimensionalen Modell (s. Graphik) ergeben sich daher 5 mal 4 mal 6 = 120 Quader; für jeden stehen im Idealfall Aufgaben zur Verfügung, die genau die drei betroffenen Faktoren abtesten.

          Faktoren des ISM:

° 6 Produkte (Ergebnisse):
+ Einheiten: Bearbeiten nicht mehr zerlegbarer Informationen
+ Klassen, Begriffe: Einordnung nach bestimmten Kriterien
+ Beziehungen: Erkennen logisch-hierarchischer Strukturen der Information
+ Systeme: Herstellen von komplexen Strukturen
+ Transformationen: Verarbeitung und Umformung von Information
+ Implikationen: Finden von Abhängigkeiten
° 5 Operationen:
+ Gedächtnis: Behalten des Erkannten; Schaffung neuer Information aus bekannter und erinnerter Information
+ Kognition: Entdecken, Wiederentdecken, Begreifen oder Wiedererkennen
+ Evaluation, Bewertung: Entscheidungen hinsichtlich der Güte, (Folge)richtigkeit, Eignung oder Angemessenheit des Gedachten und Produzierten beurteilen
+ divergentes Denken: geht in verschiedene Richtungen, aus gegebenen Informationen mehrere „Lösungen“ finden
+ konvergentes Denken: aus den gegebenen Informationen die einzig richtige Antwort finden
° 4 Inhalte:
+ figural: Bearbeiten von konkretem Material, wie es durch sinnliche Wahrnehmung in einer Figur-Grund-Darstellung erfasst wird
+ symbolisch: Bearbeiten von Buchstaben, Zahlen und anderen konventionellen Zeichen
+ semantisch: Erkennen von Formen sprachlicher Bedeutungen und Vorstellungen
+ verhaltensbezogen: Umsetzen des Potentials, „soziale Intelligenz“, Verhaltensintelligenz (Interaktion)

Abb. 3/4: Intelligenzstrukturmodell von Guilford (© Thomas Knob)

Beispiel: An einer Aufgabe für Verbalverständnis wären Kognition, semantische Inhalte und Einheiten beteiligt. Noch sind weder alle Möglichkeiten faktorenanalytisch isoliert noch die jeweiligen Gewichtungen der einzelnen Items geklärt. Angeblich besser abgesichert ist das BIS (Berliner Intelligenzstrukturmodell 1984, 1997 zum BIS-4 erweitert) von Adolf Otto Jäger (1920-2002), das figurale / numerische / verbale Inhalte mit den Operationen Einfallsreichtum / Merkfähigkeit / Bearbeitungsgeschwindigkeit / Verarbeitungskapazität in Verbindung bringt und einen allem zugrundeliegenden g-Faktor (s. o.) annimmt.

* Culture-fair-Tests: Um dem Vorwurf zu entgehen, dass Menschen aus anderen Kulturkreisen bei Tests, die die in Europa oder Amerika üblichen Formate verwenden, nicht die gleichen Chancen hätten (regelmäßig schneiden bei herkömmlichen IQ-Tests - allerdings bei großen Überschneidungen - Asiaten vor Nordamerikanern, Europäern, Lateinamerikanern und Afrikanern im Durchschnitt am besten ab), wurde mehrfach und mit wechselndem Erfolg versucht, kulturunabhängige Testaufgaben zu entwickeln, z. B. den 1949 entstandenen CFIT (Autor: Raymond Bernard Cattell, 1905-1998, 1971 auf deutsch erschienen), Symmetrietests, bei denen Kalahari-Buschmänner angeblich tw. besser abschnitten als amerikanische Collegestudenten, oder der nonverbale Progressive Matrizentest des Regenschirmfabrikantensohns John Carlyle Raven (1902-1970).

Problematik: Sie besteht darin, dass es kaum möglich ist, Items zu entwickeln, die tatsächlich Menschen aller Kulturen (Kultur verstanden als spezifischer Modus von Weltdeutung, Weltverständnis, Weltaneignung bzw. von Handlungsweisen in der Welt einzelner oder mehrerer Ethnien) gleichermaßen vertraut sind. Zusätzlich sind alle Testformate womöglich schon deshalb „ungerecht“, weil sie kaum die grundlegende Zweiteilung der Welt (die Tendenzen angibt, unterschiedlich stark ausgeprägt sein kann und deren Trennlinie nicht immer eindeutig verläuft) berücksichtigen.

          Man unterscheidet:

Individualistische Kulturen
(individualistic cultures
)

Gemeinschaftskulturen
(collectivistic cultures
)

Verbreitung: etwa ein Drittel der Erdbevölkerung im „weißen Westen“ Verbreitung: etwa zwei Drittel der Erdbevölkerung, v. a. in Asien, Afrika
Identität wird durch eigene Entscheidung selbst gewählt oder sogar geändert. Identität ergibt sich aus der (indisponiblen) Religions-, Familien- bzw. Stammeszugehörigkeit.
Kultur der - z. T. schonungslos bloßstellenden - Kritik Kultur der Gesichtswahrung bzw. Wahrung der Ehre
Ideal der Gleichheit, Skepsis gegenüber Autoritäten Ideal der Harmonie in vorgegebenen Hierarchien
Ideal der menschenrechtskonformen Demokratie ohne Überwachung und Zwang Ideal von politischer Stabilität, auch mit Hilfe von Überwachung und Zwangsmaßnahmen
Streben nach Selbstverwirklichung Streben nach Selbstvervollkommnung
Das Überleben jedes Einzelnen zählt. Das Überleben der Gemeinschaft zählt.
Analytische Denkweise Holistische Denkweise
Orientierung am Wettbewerb Orientierung an der Kooperation
Glaube an selbst beeinflussbare Lebensschicksale Glaube an vorherbestimmte Schicksale, Fügung

Daraus ergibt sich z. B., dass ein individuell auszufüllender Test schon aufgrund dieser Voraussetzungen (kein sozialer Kontext) Probanden der westlichen Kultur bevorzugen wird, wie immer dieser Test auch gestaltet ist. (Zu Identität s. a. o.)

* Weitere Konzeptionen und Tests:

° Hans Jürgen Eysenck (1916-1997; s. a. u.) unterscheidet biologische Intelligenz (angeborene biochemisch-neuronal-physiologisch-hormonelle Voraussetzungen), psychometrische Intelligenz (die von Biologie, Kultur und sozioökonomischem Status beeinflussten, in Tests messbaren Fähigkeiten) und soziale Intelligenz (die durch die psychometrische Intelligenz, soziale Faktoren, Persönlichkeit, Erfahrung, Motivation etc. beeinflusste Fähigkeit, mit anderen Menschen zurecht zu kommen).
° Dietrich Dörner (*1938) setzt im Gegensatz zu den Faktorentheorien bei seinen Tests auf das Bearbeiten komplexer Szenarien wie die Führung von Entwicklungsländern oder die Übernahme der Bürgermeisterrolle in am Computer simulierten Städten. Es erwies sich, dass das menschliche Gehirn kaum in der Lage ist, komplexe, vernetzte Situationen zu verstehen bzw. angemessen zu behandeln (vgl. u.; z. B. in Bezug auf Aktienkurse oder die Umweltproblematik.) Es gebe eine „Logik des Misslingens“. (Möglich, dass heute eine selbstlernende KI - s. o. - erfolgreicher wäre.)
° Howard Gardner (*1942) entwickelte nach dem Studium der Inselbegabung (Savant-Syndrom, dem Phänomen, dass manche Menschen außergewöhnliche Leistungen in einem kleinen Teilbereich vollbringen können; s. o.) und der Beobachtung, dass die in Schulen und durch konventionelle Intelligenztests postulierten Fähigkeiten nicht immer etwas mit dem späteren Erfolg im Leben zu tun hätten, die Theorie der multiplen Intelligenzen: 1983 schreibt er von der sprachlichen / der logisch-mathematischen / der räumlichen / der musikalischen / der motorischen (körperlich-kinästhetischen) / der intra- bzw. interpersonalen Intelligenz (der Fähigkeit, mit sich selbst und anderen - soziale Intelligenz - umgehen zu können), später erweitert um die naturalistische und die existenzielle Intelligenz.
° Zu Daniel Goleman (*1946) und seiner Theorie von der Emotionalen Intelligenz s. u.
° Robert Sternberg (*1949) postuliert eine Intelligenztriade, die sich aus praktischer (erfahrungsbezogen; betrifft das Verhältnis der Intelligenz zur externen Welt), analytischer (kompetenzbezogen; betrifft das Verhältnis der Intelligenz zur internen Welt) und kreativer (kontextbezogen; betrifft das Verhältnis von Intelligenz und Erfahrung) Intelligenz zusammensetzt. Alle drei Anteile hängen zusammen und voneinander ab.
° Keith E. Stanovich (*1950) unterscheidet zwei Intelligenzstufen: die algorithmische Intelligenz, die von herkömmlichen Tests gemessen wird und z. B. Hochbegabung ausweist, und die Rationalität, die die Umsetzung der Erkenntnisse in den Alltag durch adäquate Lebensentscheidungen meint und deren Mangel dazu führen kann, dass auch intelligente Menschen idiotisch handeln. (Z. B. rauchen trotz ungetrübter Einsicht in die gesundheitlichen Risiken, die aber nicht wirksam wird, auch Hochbegabte. Die Ursachen mögen in der Lust an der Regelüberschreitung - Transgression -, der Unfähigkeit, emotionale Impulse zurückzuweisen, oder in kognitiven Verzerrungen, wie übertriebenem Optimismus im Hinblick auf die Folgen des Tuns, liegen.)
° Marcus Täuber (*1972) beschreibt die Mentale Intelligenz und ihre Maßzahl, den MQ, der die Fähigkeit beschreibt, das eigene Denken als solches zu erkennen, im Zusammenhang mit den begleitenden Gefühlen und Handlungen zu reflektieren und es dann gezielt einzusetzen. Dadurch werde die Plastizität des Gehirns (s. u.) optimal ausgenutzt.

Vgl. IQ-Test, Online-Kurz-IQ-Test, Online-IQ-Test, Tests von focus.de etc. Eine Kurzbeschreibung einiger Tests findet sich unter diesem Link.

 


 


VI. DENKPSYCHOLOGIE
 

 

Die Denkpsychologie wurde vom Wundt-Schüler Oswald Külpe (1862-1915), stark beeinflusst von der Habilitationsschrift von Dr. med Karl Bühler (1879-1963; Tatsachen und Probleme zu einer Psychologie der Denkvorgänge, 1907)in Würzburg begründet. Der Text löste eine heftige Kontroverse mit Wundt (s. o.) aus, der die Auseinandersetzung mit höheren geistigen Prozessen für unwissenschaftlich und menschliches Denken für nicht valide untersuchbar hielt. Im Ex. widerlegte Bühler dessen Ansicht, dass Gedankenverbindungen rein zeitlich-räumliche Assoziationen seien. (Er entwickelte Gedankenpaarversuche, die auch dann funktionierten, wenn der zweite Teil ohne raumzeitlichen Bezug dem ersten zugeordnet werden musste.)

 

DEFINITIONEN

* Gedanken sind selbständige, unanschauliche Erlebniseinheiten, deren Beziehung durch einen Sinn hergestellt wird (nach Karl Bühler; s. a. u.). Die menschliche Fähigkeit, über eigene Denkvorgänge nachdenken zu können, nennt man Metakognition.

* Verstehen ist die Einordnung von etwas Neuem in bereits Bekanntes (logische Platzanweisung).

* Aha-Erlebnis (zuerst beschrieben vom österreichischen Psychologen Karl Bühler, zunächst Teil der Würzburger Schule): Darunter versteht man ein schlaglichtartiges, plötzliches Klarwerden eines Zusammenhanges bzw. den Augenblick der Lösungsfindung. (Tritt diese nicht ein, wäre das wohl ein Oje-Erlebnis.)

* Serendipität: Im Unterschied zum Aha-Erlebnis bezeichnet Serendipität die glückliche Verbindung von tätigem Geist und Gelegenheit, also die durch äußere Faktoren bewirkten zufälligen Einsichten oder Ergebnisse während eigener Untersuchungstätigkeit. Allerdings: „Der Zufall begünstigt nur den vorbereiteten Geist.“ (Zitat von Louis Pasteur, 1822-1895, analog der von Lucius Annaeus Seneca „dem Jüngeren“, ca. 1-65 n. Chr., in den Epistulae morales negativ formulierten Weisheit: „Ignoranti quem portum petat, nullus suus ventus est.“) Der Ausdruck verweist auf Serendip, den ursprünglich arabischen Namen für Sri Lanka, genauer gesagt auf das persische Märchen von den Drei Prinzen von Serendip, die laufend unverhofft auf Hilfreiches stoßen, das sie gar nicht gesucht haben.

Beispiele: s. o. , s. u. und hier, die Entdeckung des Penicillins durch zufällig auftretende Schimmelbildung oder die Entdeckung Amerikas während einer Forschungsfahrt „nach Indien“. (Vgl. dazu Erich Kästner, 1899-1974: „Irrtümer haben ihren Wert / jedoch nur hier und da / nicht jeder, der nach Indien fährt / entdeckt Amerika.“.)

* Wildes Denken: Das traditionell ganzheitliche - magisch, nicht abstrahierend vorgehende - wildeDenken von Naturvölkern wurde 1962 vom französischen Ethnologen und Begründer des Strukturalismus Claude Lévi-Strauss (1908-2009; s. a. u.) „pensée sauvage“ genannt. Es stehe im Gegensatz zum modernen pensée apprivoisée (dem gezähmten Denken) und bringe die Verwobenheit mit der Umwelt zum Ausdruck. Es arbeite auf Grundlage einer Bricolge (Bastelei), die Erlebtes, Berichtetes und sinnliche Wahrnehmungen mit Hilfe der Einbildungskraft zu konkreten Bildern und Geschichten verarbeite.

* Hermeneutik (von griech. ἑρμηνεύειν = erklären) bemüht sich um das Verständnis des Vorgangs des Verstehens (Erläuterungen, Exegesen, Deutungen, Übersetzungen, Interpretationen etc.). Dabei wird in einem hermeneutischen Zirkel das Einzelne aus dem Ganzen und das Ganze aus dem Einzelnen abgeleitet. (Vgl. Goethes Faust: „Mein Freund, die Zeiten der Vergangenheit sind uns ein Buch mit sieben Siegeln. Was ihr den Geist der Zeiten heißt, das ist im Grund der Herren eigner Geist, in dem die Zeiten sich bespiegeln.“) Hermeneutik ist neben Empirie (dem Prüfen von Sinnesdaten; z. B. in der Physik) und der formal-analytischen Methode (bei inhaltsleeren Gegenständen wie der Mathematik oder der Logik, bei denen es um reine Denkverhältnisse geht) eine der wissenschaftlichen Herangehensweisen. (Sie wird in den Geisteswissenschaften angewendet.)

 

FUNKTIONEN DES DENKENS

Das Denken wird als Mittel zur Distanzierung bzw. als Möglichkeit, sich bewusst in Opposition zu setzen, als komplizierter Prozess der Datenverarbeitung, als Medium der Transzendenz, als zusätzlicher Sinn, als chemischer Hirnzustand u. v. a. m. verstanden. Es weist in jedem Fall starke evolutionäre Vorteil gegenüber den tierischen Mitbewerbern um Nahrung und Territorium auf. (Es denken zwar auch höhere Tiere, die Möglichkeit zur Akkumulation der Denkinhalte im Laufe der Generationen bleibt ihnen jedoch verwehrt.)

 

- Biologische Bedeutung des Denkens:
Der Überlebensvorteil eines denkenden Wesens gegenüber einem rein instinktgesteuerten liegt in der erhöhten Flexibilität und in der Möglichkeit einer theoretischen Vorwegnahme (Antizipation, gedankliches „Probehandeln“) einer Situation. Nicht alles muss ausprobiert, ein eventuell letaler Ausgang muss nicht riskiert werden. (Es müssen z. B. nicht einige LKW-Fahrer geopfert werden, wenn der Statiker davor die Standfestigkeit der Brücke berechnet und garantiert hat. Ein ähnliches gedankliches Probehandeln verhindert normalerweise Sprünge aus dem 5. Stock. Wer sich hierbei verschätzt - etwa im Tierreich ein Affe, der von Baum zu Baum springt - gehört nicht mehr zu den Vorfahren der Folgegenerationen und verbessert dadurch den Genpool.)

 

- Verkürzung der Lösungszeit bei gestellten Problemen:
Problemlösendes Denken wurde auch bei Tieren beobachtet: vgl. Ex. mit Schimpansen des Gestaltpsychologen Wolfgang Köhler (s. o.), das dieser im Ersten Weltkrieg in der Menschenaffenstation der Preußischen Akademie der Wissenschaften auf der Insel Teneriffa durchgeführt hat: Schimpansen, die ihre außerhalb des Käfigs liegenden Bananen mit keinem der beiden im Käfig befindlichen Stöcke zu erreichen imstande waren, verharrten nach einer erfolglosen trial-and-error-Phase und „dachten nach“. Dann setzten sie die Stöcke zusammen und holten das Futter mit dem nun verlängerten Werkzeug herbei (vgl. Videoproduktion von 1917). Auch Vögel lösen Probleme auf intelligente Art und Weise, indem sie z. B. Nüsse dadurch knacken, dass sie sie aus großer Höhe fallen lassen oder auf der Straße platzieren, damit sie von Autorädern überrollt werden. Ob sie dabei (halb)bewusst nachdenken, ist nicht gesichert.

Die meisten Alltagsprobleme (Auto fahren, Einschlagen des Heimweges, Stiegen steigen, Gesichter erkennen, Bälle fangen etc.) „lösen“ wir allerdings nach den Erkenntnissen der modernen Neurowissenschaften automatisch (so wie wir uns auch die meisten Wahrnehmungen nicht bewusst machen), da wir über zwei Denk- bzw. Entscheidungsfindungssysteme verfügen: System 1, ein schnelles, intuitives und System 2, ein langsames, das Aufmerksamkeit erfordert. (Näheres s. o.; zu fehlerhaften Heuristiken siehe hier.)

Denk- und Entscheidungssysteme des Menschen nach Kahneman (1934-2024; s. a. o.)

System 1

System 2

schnell langsam
Kapazität unbegrenzt Kapazität begrenzt
eng (betrachtet jede Situation einzeln) weit (berücksichtigt viele Möglichkeiten)
unverzüglich zögernd
automatisch beeinflussbar
unbewusst bewusst
kaum veränderbar trainierbar
intuitiv rational
unwillentlich willkürlich
heuristisch logisch strukturiert
unkontrolliert aufmerksamkeitsgesteuert
assoziativ überlegt
unfrei frei
schafft (Schein)kohärenzen berücksichtigt Inkohärenzen
gewiss zweifelnd
absichtslos absichtsvoll
leichtgläubig kritisch
einsatzbereit faul, träge
anstrengungslos fordernd
energieeffizient (Sauerstoff) energieaufwändig (Sauerstoff)
konzentrationsunabhängig konzentrationsabhängig
entscheidet in den meisten Fällen kommt selten zum Einsatz
routineorientiert auf Neues ausgerichtet
immer im Einsatz manchmal im Einsatz
manchmal unzuverlässig überprüfbar
Fehler bleiben oft unbewusst Fehler werden offensichtlich
   
z. B. Radfahren, Personenerkennung z. B. Berechnung von 25x37

Oft wirken beide Systeme - schon allein durch die Vernetzungen im Gehirn - zusammen, sodass die Prozesse ineinandergreifen. Probleme ergeben sich dann, wenn wir, unwillkürlich falschen mentalen Mustern folgend, Aufgaben, für die wir System 2 bräuchten, mit System 1 lösen - also immer dann, wenn wir intuitiv „entscheiden“, worüber wir rational hätten nachdenken sollen. Cognitive Reflexion Tests (also solche, bei denen die eigene Denkweise reflektiert werden sollte; s. a. o.) offenbaren diesbezügliche Defizite. Beispiel-Ex: Schläger und Ball kosten gemeinsam 1€ 10c. Der Schläger kostet 1€ mehr als der Ball. Wieviel kostet der Ball? / Oder: 5 Maschinen brauchen 5 Tage um 5 Geräte herzustellen. Wie lange brauchen 100 Maschinen für 100 Geräte? / Oder: Wie groß ist der Unterschied zwischen Null Komma neun und Null Komma zehn? / Oder: Die Fläche von Seerosen, die sich in einem See ausbreiten, verdoppelt sich jeden Tag. Nach 48 Tagen ist der See zur Gänze zugewachsen. Nach wie vielen Tagen war er halbbedeckt? / Oder: Wie hoch ist die Wahrscheinlichkeit einer Krebserkrankung, die statistisch etwa bei 1% der Bevölkerung auftritt, für einen Patienten, dem ein Test mit 90%iger Trefferquote sagt, dass er diese Krebsart hat? Die Lösung bestünde also jedes Mal darin, den Denkrahmen zu erweitern. (Für das letzte Beispiel vgl. in Bezug auf die Unempfindlichkeit gegenüber der A-priori-Wahrscheinlichkeit den Basisratenfehler; s. o.)

Beispiele tw. aus Kahneman, Schnelles Denken, langsames Denken. München 32011. Zu Denk- und Entscheidungssystemen s. o. Vgl. auch fehlerhafte Heuristiken, s. o. (Die richtigen Lösungen sind übrigens: 5c / 5 Tage / 0,8 / 47 Tage / ca. 8%.)

 

ENTWICKLUNG DES DENKENS NACH Piaget

Zu den entwicklungspsychologischen Konzepten von Piaget s. a. o.

 

- Äquilibration:
Dieser dem Begriff der Homöostase (s. u.) ähnliche Zustand wird laut dem Schweizer Kinderpsychologen Jean Piaget (1896-1980) durch einen Vorgang zur Herstellung eines Gleichgewichts zwischen Erkenntnissubjekt und Erkenntnisobjekt auf immer höherer Ebene hergestellt. Das Kind hat zunächst noch einfache Schemata von den Umweltgegebenheiten, gewinnt aber immer komplexere Schemata. Nach Piaget erkunden Kinder die Welt in eigenständiger Motivation und mit angeborenem Forscherdrang. (Vgl. auch die Ansicht von Karl Popper, 1902-1994, dass menschliche Erkenntnis nicht nach der Kübeltheorie - in den Kübel bekommt man passiv hineingeschüttet -, sondern nach der Scheinwerfertheorie - der Scheinwerfer wird je nach Interesse aktiv ausgerichtet - funktioniere.) Das erkennende Subjekt pendle dabei zwischen Adaptation bzw. Assimilation (Anpassung an die Welt, Aufnahme neuer Inhalte, immer bessere Beherrschung der Umwelt durch Einordnung der Umweltinformationen in vorhandene Schemata) und Akkomodation (Anpassung der Weltsicht an neue Erkenntnisse, Entwicklung neuer Schemata, wenn die Adaptation in die alten nicht mehr gelinge).

 

- Phasen des Denkens im Laufe der Entwicklung:
Die Unterschiede im Laufe der Entwicklung sind hauptsächlich der rasanten Hirnentwicklung im Laufe der ersten Lebensjahre geschuldet (s. o.) Nach Piaget, der von einer genetischen Epistemologie sprach, lassen sich im Laue der Kindheit kulturübergreifend folgende unumkehrbaren Phasen unterscheiden:

* Sensumotorische Phase (0,0 bis 2;0): Erkenntnis wird hauptsächlich - als Resultat der Interaktion von Subjekt und Objekt - über Sinneseindrücke und Bewegungen gewonnen; erstes Erfassen der Objektpermanenz (ein Gegenstand ist auch dann da, wenn er momentan nicht wahrgenommen wird).

* Präoperationale (vorbegriffliche) Phase (2;0 bis 7;0): Noch beruht das Denken des Kindes nicht auf Logik, sondern auf Animismus und Artifizialismus (der Vorstellung, dass auch natürliche Dinge künstlich hergestellt werden). In diese Phase fällt der Spracherwerb. Das Kind lernt allmählich, dass die Welt (die Objekte) durch Sprache zeichenhaft (bei Piaget „symbolisch“) repräsentiert wird. Der Unterschied zwischen Vorstellung und Realität wird (früher oder später) verstanden, der kindliche Animismus, der tote Objekte als lebendig ansieht, wird (früher oder später) abgelegt. Zudem entwickelt sich eine Theory of mind (s. a. o.; Bewusstseinsvorgänge anderer Personen können langsam erfasst werden), was durch Exe. wie das folgende abgetestet werden kann. (Das erste False Belief-Ex. wurde 1983 von den in Salzburg lehrenden österreichischen Psychologen Heinz Wimmer, *1946, und Josef Perner, *1948, entwickelt. Auch bei Affen und anderen Tieren kann in ähnlichen Experimenten eine Theory of mind gefunden werden.)

Einem Kind wird eine Szene vorgespielt, in der ein Kasperl eine Münze in einer Lade versteckt. Als er das Zimmer verlässt, verändert eine heimlich hinzugekommene Person die Position der Münze, indem sie sie in ein Kästchen legt. Danach kommt der Kasperl, der von dem allen nichts bemerkt hat, wieder zurück. Frage an das Kind: Wo wird er seine Münze suchen? Jüngere (oder später unintelligentere Kinder) tippen auf das Kästchen.

Manchmal werden die letzten drei Jahre dieses Zeitabschnitts als Intuitive Phase (4;0 bis 7;0) beschrieben (diese Bezeichnung geht nicht auf Piaget zurück), in der gleiche Elemente als Inhalt einer Gegenstandsklasse erkannt werden können (Bildung von Schemata). Einfache Abstraktionen und (eindimensionale) logische Schlussfolgerungen werden möglich, der kindliche Egozentrismus verhindert aber noch oft das Einnehmen einer anderen Perspektive.

* Phase der konkreten Operationen (7;0 bis 11/12;0): Logisches Denken ist allmählich möglich, v. a. wenn es von Handlungen begleitet wird (z. B. sind Invarianzaufgaben - s. o. - konkret eher lösbar als abstrakt). Die Dezentrierung ermöglicht das Einnehmen anderer Perspektiven.

* Phase der formalen Operationen (ab 11/12;0): Rein abstraktes Denken in hypothetischer Form, unabhängig von konkreten Gegenständen, Personen oder Handlungen, wird möglich. Ethische und wissenschaftliche Fragen werden verstanden.

Vgl. Die Stadientheorie, Die kognitive Entwicklung im Kindesalter nach Piaget

 

ERSCHEINUNGSFORMEN DES DENKENS

Einsatzgebiete für die auf Grund der enormen Großhirnentwicklung möglich gewordene Fähigkeit zum komplexen Denken zeigen sich v. a. in den im Folgenden beschriebenen Bereichen. Unser Denken, das erst durch ein funktionstüchtiges ZNS möglich wird, beruht auf den seit der Antike tradierten, auf mehreren nicht hinterfragbaren Grundannahmen (Axiomen, wie z. B. „Was ist, kann nicht gleichzeitig nicht sein“) aufgebauten Gesetzmäßigkeiten der Logik, wie sie in der Syllogistik (der Schlusslehre) angewendet wird. Dabei wird eine Aussage über das Verhältnis zweier Begriffe mittels eines dritten getroffen. Beispiel: Kein X ist ein Y. / Einige Z sind X. Also folgt daraus zwingend: Einige Z sind keine Y, aber etwa nicht: Einige Y sind keine Z, da ohne Widerspruch zu den beiden Prämissen ja auch alle Y - und damit auch einige, denn was für alle gilt, gilt axiomatisch auch für einige - eine Teilmenge von Z sein könnten. (Die Logik wurde von Aristoteles - Ἀριστοτέλης; 384-322 v. Chr. - begründet und vom Österreicher Kurt Friedrich Gödel, 1906-1978 verhungert, den Douglas Richard Hofstadter, *1945, der Autor des 1979 erschienenen und 1980 mit dem Pulitzerpreis - nach dem ungarisch-amerikanischen Journalisten Joseph / József Pulitzer, 1847-1911 - ausgezeichneten Buch Gödel, Escher, Bach, für den weitaus bedeutenderen Logiker hält, in ungeahnte Dimensionen weiterentwickelt.)

Ergänzend ist zu beachten, dass die Abstraktionsebenen des Denkens nach der Construal Level Theory (Yaacov Trope, *1945 und Nira Libermann, *1969?) von der mentalen Konstruktion von Distanzen abzuhängen scheint: Wird etwas als weit entfernt erlebt, dann erfolgt seine Betrachtung eher aus einer übergeordneten Perspektive abstrakt und wenig detailliert, wird es als nah erlebt, dann bezieht sich das Denken eher auf Einzelheiten und wird tendenziell konkreter und detailreicher.

Eine psychologisch interessante Variante des Denkens besteht in der Unfähigkeit, an etwas bewusst nicht zu denken. Diese ironischen Prozesse wurden 1994 von Daniel Merton Wegner (1948-2013) untersucht. Ergebnis seiner Exe.: Die Rate aufdringlicher Gedanken steigt bezüglich eines Inhalts, an den laut Aufforderung des Vls. nicht gedacht werden soll, in der Folge deutlich an. Auch Ängste werden lästiger, wenn der Gedanke an sie unterdrückt wird. Dieser Effekte steigen noch an, wenn die Vpn. depressiv sind.

 

- Logisches Schließen und Problemlösen:
* Definition:
Logisches Schließen bedeutet auf Axiomen beruhendes formal richtiges Denken. Problemlösen ist die selbständige Auseinandersetzung mit einer in dieser Form neuartigen Aufgabe unter Verwendung von Algorithmen (s. o.), die Suche nach dem noch unbekannten Weg zur Erreichung eines Zieles. Dies kann auch kreative und probabilistische Elemente enthalten. (Vgl. z. B. 8min-Video The Psychology of Problem SolvingModellaufgaben von TestAS, PISA-Beispielaufgaben.) In Exn fand man

* 2 Methoden:

° Probieren, trial and error: Das schrittweise Durchprobieren aller Möglichkeiten kann zufällig oder systematisch erfolgen und ist ein algorithmisches Verfahren. Der Zeitaufwand ist wegen des Transfereffektes abhängig von der Erfahrung, auf jeden Fall im ø aber größer als bei der 2. Methode, wie Exe. (z. B. Puzzle von Kevin Durkin, *1954?, 12,5 min statt 38sec) erwiesen. Z. B. (1, Abb. 3/5): Durch Umlegen von genau vier Hölzern sollen drei Quadrate entstehen bzw. (2, Abb. 3/6): Aus 5 Quadraten sollen durch Umlegen möglichst weniger Hölzer 4 gleich große Quadrate werden. (Lösung am Ende des Abschnitts „Kreatives Denken“)



Abb. 3/5: Streichholzaufgabe 1
 



Abb. 3/6: Streichholzaufgabe 2
 

° Analysieren, nachdenken: führt, v. a. wenn die Anzahl an Lösungsmöglichkeiten sehr hoch ist, rascher zum Ziel und erfolgt meist nach folgendem Denkablauf: Vororientierung - Problematisierung - Strukturierung - Lösungsschema - Lösungsvollzug. Es handelt sich um ein heuristisches Verfahren (s. o.). Auch hier gibt es einen Transfereffekt; oft sind Umstrukturierung im Gehirn notwendig, um Fixierungen zu vermeiden (vgl. auch Köhler-, Durkin-Exe, s. o.): z. B. um die Frage zu lösen, ob ein Bergsteiger, der eine Gipfelhütte zwischen 8 Uhr und 16 Uhr in gleichmäßigem Tempo erwandert und nach einer Übernachtung zwischen 12 Uhr und 16 Uhr ebenso gleichmäßig auf demselben Weg absteigt, einen Punkt des Weges exakt zur selben Uhrzeit wie am Vortag passiert oder nicht; weitere Logikrätsel hier.
Ein anderes Beispiel, bei dem die Gestaltwahrnehmung im Wege steht: Die folgenden neun Punkte sind mit einer geraden Linie, die nur dreimal ihre Richtung ändern darf, durchzustreichen (Lösungen s. u. am Ende des Abschnitts „Kreatives Denken“):
 

              

              

              

Abb. 3/7: Denksportaufgabe

Das sogenannte logische Denken des Menschen wird durch heuristische Verzerrungen (s. o.) und psychologische Faktoren wie z. B. den Möglichkeitseffekt - extrem unwahrscheinliche Ereignisse (wie ein Flugzeugabsturz) werden übergewichtet - und den Sicherheitseffekt - viel wahrscheinlichere Ereignisse (wie Lungenkrebs bei Raucher/innen) werden untergewichtet - immer wieder torpediert oder zumindest beeinflusst. Dies zeigt z. B. auch das Allais-Paradoxon (nach Maurice Félix Allais, 1911-2010) zeigt: Haben Vpn. in einem Ex. die Wahl, eine 61%ige Chance auf 520 000 $ oder eine 63%ige Chance auf 500 000 $ zu ergreifen, entscheiden sie sich überwiegend mehrheitlich für Variante 1. Gibt man ihnen dann die Wahl zwischen einer 98%igen Chance auf 520 000 $ gegenüber einer 100%igen Chance auf 500 000 $, wählen sie paradoxerweise Variante 2, obwohl die erste Variante deutlich stärker verbessert wurde als die zweite. Entscheidungsgewichte korrelieren also nicht mit Wahrscheinlichkeiten.
Im Alltag scheitert der Anspruch, Probleme durch logisches Denken lösen zu wollen, oft an unserer geringen Neigung, uns geistig anzustrengen, wenn es (scheinbar) auch eine schnelle - durch System 1 (s. o.) zur Verfügung gestellte - Lösung gibt, an der Begrenztheit unseres Intellekts und der Beschränkung unserer mentalen Ressourcen.
Zum Logischen Denken vgl. auch Seite der Univ. Bern bzw. Seite der Univ. Heidelberg


* Lösungssuche:
Ein gestelltes Problem fordert an sich das konvergente Denken, der Lösungsweg wird jedoch vielfach, auch wenn es nur eine Lösung gibt, divergent angegangen. (Lösungen s. u.)

Rätselbeispiele:

1) Streichholzprobleme s. o., 2) Berganstiegs-Problem s. o. und 3) 9-Punkte-Problem s. o.

4): Zwei von der Decke hängende Schnüre - man kann die eine nicht erreichen, wenn man, mit der anderen in der Hand, in ihre Richtung geht - sollen so verknotet werden, dass beide nach wie vor an ihren unerreichbaren Befestigungen verankert sind; einziges Hilfsmittel: Schere.

5): In einem Raum sieht man drei Lichtschalter, in einem anderen, den man nur einmal betreten darf, um die Folgen seiner Aktionen zu überprüfen, drei herkömmliche Glühbirnen. Wie lässt sich mit 100%iger Sicherheit feststellen, welcher Schalter welche Birne kontrolliert?

6): Drei Gefangene stehen so auf den vordersten drei von fünf in einer Linie angeordneten Marterpfählen, dass sie jeweils nur die vor ihnen stehenden Pfähle sehen können. Wer die Farbe seines Pfahles, den er selbst nicht sehen kann, als erster nennt, wird losgebunden und darf nach Hause gehen. (Eine falsche Antwort würde zusätzlich zur Tötung Folterung bewirken.) Die Gefangenen wissen, dass drei Pfähle rot und zwei gelb sind. Wie ist es möglich, dass gerade der an Position 1 befindliche, der nichts sieht, der Glückliche ist?

7): Wie kann man mit zwei Krügen, die 5 bzw. 3 Liter fassen, die Menge von 4 Litern Wasser abmessen?

8): Eine große Menge von sehr schlauen, aber auch eitlen Philosophen sitzt in einem Zug, so dass jeder jeden sehen kann. Nachdem der Zug durch einen Tunnel gefahren ist, klärt der Schaffner die Menge darüber auf, dass mindestens einer von ihnen ein rußiges Gesicht habe. Jeder weiß nun von jedem, dass er, wüsste er 100%ig von sich, dass er Ruß im Gesicht habe, bei der nächsten Station ausstiege. Niemand spricht einen Ton, niemand gibt Zeichen und niemand prüft bei sich selbst, ob er rußig im Gesicht sei. Der Zug hält bei der ersten Station, aber niemand rührt sich, genauso bei den nächsten 2 Stationen. Als der Zug seine Fahrt verlangsamt, um bei der 4. Station zu halten, stehen auf einmal alle auf, die Ruß im Gesicht haben und verlassen geschlossen den Zug. Wie viele waren es?

9):
Das berühmte Ziegenproblem: Hinter einer von drei verschlossenen Türen befindet sich ein Goldschatz, den man durch Auswählen der richtigen Tür gewinnen kann, hinter den beiden anderen is(s)t jeweils eine wertlose Ziege. Nach dem ersten Tipp auf Tür A, B oder C öffnet der Spielleiter eine der Türen, hinter der eine der Ziegen steht, und eröffnet eine zweite Ratechance. Soll man bei der ersten Entscheidung bleiben, wechseln - oder ist es egal, was man tut?

* Frustrationsverhalten: Wenn eine - im Ex absichtlich unlösbare, aber lösbar scheinende - Aufgabe (z. B. einen Besen auffangen, bevor er den Boden berührt, vergleichbar wäre auch eine Prüfungssituation in der Schule) nicht gelöst werden kann (oder - z. B. durch Schuld - ganz allgemein ein Zustand auftritt, der mit der eigenen Erwartungshaltung nicht übereinstimmt), entsteht Frustration (Erwartungsenttäuschung): ein Zustand, der bei der Be-/Verhinderung der Befriedigung bewusster oder unbewusster Wünsche auftritt. Die Frustrationstoleranz (die mit der Resilienz - s. u. - verwandte Fähigkeit, Erwartungsenttäuschungen zu ertragen) der Menschen ist verschieden hoch und hängt von der während des Aufwachsens erworbenen Persönlichkeit und vom Anspruchsniveau - dem Leistungsgrad, den man sich selbst zutraut und der unrealistisch hoch sein kann; s. o. - ab. Begleitet wird Frustration oft von folgenden, z. T. an Abwehrmechanismen (s. u.) erinnernde

          Verhaltensweisen:

° Bagatellisierung: das zu lösende Problem wird als nicht wichtig erachtet
° Aggression (nach der Frustrations-Aggressions-Hypothese von John S. Dollard, 1900-1980, und Neil E. Miller, 1909-2002; s. u.)
° Resignation: Rückzug und Aufgabe
° Rationalisierung: Vorschieben von das Versagen rechtfertigenden Scheingründen
° Depressionen: unverhältnismäßige Niedergeschlagenheit
° Flucht vor der frustrierenden Situation (oder Verdrängung des eigenen Versagens)
° Projektion (die eigene Schwäche wird dem Aufgabenersteller zugeschrieben; z. B. er sei unfähig, bewältigbare Probleme zu generieren)
° Ablenkung: Hinweisen auf Unwichtiges
° Übersprungshandlungen (auch bei Tieren beobachtet): sinnlose Ersatzhandlungen (wie Kichern, Kratzen etc.) zur Überbrückung der unangenehmen Situation
° Somatisierung („Verkörperlichung“; z. B. Aufkommen von Übelkeit)
° Regression: Zurückfallen in bereits überwundene (Kindheits)phasen (z. B. infantile Äußerungen)
° Externalisierung (Auslagern des eigenen Versagens auf Außenfaktoren)
° Vernünftiges Sich-Abfinden: Anzustreben, aber oft schwer zu realisieren

* Lösen komplexer Probleme: unterscheidet sich fundamental vom Lösen einfach durchschaubarer Probleme und wurde vor allem von Dietrich Dörner (*1938) u. a. 1983 in seinen berühmt gewordenen „Lohhausen-Exn“ (bzw. „Tanaland-Exn“) erforscht. Dabei ging es darum, am Computer verschiedenste Parameter eines fiktiven Dorfes (bzw. eines fiktiven afrikanischen Landes) zu verändern, um dessen Situation zu verbessern. Meist trat jedoch das Gegenteil ein, da die Komplexität (Wirkungen, Rückwirkungen, Wechselwirkungen) von den Probanden nicht ausreichend erfasst werden konnte: Die von den Vpn. in bester Absicht veränderten Parameter bewirkten tatsächlich kurzfristig eine Verbesserung der Lage, langfristig führten sie jedoch trotz gutem Willen in den Untergang. Das Lösen komplexer Probleme (z. B. ökologische Fragen, Börsenentwicklungen, Gruppendynamiken etc.) erfordert „operative Intelligenz“ (vgl. Seite der Univ. Heidelberg).

          Merkmale komplexer Probleme:

° Komplexität: Vielzahl an Variablen verlangt Reduktion auf das Wesentliche.
° Vernetzheit: Vernetzte Variable verlangen Modellbildung und Sichtbarmachung der Abhängigkeiten.
° (Eigen)dynamik: Durch Eingriffe in ein System unbeabsichtigt in Gang gesetzte Prozesse bzw. Eigenveränderungen des Systems ohne Eingriffe verlangen Kalkulierung des Zeitfaktors.
° Intransparenz: Unbekannte Variable oder unklare Zielsetzungen verlangen Informationsbeschaffung.
° Polytelie: Mehrzieligkeit verlangt Abwägung und Ausbalancieren einander womöglich widersprechender Zielsetzungen.

Nach der (philosophischen) Evolutionären Erkenntnistheorie besteht das Problem darin, dass die Menschheit - als „Zauberlehrling der Evolution“ (da sie selbst, wie der Zauberlehrling von Johann Wolfgang von Goethe, 1749-1832, die Entwicklungen in Gang gesetzt hat, derer sie nun nicht mehr Herr wird) - „mit dem Hirn von gestern die Probleme von morgen“ lösen müsse. Unser Gehirn reiche nicht dazu aus, komplexe Phänomene (wie vernetzte statt linearer Kausalitäten) zu erfassen. Deshalb werden z. B. Wetter-, Markt- oder Umweltzusammenhänge schlecht verstanden. Manchen Menschen scheinen auch relativ einfache Phänomene kaum adäquat bewältigbar; dies zeigen folgende

          Beispiele:

° Exponentielles Wachstum wird aufgrund des „kognitiven Geizkragens“ (die Anstrengung einer adäquaten Herangehensweise ist zu groß) vom menschlichen Geist unzureichend erfasst. Vgl. z. B. das alte Reiskorn-Schachbrett-Beispiel (man lege ein Reiskorn auf das erste von 64 Feldern und auf die restlichen 63 Felder immer doppelt so viele wie auf das Feld davor), das phasenweise geradezu prophetische, 1962 aufgenommene BR Alpha-Interview-Video mit Aldous Huxley (1894-1963) über das Bevölkerungswachstum (reale Entwicklung: ca. ab 1800 1 Mia. Erdbewohner, ca. ab 1930 2 Mia., 1974 4 Mia., ab 15. 11. 2022 8 Mia. Menschen auf der Erde), manche Denkex.e (Wie oft muss man - ohne Rücksicht darauf, dass dies technisch gar nicht möglich ist - ein Papier falten, damit es nicht mehr zwischen Erde und Mond passt? Wann holt ein „Strahl“, der nach jeder Teilung von zunächst 1, dann 2, dann 4 etc. Bakterien gebildet wird, einen gleichzeitig mit der ersten Teilung abgeschossenen Lichtstrahl ein, wenn man die Zeit, die man benötigt, sie vorne anzureihen, vernachlässigt?) oder die Schwierigkeiten der Menschen beim Verständnis der mathematischen Gesetzmäßigkeiten der Pandemieentwicklung 2020/21).
° Ex.: Die Beantwortung der Frage, wie viele Liter eine Verdoppelung der Seitenlänge eines 1 Liter enthaltenden Würfels erzeugt (also der 10 cm langen Kanten auf 20 cm), ergibt oft erstaunliche Ergebnisse, da die zugrunde liegende Größenzuordnung (Skalierung) Probleme verursacht.
° Ex.: Das Abschätzen der Folgen eines Auseinanderschneidens eines Möbiusbandes (ein nahtloses, einmal in sich gedrehtes Band; nach August Ferdinand Möbius, 1790-1868) an der Mittellinie entlang gelingt selten. (S. a. Möbiusbandexperimente; vor dem Ansehen der Videos selbst überlegen: Was passiert, wenn ich ein Möbiusband wie beschrieben durchschneide? Und was, wenn ich das Ergebnis noch einmal an der/den Mittellinie/n durchschneide?

(Für die Lösungen der Ex.e s. u. am Ende des Abschnitts „Kreatives Denken“ unter den Nummern 10 und 11.) - In diesem Zusammenhang entstanden

          3 allgemeine (nicht ausschließlich psychologische) Komplexitätstheorien:

° Systemtheorie: um 1950 vom Österreicher Ludwig von Bertalanffy (1901-1972) als Beschreibung von Systemgleichgewichten (dynamisch/echt/fließend/homöostatisch) entwickelt; beschreibt in Verbindung mit der von Norbert Wiener (1894-1964) u. a. gegründeten Kybernetik Steuerung und Regelung von Systemen aller Art (wie z. B. auch das des durch die Sinnesorgane rückkopplungsfähigen menschlichen Gehirns).
° Chaostheorie: beschreibt als mathematische Theorie nichtlineare, dynamische Systeme (in der Psychologie z. B. zur Erklärung von Stottern oder Amokläufen angewandt - vgl. 71 Fragmente einer Chronologie des Zufalls oder Amok, Film von Michael Haneke, *1942). Begründet wurde die fraktale Mathematik, die Komplexität und Unvorhersehbarkeit thematisiert, in den 1970er-Jahren von Benoit Mandelbrot (1924-2010; vgl. hier oder Audio-Interview), der ursprünglich komplexe Zahlen verständlich machen wollte. Sie handelt von selbstähnlichen Strukturen (mit unerwarteten ästhetischen Qualitäten), die sich innerhalb physikalischer Strukturen wiederholen (z. B. Schneeflocken, Küstenlinien, die bei genauerer Betrachtung - je kleiner der Zollstock, desto länger die Küste - immer noch kleinere Buchten enthalten, durch „Schmetterlingseffekte“ ausgelöste Luftwirbel etc.)
° Spiral Dynamics: ein durch den USA-Psychologieprofessor Clare W. Graves (1914-1986) im Rückgriff auf von Maslow (s. u.) entwickelte Theorien erstelltes Konzept, das dynamische gesellschaftliche Prozesse verstehen und prognostizieren will. Es gebe acht mit Farbadjektiva bezeichnete, spiralförmig angeordnete so genannte Meme (Bewusstseinszustände und Denkweisen, die eine Weltsicht, ein Wert-, ein Glaubenssystem, ein Organisationsprinzip und eine Anpassungsform an die Umwelt repräsentieren und von der Menschheit durchlaufen würden), die von beige / archaisch bis türkis / holistisch reichten; die Zukunft werde korallenfarbig sein. Dies könne als Beschreibungsmodell für das Verhalten von Menschen dienen, die sich entlang dieser Spirale kontextabhängig auf- und abbewegen würden.

 

- Kreatives Denken:
* 4 Faktoren:

° Produktivität: Häufigkeit der Einfälle, Einfallsreichtum, divergentes Denken
° Elaboration: Ausgestaltung der Einfälle und Ideen
° Originalität: Tendenz zu Lösungen, die noch nicht erprobt sind, Prozentsatz von vorher noch nicht Gesehenem
° Flexibilität: Umstellbarkeit vs. Rigidität: Denkstarre (Tendenz, einen einmal bewährten Lösungsweg auch dann beizubehalten, wenn durch neue Umstände bessere Lösungen möglich werden)
+ Gezeigt werden kann Rigidität z. B. durch ein Ex. mit Hühnern (H, s. Graphik), die auch dann die große Runde gehen, um ihr Futter (F) zu erreichen, wenn die Glaswand (G) nach einigen Wochen entfernt wird:

Abb. 3/8: Rigidität im Hühnerstall (Draufsicht)

+ und das Ex. der Luchins'schen Umfüllaufgaben (nach Abraham S. Luchins, 1914-2005; näheres hier), bei denen es (nach dem Muster des Milchkannenrätsels) gilt, einen bestimmten Wasserbetrag mit drei verschieden großen Krügen abzumessen. Nachdem sich der Lösungsweg B ‑ A ‑ 2C mehrmals bewährt hat, wird er auch dann begangen, wenn weniger umständliches Abmessen zum selben Ergebnis geführt hätte (z. B. A ‑ C).
+ Unbewusst erworbene und angewendete Denkroutinen (die wir als unbewusste Navigationshilfe für die Bewältigung des Alltags dringend benötigen, auch wenn uns ihre Filtersysteme partiell blind machen) können uns Lösungswege überhaupt verschließen, wie Allan Snyder (*1942) in Exe., bei denen durch Umlegen von Streichhölzern Gleichungen mit römischen Zahlen richtig gestellt werden mussten, gezeigt hat. Nachdem viele Male hintereinander die Lösung darin bestand, ein X (10) zu einem V (5) zu verändern, konnte die letzte Gleichung, bei der dies nicht funktionierte, kaum gelöst werden. Snyder (s. o.) glaubt, durch Abschalten gewisser Hirnteile im linken Schläfenlappen mit Hilfe einer elektrische Impulse aussendenden „Denkkappe“ diesen Mangel kompensieren zu können. Auch die Funktionale Fixierung (Begriff von Karl Duncker, 1902-1940), einer Hemmung, neue Verwendungsmöglichkeiten von Objekten zu entdecken, wenn man an alte gewöhnt ist, fällt unter Rigidität. (Vgl. o., Rätselbspl. 4)
+ Umstellbarkeit wird z. B. bei folgender an einem Donnerstag gestellten Frage verlangt: „An welchem Tag findet eine Veranstaltung statt, die vom kommenden Mittwoch um zwei Tage verschoben wird?“ (Die meisten Menschen antworten mit „Freitag“ und sind blind für die zweite Lösung.)

* Manifestationen: Kreatives Denken äußert sich

° beim Problemlösen (z. B., um folgende Zahlenreihe fortzusetzen: 1 - 2 - 3 - 4 - 29 - 126 - ?; Lösung s. u. am Ende des Abschnitts „Kreatives Denken“, Nr. 12): Hier ist v. a. die Flexibilität gefragt.
° im musisch-künstlerischen Bereich (z. B. beim Malen, Komponieren oder Dichten): Hier spielt die Logik oft nur eine geringe Rolle.
° im Spiel (z. B. im Tennisspiel): Hier liegt der Schwerpunkt häufig auf Einfallsreichtum und Originalität (im Beispiel: unvorhersehbare Schlagauswahl).

* Phantasie = das Vermögen, vorhandene Inhalte (die aus der Erinnerung oder der Vorstellungswelt stammen) neu zu kombinieren. Nach Sarnoff Mednick (1928-2015) bestehe das Wesen von Kreativität in einem überdurchschnittlichen assoziativen Gedächtnis. Auf ihn geht der RAT (Remote Association Test), bei dem kohärente Worttriaden als solche erkannt und gelöst werden müssen, zurück. (Beispiel: Welches Wort lässt sich mit „Hütte“, „Schweiz“ und „Kuchen“ verbinden? - Lösung s. u. Nr. 13)

* Vier-Phasenmodell
des kreativen Prozesses (bzw. des Problemlösens) nach Henri Poincaré (1854-1912):

° Präparationsphase: Vorbereitung, Entdecken des Problems
° Inkubationsphase: Liegenlassen, Ratlosigkeit
° Illuminationsphase: Lösungsfindung, Geistesblitz, s. a. o.
° Verifikationsphase: Lösungsvollzug, Umsetzung

Kreativitätsforschung wird erst seit einem entsprechenden Aufruf von Guilford im Jahr 1950 betrieben, der Kreativität zu den intellektuellen Fähigkeiten im weitestem Sinne zählte. Am besten wird die Ideenhäufigkeit durch Idea Sharing, also durch das „Zuspielen“ Ideen anderer Personen, gefördert. Kreativität kann auch durch Entspannungsübungen und Meditation, durch Musik, Humor und ganz allgemein positive Affekte (vgl. die auf Neurotransmitter bezogene Theorie von der Dopamindusche) gesteigert werden.

Lösungen:

1a) Man verschiebe eines der Quadrate parallel über das andere, sodass ein kleines und zwei große Quadrate entstehen ⧉ // 1b) Der Denkvorgang muss lauten: Wenn 16 Hölzer zur Verfügung stehen, muss jedes eine Seite eines der vier Quadrate bilden. Alle Doppelverwendungen müssen daher aufgelöst werden. Man entferne also die das linke untere Eck bildenden beiden Hölzer und verwende sie gemeinsam mit dem 3. Basisholz von links, um über dem 3. Holz der mittleren Linie ein neues Quadrat zu legen. // 2) Man stelle sich zwei Bergsteiger vor, die am SELBEN Tag zu den angegebenen Uhrzeiten losmarschieren. Sie MÜSSEN einander begegnen. Genau dort ist der gesuchte Punkt. // 3) Man beginne links oben mit einem senkrechten Strich, der über das empfundene (aber nicht existierende) Quadrat hinausschießt und im Winkel von ca. 45° nach rechts oben durch die beiden Punkte „Mitte unten waagrecht“ und „Mitte rechts senkrecht“ fährt, dann die komplette obere waagrechte Reihe nach links durchstreicht, um schließlich diagonal nach rechts unten zu vollenden. // 4) Man befestige die Schere an einer der Schnüre, versetzte diese in Schwingungen, gehe zu der anderen und fange die eine auf. // 5) Man drehe zwei der Schalter auf on, warte ein paar Minuten, drehe einen wieder auf off und wechsle das Zimmer. Aufgrund der Erhitzung einer der nicht leuchtenden Birnen ist jede Zuordnung möglich. // 6) Dies deshalb, da die anderen sich nicht melden, was sie aber tun würden, wenn sie in Bezug auf ihre Farbe sicher wären. Der Dritte kann also nicht zwei gelbe Pfähle sehen. Der Zweite weiß dies und würde sich deshalb melden, wenn er einen gelben Pfahl sähe. Daher weiß der Erste, dass er an einen roten Pfahl gebunden ist. // 7) Man fülle den 5-Liter-Krug. Dann leere man drei Liter in den anderen Krug, den man sofort entleert und in den man die zwei übrig gebliebenen Liter gießt. Nun wird der 5-Liter-Krug wieder gefüllt und ein Liter in den damit vollen anderen Krug gegossen. So verbleiben im ersten Krug genau vier Liter. // 8) Vier. Wäre es nur einer, wäre er schon bei der ersten Station ausgestiegen, da er ja ausschließlich in unbefleckte Antlitze geblickt hätte und wüsste, dass er selbst den Fleck haben muss. Nach derselben Logik würden bei der zweiten Station zwei Philosophen den Zug verlassen, da ja bei der ersten Station niemand ausgestiegen ist usw. // 9) Man soll wechseln. Dann verliert man nur, wenn man beim ersten Mal richtig geraten hat (in 1 von 3 Fällen). Hat man falsch geraten (in 2 von 3 Fällen), gewinnt man durch Umentscheiden den Schatz. // 10) 8 Liter // 11) Möbiusband: Es entsteht nur EINE Schleife mit einer Windung mehr. Beim nochmaligen Durchschneiden entstehen zwei ineinander hängende Schleifen. // 12) Zahlenreihe: n + (n-4) (n-3) (n-2) (n-1) // 13) Käse // 14) Der weiße Kreis

 

- Probabilistisches Denken:
* Definition: Unter diesem Begriff versteht man Denken, das nicht der Dichotomie von wahr / falsch folgt, sondern sich - unter Akzeptanz von Unsicherheit und Zufall - auf Wahrscheinlichkeiten stützt. Urteile (verstanden als Messungen des Verstandes) werden aufgrund von Heuristiken (s. o.) gefällt.

* Beispiele: Risikobewertungen, Wettervorhersagen, statistische Aussagen, Lebenserwartungsberechnungen etc.

 

- Kritisches Denken:
* Definition: Der Begriff „kritisches Denken“ (critical thinking) kommt ursprünglich aus dem englischsprachigen Raum. Gemeinhin (z. B. nach dem Cambridge Dictionary) wird darunter der faktengestützte, rational gesteuerte Prozess des sorgfältigen Nachdenkens über Themen oder Ideen ohne Beeinflussung durch Gefühle oder Meinungen verstanden. Es ermöglicht Bewertung und Interpretation von Informationen oder Behauptungen und führt zu gut begründeten Urteilen.

* Merkmale:

° Prüfung der (vielfältigen) Informationsquellen
° Berücksichtigung mehrerer Aspekte
° Audiatur et altera pars
° Akzeptieren von vorläufigem Vermutungswissen
° Infragestellung eigener Überzeugungen und Gewissheiten
° Auseinanderhalten von Argumenten und Behauptungen
° Anwendung strenger Beweisstandards
° Selber denken
° Skepsis gegenüber Verallgemeinerungen (Ausnahme: „Wasser, in geringen Mengen genossen, ist unschädlich.“ - Mark Twain, eig. Samuel Langhorne Clemens 1835-1910)

 

DENKEN UND SPRACHE, KOMMUNIKATION

Die menschliche Sprachfähigkeit wird im Gehirn (wohl unter Mitbeteiligung des bereits beim Neandertaler nachweisbaren Gens FOXP2) vor allem durch zwei Areale gesteuert: das grammatiklastige Broca- und das bedeutungslastige Wernicke-Areal (s. o.; nach Pierre Paul Broca, 1824-1880, der 1861 durch die Entdeckung des Zusammenhanges zwischen Aphasien und Hirnverletzungen den ersten Schritt zur Erstellung von „Hirnlandkarten“ machte, und Carl Wernicke, 1848-1905; motorisches bzw. sensorisches Zentrum; näheres im neurolinguistischen Tutorial Sprache und Gehirn), die durch bogenförmige Fasern (Fasciculus Arcuatus; s. hier) miteinander verbunden sind.

Die Entstehung von Sprache im Laufe der Evolution vor wahrscheinlich ca. 500 000 Jahren wird interjektionistisch (Ausruftheorie: spontane Lautproduktionen seien allmählich mit intersubjektiv kommunizierbaren Bedeutungen versehen worden), deiktisch (Lautgebärdentheorie: produzierte Laute seien mit einer Gebärde und in der Folge mit einem indizierten Gegenstand assoziiert worden) oder onomatopoetisch (Naturlauttheorie: man habe versucht, durch Sprachlaute natürliche Laute nachzuahmen) erklärt, wobei nicht entscheidbar ist, ob Monogenese (alle Sprachen gehen letztendlich auf eine einzige Ursprache zurück) oder Polygenese (Sprachen entstanden unabhängig voneinander an mehreren Orten) vorliegt. Die Differenzierung in Einzelsprachen und Dialekte (regional bestimmte Sprachformen) erfolgte durch Wanderungsbewegungen einzelner Stämme ohne spätere Kontaktmöglichkeit zur Ursprungssprache. Durch die geographische Isolation verfestigten sich im Laufe der Jahrtausende (zufällige bzw. zugefallene) Lautveränderungen. (Beispiel: 1. Lautverschiebung, die das Germanische aus dem Indogermanischen, bzw. 2. Lautverschiebung, die das Deutsche aus dem Germanischen herausgeschält hat.) Auch äußere Faktoren (Unterschiede in der Anatomie der Sprechwerkzeuge, klimatische oder kulturelle Bedingungen etc.) könnten eine Rolle (ge)spiel(t hab)en. Wieviele Sprachen bereits ausgestorben sind, lässt sich aufgrund des Fehlens schriftlicher Fixierung in früheren Jahrtausenden (die, wenig überraschend, auch keine Tonbandaufzeichnungen hinterließen) nicht sagen.

 

- Zusammenhang zwischen Sprache und Denken:
Eine eventuelle gegenseitige Abhängigkeit von Sprache und Denken wurde mehrfach untersucht (schon der Aufklärer Étienne Bonnot de Condillac, 1714-1780, ging von der Unteilbarkeit von Sprache und Denken aus) und in allen Varianten beantwortet (A beeinflusst B, B beeinflusst A, A und B sind unabhängig voneinander, A und B beeinflussen einander wechselseitig). Eine aktuelle wissenschaftliche Annäherung an diese Frage leistete Guy Deutscher (*1969) in seinem im Beck-Verlag erschienenen Buch Im Spiegel der Sprache: Warum die Welt in anderen Sprachen anders aussieht. München 2010.

Ausgangsbeobachtung: die Welt wird durch Sprache nicht nur beschrieben, sondern auch eingeteilt. Diese Situation wurde mit einem über die Wirklichkeit geworfenen Netz verglichen, dessen Maschen verschieden dicht sind, sodass dort, wo es notwendig ist, mehr Begriffe zur Verfügung stehen als anderswo. (Z. B. verfügen Sprachen kalter Gebiete - wie die der Sámi = Sumpfleute oder der Inuit = Menschen - über mehr, etwa 20, eigenständige Wörter - und nicht nur Komposita wie „Nassschnee“ - für „Schnee“ oder Eis als die warmer, das Japanische über mehr Bezeichnungen für „Reis“ als etwa das Deutsche.) Hier ein Beispiel, das vier Sprachen betrifft:

Einteilung der Welt durch sprachliche Bezeichnungen

Bedeutung Deutsch Dänisch Französisch Spanisch
Baum „Baum“ „trae“ „arbre“ „arbol“
Brennholz „Holz“ „bois“ „leña“
Holz als Material „madera“
Kleiner Wald „Wald“ „skov“ „bosque“
Großer Wald „forêt“ „selva“

Quelle: dtv-Atlas zur deutschen Sprache

* Sapir-Whorf-Hypothese (Linguistische Relativitätstheorie, benannt nach Edward Sapir, 1884-1939, und Benjamin Lee Whorf, 1897-1941): Verschiedene Einteilungen der Außenwelt ziehen auch verschiedene Wahrnehmungen und Bewertungen nach sich. Die Zuñi-Indianer z. B., die kein eigenes Wort für „orange“ haben, können diese Farbe im Ex. auch in ihrer Wahrnehmung nicht gut von Gelb unterscheiden. (Es geht jedoch eher um die Unterscheidungen, die typischerweise tatsächlich gemacht werden, weniger um die, die theoretisch gemacht werden könnten. Dass Defizite im Vokabular auch solche der Wahrnehmung nach sich ziehen, scheint inzwischen widerlegt.) Fazit: Denken ist von der Sprache abhängig. (Eine späte Bestätigung dieser These - oder zumindest der Möglichkeit des Einflussnehmens - könnte man im Konzept des Framing - s. u. - erblicken. Whorf war durch die Tatsache alarmiert worden, dass Benzinfässer mit der Aufschrift „leer“ unvorsichtiges Verhalten - z. B. Rauchen - hervorrufen, da aufgrund der sprachlichen Information Ungefährlichkeit suggeriert wird und deshalb nicht an die explosiven Dämpfe gedacht wird.)

Aus heutiger Sicht werden weder Perzeption noch Vorstellungskraft oder Ausdrucksmöglichkeiten dadurch beschränkt, dass man eine bestimmte Sprache spricht (höchstens durch ein nicht vorhandenes, aber jederzeit bei Bedarf nachrüstbares Vokabular) - was nicht bedeutet, dass es in gewissen Teilbereichen keine Komplexitätsunterschiede zwischen verschiedenen Idiomen gäbe. Der Satz des Philosophen Ludwig Wittgenstein (1889-1951): „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt“ stimmt aber nicht. Auch Sprecher, in deren Muttersprache das Wort für „Verbrechen“ dasselbe ist wie das für „Strafe“ (z. B. die alten Babylonier), können zwischen diesen Begriffen unterscheiden (wie deren Rechtstexte zeigen; Beispiel von Deutscher).

* Boas-Jacobson-Prinzip (benannt nach Franz Boas, 1858-1942, und Roman Jacobson, 1896-1982): Dieses - von Guy Deutscher so benannte - Prinzip beruht auf der Beobachtung, dass manche Sprachen manche Aspekte notgedrungen ausdrücken müssen, die in anderen Sprachen unbestimmt bleiben können. (Beispiel von Jacobson: „I spent yesterday evening with a neighbor“ versus „Ich verbrachte den gestrigen Abend mit einem Nachbarn / einer Nachbarin“. Im Deutschen muss das Geschlecht genannt werden, im Englischen bleibt es unbestimmt und kann bei Bedarf durch zusätzliche Satzteile ergänzt werden.) Dieses Phänomen des sprachimmanenten Zwanges (Beispiele lassen sich auch bei der Zeitenfolge, den Ortsadverbien u. v. a. m. finden) könnte Einfluss auf das Denken der Sprecher/innen oder zumindest auf ihre geistigen Gewohnheiten haben (wenn auch alle alternativen Ausdrucksmöglichkeiten auf Umwegen offenstehen).

Ex. von den Kognitionswissenschaftlerinnen Lera Boroditsky (*1976) et. al.: Lässt man Vpn. in einer auf Englisch geführten Untersuchung im Sinne von Polarisationsprofilen (s. o.) auf den Begriff „bridge“ (gemeint ist das Bauwerk, nicht das Kartenspiel) zutreffende Eigenschaften finden, so tendieren Deutschsprecher häufig zu „schön“, „elegant“, „zerbrechlich“, „friedlich“, „hübsch“, „schlank“, Spanischsprecher zu „groß“, „gefährlich“, „lang“, „stark“, „robust“, „aufregend“. Diese statistisch signifikant unterschiedlichen Konnotationen werden darauf zurückgeführt, dass „el puente“ im Spanischen männlich, „die Brücke“ im Deutschen aber weiblich ist. In einem weiteren Ex. (in dem wieder nur Englisch gesprochen wurde und das an einen IAT-Test, s. u., erinnert) wiesen die Forscherinnen nach, dass in einer Gedächtnisübung männliche Vornamen, die mit Wörtern assoziiert werden sollten, die in der Muttersprache der Vpn. männlich waren, besser gemerkt werden konnten als weibliche (und umgekehrt). Spanischsprechende konnten sich also z. B. das Wortpaar „Claudia - apple“ („la manzana!“) besser merken als Deutschsprachige („der Apfel!“). Vgl. a. u.

* Strukturalismus (der ethnologische Strukturalismus - s. a. u. - wurde von Claude Lévi-Strauss, 1908-2009 - s. a. o. - begründet): Er vertritt die Ansicht, dass sich unterschiedliche Denkweisen auf die verwendete Sprache auswirken. Beleg: Jede politische Denkungsart zieht ihren eigenen Sprachstil nach sich. Dies wird durch Diskursanalysen untersucht. (Unter Diskurs - vgl. hier -, der Möglichkeit des Sagbaren, versteht man - im Unterschied zum Begriff Diskussion, der den Austausch von Argumenten bezeichnet - die Art und Weise, in der über Themen geredet bzw. geschrieben wird. Er bestimmt den Rahmen, in dem Diskussionen stattfinden. Die Sprache der Nationalsozialisten wurde etwa im Buch LTI - Lingua Tertii Imperii von Victor Klemperer, 1881-1960, untersucht.)

* Glossematik: In Weiterführung der strukturalistischen Sprachtheorie des Schweizer Linguisten Ferdinand de Saussure (1857-1913) von der Doppelgesichtigkeit des sprachlichen Zeichens (Bezeichnendes und Bezeichnetes) leugnen der Däne Louis Hjelmslev (1899-1965) u. a. jeden Zusammenhang zwischen Sprache und Denken. Das sprachliche Zeichen wird als willkürliche, zu erlernende Verbindung einer Ausdrucks- mit einer Inhaltsform angesehen, was sich z. B. an der völlig unterschiedlichen Einteilung des Farbspektrums in der englischen bzw. der walisischen Sprache erweist. (Auch die alten Griechen verwendeten seltsame - eher psychologisch als physikalisch motivierte - Farbbezeichnungen, wie dies schon Johann Wolfgang von Goethe, 1749-1832, in seinen Materialien zur Geschichte der Farbenlehre, der spätere englische Premierminister William Ewart Gladstone, 1809-1898, in seinen Studies on Homer und Friedrich Nietzsche, 1844-1900, im 426. Abschnitt seiner Morgenröte beschrieben.)

Ob die Bezeichnungen in den Dingen selbst und damit von der Natur vorgegeben (φύσει-Theorie; semantischer Naturalismus) oder vom Menschen willkürlich gesetzt werden (θέσει-Theorie, Konventionalismus), wird bereits von Sokrates, 469-399 v. Chr., mit Kratylos (der historische Kratylos wurde vermutlich um 450 v. Chr. geboren) im gleichnamigen Dialog (Κρατύλος) von Platon diskutiert.

Zu beachten ist in diesem Zusammenhang der Unterschied zwischen Anzeichen, also Symptom, Zeichen, das keinen, und Symbol, das sehr wohl einen Zusammenhang mit dem Gemeinten hat. Beispiele: Ketchup-Fleck auf dem Hemd / eine bestimmte Lautfolge wie „Tisch“ / das Kreuz als Symbol des Christentums

Auch der nativistische Kognitionspsychologe und Psycholinguist Steven Pinker (*1954) betrachtet Denken und Sprache seperat und postuliert eine von jeder Muttersprache unabhängige wortlose Gedankensprache („Mentalesisch“), die auf angeborenen, spezifizierten kognitiven Modulen beruhe und erst im Sprechakt selbst in das jeweils aktuelle Idiom umgesetzt werde.

* Sprachinhaltsforschung: Vorläufer war Wilhelm von Humboldt (1767-1835; s. a. o.), der auf einer Spanienreise das nicht indoeuropäische Baskische untersuchte und später als Gesandter im Vatikan Missionarsberichte über exotische Sprachen auswertete und in seinem 1836 posthum von seinem Bruder Alexander (1769-1859) herausgegebenen Werk Über die Verschiedenheit des menschlichen Sprachbaus und ihren Einfluss auf die geistige Entwickelung des Menschengeschlechts (s. hier) den Begriff „innere Sprachform“ prägte. Er war der Ansicht, dass der Unterschied zwischen den Sprachen nicht darin liege, was „in einer Sprache ausgedrückt zu werden vermag“, sondern wozu sie „aus eigener innerer Kraft anfeuert und begeistert.“ „Das Denken ist aber nicht bloß abhängig von der Sprache überhaupt, sondern bis auf einen gewissen Grad auch von jeder einzelnen bestimmten.“ Im Prinzip lasse sich aber jeder Gedanke in jeder Sprache ausdrücken. Die Sprache sei (in Anlehnung an eine Terminologie von Aristoteles) kein abgeschlossenes Werk (ἔργον), sondern eine Tätigkeit (ἐνέργεια), die eine wirkende Kraft entfalte. Sie sei „das bildende Organ des Gedankens“.

Dies führte zur Auffassung, dass jede Sprache ein eigenes sprachliches Weltbild habe, das zwischen Sprachgemeinschaft und außersprachlicher Wirklichkeit stehe und sich in Wörtern, die etwas suggerieren, wie z. B. „Sternbild“, „Purzelbaum“ usw. ausdrücke. (Letzteres behauptet v. a. die dynamische Sprachauffassung, v. a. Johann Leo Weisgerber, 1899-1985). Lew Semjonowitsch Wygotski (1896-1934; s. o.) geht etwa gleichzeitig von innerem Sprechen, das schweigendes Denken begleite, aus und spricht 1934 in Denken und Sprechen von wechselseitiger Beeinflussung zweier Prozesse: „Indem sich der Gedanke in Sprechen verwandelt, gestaltet er sich um [...]. Der Gedanke drückt sich im Wort nicht aus, sondern vollzieht sich im Wort.“ (Vgl. auch: Über die allmähliche Verfertigung der Gedanken beim Reden von Heinrich von Kleist, 1777-Suizid 1811, der den Weg so sieht: „Die Idee kommt beim Sprechen“, da man sich durch Reden dazu zwinge, das noch nicht vorhandene Ende zu einem begonnenen, noch unfertigen Gedanken hinzuzufügen.)

 

- Semiotik: Dimensionen des sprachlichen Zeichens:
Ausgangspunkt: Im Anschluss an de Saussure wird die Sprache heute als ein System von (zu erlernenden) Zeichen, die zunächst keinen Zusammenhang mit den Gegenständen der außersprachlichen Wirklichkeit haben (vgl. u.: Begriffsdreieck), verstanden. Um sie dekodieren zu können, muss man nicht nur um ihre Bedeutung wissen (Semantik), sondern auch ihre Zusammenstellung (Syntax) beachten. Die gewollte Redeabsicht lässt sich jedoch endgültig erst nach der Analyse der Redesituation, also des Verwendungszusammenhanges (Pragmatik) beurteilen, da diese die Semantik (bis ins Gegenteil) verändern kann, etwa durch ironisches Sprechen. (Diese Dreiteilung geht auf den US-amerikanischen Semiotiker Charles William Morris, 1901-1979, zurück.)

* Syntaktische Dimension: beschreibt die Beziehung zu anderen sprachlichen Zeichen

* Semantische Dimension: beschreibt die Bedeutung der sprachlichen Zeichen

* Pragmatische Dimension: beschreibt den Verwendungszusammenhang der sprachlichen Zeichen

Um Gesagtes oder Geschriebenes ohne Verzerrungen erfassen zu können, empfiehlt Harold D. Lasswell (1902-1978) eine Überprüfung gemäß der von ihm 1948 formulierten Lasswell-Formel: „Who says what in which channel to whom with what effect?“ (Vgl. auch Bert Brecht, 1898-1956: „Wem nützt der Satz? Wem zu nutzen gibt er vor? Zu was fordert er auf? Welche Praxis entspricht ihm? Was für Sätze hat er zur Folge? Welche Sätze stützen ihn? In welcher Lage wird er gesprochen? Von wem?“)

Eine grundlegende Voraussetzung für die Verständlichkeit sprachlicher Zeichen ist eine gewisse Redundanz (der Kehrwert der Entropie), eine zusätzliche, zunächst sinnlos erscheinende Information, die an sich bereits explizit oder implizit gegeben worden ist, ohne die der Empfänger aber völlig überfordert wäre. Sprache ohne Redundanz würde bedeuten, dass jedes Zeichen eine exakt definierte Bedeutung hätte und nur ein einziges Mal dargeboten würde. In der Praxis beobachtet man aber eine (höhere oder geringere) Übergangswahrscheinlichkeit von Zeichen zu Zeichen. (Gegen Ende eines Satzes nimmt die Wahrscheinlichkeit tendenziell zu, sodass für das Verständnis eine immer geringere Aufmerksamkeit - s. o. - nötig ist. Gemäß den Markow-Ketten der Stochastik - nach Andrei Andrejewitsch Markow / Андрей Андреевич Марков, 1856-1922 - können Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse - in diesem Fall von Satz- oder Wortfolgen - als Approximation nullter Ordnung - völlig zufällig - , 1., 2. Ordnung etc. bis zur völligen Notwendigkeit des Übergangs beschrieben werden. Das Wort „ein“ hat z. B. eine sehr geringe, das Wort „blondes“ - hier passen nur wenige Wörter wie „Haar“, „Mädchen“ oder, in Deutschland, „Bier“ - eine sehr hohe Übergangswahrscheinlichkeit, die durch den Redezusammenhang noch verstärkt wird. Das Wesen der dichterischen Sprache liegt darin, ungewohnte - aber nicht gewollt originelle - Übergänge zu kreieren.)

 

- Begriffe:
Prinzipiell muss zwischen Begriffen und ihren Namen (den „Etiketten“, also Wörtern der Einzelsprachen) unterschieden werden. Jene stehen dem Erkenntnisvermögen aller Menschen in gleicher Weise zur Verfügung, diese werden in der jeweiligen Umgebung erlernt. Laut Noam Chomsky (*1928; s. a. o.) liege allen Sprachen der Welt eine Universalgrammatik zugrunde, sodass ein extraterrestrischer Forscher zu dem Schluss kommen würde, dass alle Erdlinge Dialekte derselben Sprache sprechen.

* Definition: Begriffe sind abstrakte, mit Wörtern (Begriffsnamen) bezeichnete Vorstellungen, die Elemente des Denkens darstellen. Sie garantieren, dass die Welt verfügbar gehalten wird.

* Begriffsdreieck (Semiotisches Dreieck): zeigt - hier am Beispiel „Baum“ -, dass der Bezug zwischen Bezeichnendem und Bezeichnetem nicht direkt, sondern über eine Vorstellung erfolgt.












„Bezeichnendes“
(Lautfolge [baʊ̯m, tɹi:, árbol etc.])

 

 

Begriff „Baum“ (Denkabstraktion)


arbiträre, nur auf Übereinkunft beruhende Beziehung.
Ausnahme: onomatopoetische (lautmalerische) Wörter)










„Bezeichnetes“
(Gegenstand der Außenwelt)

Abb. 3/9: Semiotisches Dreieck (Begriffsdreieck; © Thomas Knob)

* Begriffsbildung besteht darin, einer Reihe von Bewusstseinsinhalten gemeinsame spezifische Eigenschaften zuzuschreiben und diese relevanten Merkmale von den irrelevanten Merkmalen zu trennen. Die ursprünglichste Form der Begriffsbildung ist das Begreifen im wörtlichen Sinne, wie es im Babyalter erfolgt. Auch danach orientieren wir uns laut der amerikanischen Psychologin Eleanor Rosch (*1938) bei der Kategorisierung weniger an abstrakten Definitionen als an konkret erfahrenen repräsentativen Prototypen. Im Ex. unterscheidet man:

° Konjunktivische Begriffsbildung: von zwei Eigenschaften müssen einem Gegenstand beide zukommen (leichter zu erkennen; z. B. „rund und schwarz“)
° Disjunktivische Begriffsbildung: von zwei Eigenschaften müssen einem Gegenstand entweder die eine, die andere oder beide zukommen (schwerer zu erkennen; z. B. „rund oder schwarz“)

Anschaulich gemacht wurde dies im Warenhausex. von Narziß Kaspar Ach (1871-1946): Vpn. sollten in einem Warenhaus Gegenstände mit der Phantasiebezeichnung „Gazun“ und solche mit der Bezeichnung „Ras“ herbeischaffen, ohne zu wissen, was diese beiden Wörter bedeuten. Nach längerer Zeit erkannten die Vpn., dass große, schwere Gegenstände als „Gazun“, kleine, leichte als „Ras“ bezeichnet wurden und konnten neue Begriffe durch abstrahierendes Denken entwickeln. Sie verstanden, wie kleine Kinder im alltäglichen Spracherwerb, die Assoziation von Gegenstand und Lautfolge, brauchten aber bei der disjunktivischen Begriffsbildung deutlich länger.

Bekannt wurde auch das als THOG-Aufgabe bezeichnete Ex. von Wason (s. o.). Die Vpn. blicken auf vier Figuren: einen weißen Kreis, einen schwarzen Kreis, ein weißes Quadrat und ein schwarzes Quadrat. Auf einer verdeckten Karte stehen zwei Eigenschaften: eine der beiden Formen und eine der beiden Farben. Man erhält zusätzlich die Information, dass das schwarze Quadrat ein „THOG“ ist. Gibt es noch ein THOG unter den drei verbliebenen Figuren, wenn ein THOG genau eine dieser nicht sichtbaren Eigenschaften erfüllt, aber nicht beide - und wenn ja, welche Figur(en) ist / sind THOG/s? (Lösung s. o. unter 14)

* Bedeutung:

° Denotation: der Begriffskern, die „reine“ Information, z. B. bei einem Wort wie „recht(s)“ oder „links“: Richtungsbezeichnung vom Standpunkt des Sprechers aus gesehen
° Konnotation: der „Beigeschmack“, das, was „mitschwingt“, z. B. bei einem Wort wie „recht(s)“ oder „links“ („rechtschaffen“, „das Recht“, „Rechtschreibung“ etc. versus „linkisch“, „eine Linke drehen“, „zwei linke Hände haben“, etc., darüber hinaus evozieren diese beiden Begriffe auch vielfältige politische Konnotationen). Kann durch Framing (s. u.) bewusst gesteuert werden.

Der deutsche Logiker Friedrich Ludwig Gottlob Frege (1848-1925) unterschied Bedeutung - die Referenz des jeweiligen Ausdrucks, das, worauf er sich bezieht - und Sinn - die „Art des Gegebenseins“ eines Ausdrucks. (Zum Beispiel beziehen sich „Morgenstern“ und „Abendstern“ beide auf die Venus, drücken aber einen unterschiedlichen Gedanken aus.)

 

- Kommunikationsmodelle und Medientheorien:
Medientheorien beziehen sich au elektronisch verbreitete oder gedruckte Produkte und wollen die Informationsfunktion, die soziale Funktion, die politische Funktion und die ökonomische Funktion von Medien beschreiben und untersuchen, Kommunikationsmodelle versuchen (meist graphisch) alle Elemente und Bedingungen, unter denen (nicht nur sprachliche) Kommunikation erfolgt, darzustellen: Sender - Empfänger - Medium der Kommunikation - äußere (über die Antwort des/der Angesprochenen) und innere (über die gleichzeitige akustische Wahrnehmung der selbst gesendeten Zeichen) Rückkoppelungs-Regelkreise - eventuelle Störfaktoren - (kleinerer) aktiver / (größerer) passiver, sich überschneidender Zeichenvorrat - Enkodierung / Dekodierung - Signalisierung (Übermittlung) - soziale Normen - Situation - etc.

Das klassische Kommunikationsmodell (Codierung - Signalisierung - Decodierung) geht auf die Begründer der Informationstheorie Claude E. Shannon (1916-2001; Norbert Wiener, s. o., hatte 1948 in seinem Buch Cybernetics den Gedanken vertreten, dass Information eine exakt messbare Größe darstelle) und Warren Weaver (1894-1978), die auf den Sprechakt, der z. B. von einer ironischen Ausdrucksweise getragen sein könnte, nicht eingehen, zurück. Bekannt wurden neben diesem allgemein gehaltenen Modell folgende Theorien:

Informationen (Daten) im Sinne von über bestimmte Kanäle vermittelte Inhalte lassen sich unter drei Aspekten betrachten:

° Semantische Informationen: Sie bestehen aus Behauptungen über die Welt, die entweder als (wahre) Tatsachen oder als Propositionen (die wahr oder falsch sein können) erscheinen.
° Strukturelle Informationen: Sie stellen eine Folge von Bits (binäre Ziffern: 0 oder 1) oder anderer Strukturen dar.
° Symbolische Informationen: Sie bestehen aus strukturellen Informationen, die semantische Informationen codieren.

* Organon-Modell von Karl Bühler (1879-1963):

Abb. 3/10: Kommunikationsmodell von Bühler (Quelle: https://de.wikipedia.org)

In der Graphik symbolisiert der Kreis in der Mitte das konkrete Schallphänomen, das Dreieck das sprachliche Zeichen (Z für Zeichen), die Seiten des Dreiecks stehen für die semantischen

          Funktionen der Sprache:

° Ausdruck: will das Innenleben offenbaren; beruht auf (Nicht)übereinstimmung von Innen und Außen; wahrhaftig / nicht wahrhaftig („Verhaltenslüge“), z. B. „Au!“ (Nicht nur Menschen, sondern auch Tiere und sogar Pflanzen drücken ihren Zustand aus; vgl. z. B. das Erscheinungsbild einer halb verdorrten Sonnenblume.)
° Appell: will zu einem Verhalten veranlassen; wirksam / unwirksam, z. B. „Achtung!“ (Tritt bei Mensch und Tier auf; vgl. z. B. tierische Vokalisationen mit Kommunikationscharakter wie Alarmsignale)
° Darstellung: will die außersprachliche Wirklichkeit wiedergeben; richtig / falsch, z. B. „Die Giraffe hat sieben Halswirbel.“ Im Gegensatz zu den beiden ersten Funktionen nicht situations-, zeit- oder ortgebunden. (Tritt bedingt auch bei Tieren auf: Bienen z. B. unterrichten ihre Artgenossen - allerdings in einem sehr starren, angeborenen und instinktgesteuerten, daher nicht flexibel veränderbaren System von Tänzen, das kein Wahrheitsproblem kennt - über Duft, Richtung, Entfernung und Rentabilität eines Futterplatzes; entdeckt von Karl von Frisch, 1886-1982, Medizin-Nobelpreisträger 1973)
° Argumentation: will (schlüssige, nachvollziehbare) Gedankengänge wiedergeben; gültig / ungültig, z. B. „Strafe und Belohnung sind als Erziehungsmittel abzulehnen, weil sie bewirken, dass das (vielleicht) Richtige aus den falschen Motiven getan wird.“ Es wird darüber gesprochen, ob ein Satz wahr ist oder nicht. Diese vierte Funktion bleibt als einzige ausschließlich dem Menschen vorbehalten, da Tiere nicht in der Lage sind, einzelne Phrasen logisch zu kombinieren. Sie geht nicht auf Karl Bühler zurück, sondern wurde später vom Philosophen Karl R. Popper (1902-1994) hinzugefügt.

* 4 Ohren- (4 Schnäbel)-Modell von Friedemann Schulz von Thun (*1944; vgl. Video). Dabei geht es darum, dass vier Botschaften auf einmal ausgesendet bzw. verstanden werden können.

Abb. 3/11: Kommunikationsmodell von Schulz von Thun (Quelle: http://www.fachdidaktik-einecke.de)

          Die vier Ebenen der Kommunikation:

° Auf der Sachebene werden nach Wahrheit, Relevanz und Hinlänglichkeit qualifizierbare Inhalte gesendet.
° Auf der Ebene der Selbstkundgabe werden implizit/explizit bzw. bewusst/unbewusst Informationen über den Sender selbst übermittelt.
° Auf der Beziehungsebene werden implizit/explizit Hinweise auf den Beziehungsstatus transportiert.
° Auf der Appellebene werden offen/versteckt Handlungsaufforderungen ausgeschickt.

Beispiel: Vier mögliche Interpretationsmöglichkeiten des von einem Mann zu seiner das Auto steuernden Frau gesprochenen Satzes „Die Ampel ist rot“: „Sie ist nicht grün.“ (Sachebene) / „Ich denke mit.“ (Selbstkundgabe) / „Ich bin befugt, dich darauf hinzuweisen, dass du nie Auto fahren lernen wirst, jedenfalls meine Hilfe brauchst.“ (Beziehungsebene) / „Halt an!“ (Appell)
Zu Kommunikationsproblemen vgl. folgende Videos von Loriot (eig. Bernhard-Viktor „Vicco“ Christoph-Carl von Bülow, 1923-2011) „Feierabend“ oder „Das Ei ist hart“ (s. a. u.)

* Konstruktivistisches Modell von Paul Watzlawick (1921-2007) et al. (zu Watzlawick s. a. u. mit Videolinks). Grundidee: Durch Kommunikation werden (verschiedene) Wirklichkeiten konstruiert, auf die aus der eigenen Perspektive repliziert wird, sodass Missverständnisse vorprogrammiert sind. Die Fünf pragmatischen Axiome der Kommunikation (siehe Tabelle) stellen den Grundrahmen auf, innerhalb dessen sich sie Kommunikationspartner bewegen. („Pragmatisch“ bezeichnet den Verwendungszusammenhang des sprachlichen Zeichens, also die Sprechsituation, ein „Axiom“ ist eine nicht weiter beweisbare Grundannahme.)

Übersicht: Die fünf pragmatischen Axiome der Kommunikation
(nach P. Watzlawick et al.: Menschliche Kommunikation - Bern 51980 wörtlich zitiert)

° Man kann nicht nicht kommunizieren.
° Jede Kommunikation hat einen Inhalts- und einen Beziehungsaspekt, derart, dass letzterer den ersteren bestimmt und daher eine Metakommunikation ist.
° Die Natur einer Beziehung ist durch die Interpunktion der Kommunikationsabläufe seitens der Partner bedingt.
° Menschliche Kommunikation bedient sich digitaler und analoger Modalitäten. Digitale Kommunikationen haben eine komplexe und vielseitige logische Syntax, aber eine auf dem Gebiet der Beziehungen unzulängliche Semantik. Analoge Kommunikationen dagegen besitzen dieses semantische Potential, ermangeln aber die für eindeutige Kommunikationen erforderliche logische Syntax.
° Zwischenmenschliche Kommunikationsabläufe sind entweder symmetrisch oder komplementär, je nachdem, ob die Beziehung zwischen den Partnern auf Gleichheit oder Unterschiedlichkeit beruht.

Geht man nun unwillkürlich davon aus, dass die eigene Wirklichkeit auch die des gegenüberstehenden Anderen ist, kommt es zu Konflikten und Missverständnissen. Vgl. folgendes Ex.: Lässt man zwei Personen so lange aufeinander zugehen, bis ihnen der Redeabstand angenehm erscheint, so wird man z. B. in Südamerika weit geringere Distanzen messen können als in Nordeuropa. Treffen nun zwei (je ein) Einwohner der angesprochenen Regionen, die um diesen Umstand nicht Bescheid wissen, irgendwo zusammen, so wird der Nordländer sich vom Südländer bedrängt fühlen, der Südländer wird glauben, dass ihm der Nordländer ausweichen wolle. (Die Situation kann nur durch Metakommunikation - indem über die Art zu kommunizieren kommuniziert wird - gelöst werden.)

* Sprechakttheorie von John Langshaw Austin (1911-1960; How to Do Things with Words 1955, dt. Theorie der Sprechakte 1972) erweitert die herkömmliche Ansicht, dass Sprache die Welt nur informativ beschreibt (z. B. „Männliche Löwen tragen eine Mähne“, „In diesem Klassenraum stehen 15 Tische“; „konstative Äußerungen“, Statements), um die Erkenntnis, dass mit Worten auch Handlungen vollzogen werden können (z. B. „Ich taufe dich auf den Namen XY“, „Ich erkläre die Olympischen Spiele [...] für eröffnet“; „performative Äußerungen“). Er unterscheidet

          3 in alltäglichen Kommunikationssituationen simultan ablaufende Sprechakte:

° Lokutiver (lokutionärer) Sprechakt: „Saying something ‘in the full normal sense’“. Z. B.: „Fahr vorsichtig, die Straße da vorn in der Kurve ist glatt!“ bringt eine Lautkette hervor (phonetischer Akt), die nach den Gesetzen der Grammatik der deutschen Sprache geordnet ist (phatischer Akt) und auf eine Stelle hinweist, ihr eine Eigenschaft zuordnet und sich über das Fahrverhalten äußert (rhetischer Akt, der Beziehung zur Außenwelt - reference - und Sinn - sense - hat).
° Illokutiver (illokutionärer) Sprechakt: „Doing something in saying something“ (Versprechen, Warnen, Bitten, Drohen, Fragen etc.); = das Ergebnis einer Sprachhandlung, fällt zeitlich mit deren Vollzug zusammen; man vollzieht, indem man sich (lokutionär) äußert. Im Beispiel: Warnung. (Dieser Akt gilt als zentral, da der erste Akt nur ein Aspekt des 2., der 3. nur eine Folge des 2. ist.)
° Perlokutiver (perlokutionärer) Akt: „Doing something by saying something“; Folgen einer Sprachhandlung, die sich an den Vollzug anschließen; man bewirkt etwas dadurch, dass man sich (illokutiv) äußert (z. B. stören, beruhigen, erschrecken, überzeugen), was Gefühle, Gedanken oder Handlungen auslösen kann. Im Beispiel will der Sprecher Einfluss auf das Verhalten des Fahrers nehmen. (Der perlokutive Effekt kann aber auch ein anderer, unbeabsichtigter sein, z. B. Ärger.)

Anwendungsbeispiel nach wikipedia: In der Aussage „Du bist hässlich“ löst der Sender den perlokutionären Akt des Kränkens des Adressaten dadurch aus, dass er den illokutionären Akt des Behauptens vollzieht, indem er durch den gewählten Satz(bau) einen lokutionären Akt setzt.

John Searle (*1938) erweiterte die Theorie auf vier Akte: Äußerungsakt (utterance act; Hervorbringen von Äußerungen gemäß den sprachlichen Regeln) - propositionaler Akt (propositional act; im Referenzakt Bezug auf bestimmte Objekte der Welt, denen im Prädikationsakt Eigenschaften zugeordnet werden) - illokutionärer Akt - perlokutionärer Akt.

* Medientheorie von Herbert Marshall McLuhan (1911-1980), einem kanadischen Medienforscher: In seinem Hauptwerk Understanding Media (1964; weiter ausgeführt 1967 in The medium is the massage) postulierte McLuhan, dass Medien (wie ihr Inhalt) selbst untersuchbare und interpretierbare Strukturen aufwiesen und durch die Art und Weise ihrer Beschaffenheit grundlegende Änderungen in der Wahrnehmung, der Sichtweise und dem Verständnis der Konsumenten bewirkten. Sein zentraler Satz lautet daher: „The medium is the message“. So habe die Einführung der Drucktechnik die Wahrnehmungsgewohnheiten der Bevölkerung nachhaltig verändert und zu Auswirkungen auf die Sozialstrukturen geführt. Eine spätere These lautet, dass jedes Medium immer nur in Zusammenhang mit seinem Kontext untersucht werden dürfe, da der Zusammenhang unauflösbar sei. McLuhan (der der Zeitschrift Playboy ein langes Interview gab, Edward Kennedy „Duke“ Ellington, 1899-1974, zu dessen 1971 erschienenen Album The Afro-Eurasian Eclipse inspirierte und 1977 im Film Stadtneurotiker von Heywood „Woody“ Allen, *1935, einen Gastauftritt hatte) prägte auch die Ausdrücke „global village“ und (lange vor dem Aufkommen des Internet) „surfen“.

* Medientheorie von Neil Postman (1931-2003): Der New Yorker Kommunikationswissenschaftler Postman beschrieb 1985 in seinem Buch Wir amüsieren uns zu Tode die Folgen des Aufkommens des Mediums Fernsehens und den dadurch bewirkten sozialen Wandel, der auf Wechselwirkungen beruhe und nicht einfach additiv („ein Medium mehr als zuvor“) erklärbar sei. Sein kritisches Fazit lautet: Ideen würden durch die Wertmaßstäbe des Showgeschäfts in den Hintergrund gedrängt. „Fernsehen wurde nicht für Idioten erschaffen – es erzeugt sie.“ Die Urteilsbildung der Bürger werde durch den Zwang zur Bebilderung der verbreiteten Information (ausgedrückt im Begriff Infotainment) gefährdet, weil die Reduzierung der Inhalte von Politik und Kultur zu leeren, leicht fasslichen Hülsen zu einer Infantilisierung der Gesellschaft führe. Das Verschwinden der Kindheit (Buchtitel 1982) sei daher eine weitere Folge der undifferenzierten Zumüllung mit Info-Konsumartikeln (Essay 1992 Wir informieren uns zu Tode) ohne Rücksicht auf Altersadäquatheit. Zusätzlich führe die Enthüllung privater Bereiche zu einer Torpedierung tradierter moralischer Verhaltensnormen, z. B. des Schamgefühls. Durch die ungeheure Resonanz des TV entstünden unreflektiert neue Normen auch außerhalb des Screens. Die Wahrheit werde in einem „Meer von Belanglosigkeiten“ untergehen. (Es ist evident, dass die angesprochenen Entwicklungen durch das Aufkommen des Internet nochmals exponentiell aufwallten. Vgl. auch das Fazit des 2022 erschienenen Buches Staatskunst: Sechs Lektionen für das 21. Jahrhundert von Henry Kissinger, 1923-2023, in der die Transformation von der schriftlichen zur visuellen Kultur nicht nur für den Niedergang des humanistischen Bildungsideals, sondern auch dafür verantwortlich gemacht wird, dass Politik nun auf Grundlage von Emotionen statt rationalen Analysen gemacht werde, wodurch Politiker hohem Konformitätsdruck ausgesetzt würden und nicht mehr in der Lage seien, gegen den Zeitgeist zu entscheiden.)

* „Theorie des kommunikativen Handelns“: eine von Jürgen Habermas (*1929) - tw. mit Bezug auf John Langshaw Austin (1911-1960) - 1981 veröffentlichte Diskursethik (auch als Demokratietheorie lesbar). Sie beschreibt aus philosophischer Sicht die Notwendigkeit einer konsensorientierten „idealen“ Kommunikationssituation (die, auch wenn sie in der Realität kaum herstellbar sei, dennoch gefordert werden müsse), in der im „herrschaftsfreien Diskurs“ ohne Täuschung über die Redeabsicht von allen, die sich dem „eigentümlich zwanglosen Zwang des besseren Argumentes“ unterordnen wollen, gleichberechtigt nicht nur Wahrheits- und Wahrhaftigkeits-, sondern auch Gerechtigkeitsfragen verhandelt werden sollen. Kein Diskursteilnehmer soll ein anderes (instrumentalisierendes) Interesse als das an der Herstellung eines Konsenses einbringen. Auf dieser Basis könne auch Übereinstimmung in Bezug auf universelle Aussagen über moralische Prinzipien erzielt werden.

* Persuasive Kommunikation: wurde u. a. vom Medienwirkungsforscher Carl I. Hovland (1912-1961) an der Yale-Universität untersucht. Darunter versteht man Methoden des Überredens (und im besten Fall Überzeugens) auf emotionaler und/oder rationaler Schiene, wie sie in der politischen Werbung, im Produktmarketing, in Therapien, aber auch im privaten Rahmen zur Beeinflussung anderer angewendet werden. Hovland u. a. beschrieben im Rahmen des so genannten Yale-Ansatzes zur Einstellungsänderung / Yale Attitude Change Approach den Sleeper-Effekt: er bewirke, dass man im Laufe der Zeit vergesse, ob eine Information aus einer glaubwürdigen oder unglaubwürdigen Quelle stamme. Der Sender dürfe daher damit rechnen, dass letztendlich nur die Botschaft hängen bleibe und Mitteilungen seriösen und unseriösen Ursprungs einander in ihrer Bewertung angleichen. (Die Wirkung ersterer nehme ab, die letzterer zu, weil der Status des Senders im Laufe der Zeit verblasse, die Botschaft aber noch präsent sei.) Belegex.: Dieselben Informationen wurden zwei Vgn. unabhängig voneinander vorgeblich einmal von einem (als unseriös erlebten) Drogenhändler, einmal von einem (als seriös erlebten) Jugendrichter übermittelt. Nach längerer Zeit hielten die Vpn. der 2. Gruppe das Gehörte für weniger glaubwürdig als zum Zeitpunkt der Übermittlung, bei der 1. Gruppe stieg die empfundene Glaubwürdigkeit. Der Effekt der wahrgenommenen (In)kompetenz hatte also jeweils abgenommen.
Im Folgenden werden andere Methoden der Einstellungsänderung (s. a. u.) beschrieben.

          Beispielhafte Vorgehensweisen:

° Nullpunktverschiebung (Door-in-the-face-Technik): Man fordert zunächst bewusst Zu-weit-Gehendes, um in der Folge den eigentlichen Wunsch erfüllt zu bekommen.
° Foot-in-the-door-Technik: Sie funktioniert vice versa: ein gewährter kleiner Gefallen wird (immer) weiter gehend ausgebaut. Da Menschen konsistent erscheinen wollen, geben sie später oft auch unverschämten Forderungen nach. (Literarisch wurde dieses Phänomen von Max Rudolf Frisch, 1911 - 1991, in Biedermann und die Brandstifter beschrieben; vgl. a. u.1 Kognitive Dissonanz und Selbstwahrnehmungstheorie und u.2 Ingratiation)
° Einstellungsveränderung: Sie erfolgt auf rationaler oder emotionaler Grundlage, je nachdem, worauf die bisherige Einstellung des Adressaten beruht.
° Kognitive Umstrukturierung: Damit sind Vorgänge im Rahmen von Psychotherapien gemeint, die dysfunktionale Überzeugungsmuster aufbrechen wollen (vgl. o. Kognitive Verhaltenstherapie).
° Suggestivfragen: Sie suggerieren eine bestimmte Ansicht oder Handlungsweise und enthalten die Antwort implizit.
° Quellenmerkmale: Der Einsatz äußerlich attraktiver, kompetent und vertrauenswürdig wirkender Personen, die ihre Botschaft nicht als Beeinflussungsversuch erscheinen lassen und von denen sich die Rezipienten abgeholt und verstanden fühlen, erhöht die Chance auf eine Einstellungsänderung auch dann, wenn manche dieser Merkmale nur vorgetäuscht sind. (Vgl. z. B. den Einsatz von Testimonials - also, Zeugen, Fürsprecher - in der Produkt- oder der politischen Werbung)

Wenn man die Wirkung einer übermittelten Botschaft bewerten will, ist zusätzlich (auch z.B. für unterrichtende Lehrer) die 7-38-55-Formel des iranischstämmigen US-amerikanischen Psychologen آلبرت محرابیان / Albert Mehrabian (*1939) zu beachten: nur 7% der Nachrichtenwirkung seien im Durchschnitt auf den Inhalt, 38% auf die Stimme und 55% auf die Körpersprache zurückzuführen. (Zu Werbepsychologie s. o.)

* Digitalisierung und die Theorie der Echokammern (Filterblasen) von Eli Pariser (*1980): Kommunikation im Internet, vor allem in den (a)sozialen Netzwerken, tendiere dazu, aufgrund der Personalisierung der Webinhalte („Micro-Targeting“, das v. a. in der Werbung ausgenützt wird) selbstverstärkend nur solche Informationen zu liefern, deren Inhalte und Aussagen ohnehin dem User nahe seien und ihn so in seinen Ansichten bestärken. Auf algorithmischen Voraussagen beruhende, im Hintergrund mitlaufende Benutzermodelle führten automatisch in eine Echokammer, in die man hineinrufe und aus der dasselbe wieder heraushalle. In der Isolation dieser Filterblase würden Standpunkte, die nicht denen der User entsprechen, allmählich geschwächt, da sie nicht mehr mit den eigenen Ansichten konfrontiert würden. So entstehe eine einseitige Information, die kontroverse Aspekte allmählich verschwinden lasse und zu einer Diskursverarmung führe.

Eine ähnliche Selbstverstärkung hat Elisabeth Noelle-Neumann, 1916-2010, in ihrer Theorie von der Schweigespirale schon in den 1970er-Jahren beschrieben, nach der Minderheitenmeinungen dadurch allmählich in den Hintergrund gedrängt würden, dass ihren Vertretern aus Isolationsfurcht der Widerspruch zur Mehrheitsmeinung unangenehm werde. Die Gate-Keeper-Funktion der Medien verstärke diesen Effekt.

Die rasche Entwicklung der neuen Medien - jede/r kann nun, auch bei fehlendem Vorwissen („medienmächtig, aber nicht medienmündig“), im Internet „Journalismus“ betreiben und als Teil einer neuen „redaktionellen Gesellschaft“ nicht mehr nur empfangend, sondern auch sendend Macht ausüben, ohne die entsprechenden Vereinbarungen oder Gesetze mangels Kontrollmöglichkeit einhalten zu müssen und ohne in Medienkompetenzen gestärkt worden zu sein - bewirkt seit der Jahrtausendwende durch die Akzeleration dieser Effekte eine immer häufigere Asymmetrie zwischen Anlass und Effekt, die eine von Bernhard Pörksen, *1969, so genannte „Skandalgesellschaft“ mit „großer Gereiztheit“ zur Folge habe. (Studien haben um das Jahr 2020 bei 50% der Bevölkerung allgemein eine erhöhte Reizbarkeit festgestellt.) Pörksen sieht die frühere Abfolge der Ereignisse: Normverletzung - Entscheidung über Publikation durch mächtige Gatekeeper - Reaktion des Publikums abgelöst durch eine einerseits zwar radikale Demokratisierung der Enthüllungs- und Empörungspraxis, die neue Themen (aber auch neue Opfer) mit sich bringe, die aber andererseits nicht mehr eingrenzbar sei und in Verbindung mit neuen Verbreitungsdynamiken und Organisationsmustern oft zu Desinformation (Fake News, die auch durch Kontextverletzung - „Sinn und Bedeutung entstehen erst durch Kontext“ - entstehen können) bei völligem Kontrollverlust in einer gespaltenen Öffentlichkeit führe. Aus der massenmedialen Mediendemokratie (der Deutungsmacht Weniger) sei die digitale Empörungsdemokratie (der Meinungskampf Vieler) entstanden, die als „5. Gewalt“ in „Konnektiven“ (unorganisierten „Organisationen“), zwischen Schwarmintelligenz und digitalem Mob changierend, das Tempo der Auseinandersetzungen beschleunige. Gezwungenermaßen sollte man sich deshalb dem Kategorischen Imperativ des digitalen Zeitalter unterwerfen: „Handle stets so, dass dir die öffentlichen Effekte deines Handelns langfristig vertretbar erscheinen (aber rechne damit, dass dies nichts nützt).“ Der klassische Journalismus unterliege im Zuge der angesprochenen Entwicklungen einem „Kult der Kurzfristigkeit“.

Der US-amerikanische Medientheoretiker Douglas Rushkoff (*1961) sprach davon, dass der Traum von digitaler Basisdemokratie zu einem Alptraum eines von Tech-Milliardären dominierten Marktes geworden sei, in dem Symbolsysteme für die Realität gehalten werden. (Vgl. Videointerview)

* Framing (im Grunde eine Technik: embodied cognition): darunter versteht man das (vom NLP, s. u., benutzte) Bestreben, durch bestimmte Einbettungen, eingängige Formulierungen und sprachliche Bilder bei der Zuhörer-/Leserschaft Gefühle auszulösen und sie in eine bestimmte Richtung assoziieren, denken und schließlich auch handeln zu lassen. Die Einbettung von (politischen) Ereignissen und Themen in subjektive Interpretationsrahmen durch massenmediale Akteure und politische Pressearbeit entspricht etwa dem so genannten „Kästchendenken“, „in ein (Denk)raster setzen“. Dabei wird eine bestimmte (politische) Thematik durch selektive Betonung und Akzentuierung (z. B. durch die wahlweise Verwendung von Wörtern wie „Junta“, „Regime“, „Regierung“, „Revolutionsrat“ etc.), sowie Attribuierung (Zuschreibung, Zuweisung) bestimmter Merkmale (z. B., wenn Medien oder Vertreter mancher politischer Parteien Migranten bewusst nur in Zusammenhang mit Kriminalität erwähnen oder Vernichtungslager Konzentrationslager genannt werden) dem Publikum auf eine bestimmte Art und Weise - oft euphemistisch - vermittelt. Die Thematik wird in den gesellschaftlichen Sachverhalt eingebettet, als Problematik definiert. Mögliche Ursachen und zugehörige Problemlösungsansätze werden vorgestellt.

Die „Frames“ sind also emotional und normativ besetzte, überwiegend unbewusst vermittelte Basisvorstellungen vom Menschen, der Gesellschaft und politischen Aufgaben. Sie bilden den Hintergrund beziehungsweise den (Deutungs)rahmen für politische Öffentlichkeitsarbeit und beeinflussen auch sonst unsere Entscheidungen. Sie werden daher laufend zur Manipulation (oder zumindest zur Verhaltensbeeinflussung) eingesetzt. Eigene „Spin-Doktoren“ versuchen dies im Bereich der Politik, den v. a. der Chomsky-Schüler George Lakoff (*1941) in Bezug auf den Einfluss verwendeter Metaphern (z. B. „Steuerflucht“, „Vater Staat“, „Zweifrontenkrieg“ etc.) untersucht hat. (Vgl. Video-Vortrag). Gelingt es in der politischen Auseinandersetzung nicht, bestimmte Ideen sprachlich umzusetzen, spricht man von Hypokognition („Was nicht gesagt wird, wird auch nicht gedacht“ und bleibt daher unwirksam), erreicht man die Menschen mit einer erfolgreichen Bildsprache, spricht man von konzeptuellen Metaphern.

          Beispiele für Framing:

°  Vgl. folgende Ausdrucksweisen: „Das Glas ist halb voll.“ vs. „Das Glas ist halb leer.“ - „Des einen Terrorist ist des anderen Freiheitskämpfer.“ - „Westjordanland“ vs. „Samaria“, „Judäa“ etc.
° 1. Beispiel-Ex. von Kahneman und Tversky („Asiatisches Krankheitsproblem“): Erste Formulierung: Bei Ausbruch einer Seuche stehen bei einer Population von 600 Menschen zwei Maßnahmen zur Auswahl. Maßnahme A rettet 200 Menschen mit Sicherheit das Leben, Maßnahme B rettet mit 33%iger Wahrscheinlichkeit alle Menschen und mit 66%iger Wahrscheinlichkeit keinen. - Zweite Formulierung: Bei Ausbruch einer Seuche stehen bei einer Population von 600 Menschen zwei Maßnahmen zur Auswahl. Bei Maßnahme C sterben 400 Menschen, bei Maßnahme D stirbt mit 33%iger Wahrscheinlichkeit keiner, allerdings werden mit 66%iger Wahrscheinlichkeit alle sterben.
Signifikant mehr Menschen wählen nach der ersten Formulierung A, nach der zweiten aber D (obwohl die Optionen völlig identisch sind und damit A=C und B=D gilt), da negative Formulierungen eher risikoaffines Verhalten, positive Formulierungen eher risikoaverses Verhalten provozieren; vgl. u. Prospect Theory.
° 2. Beispiel-Ex. von Kahneman: Erste Formulierung: „Würden Sie eine Lotterie eingehen, die eine 10%ige Chance, 95 $ zu gewinnen, und eine 90%ige Chance, 5 $ zu verlieren, bietet?“ - Zweite Formulierung: „Würden Sie 5 $ bezahlen, um an einer Lotterie teilzunehmen, die eine 10%ige Chance, 100 $ zu gewinnen, und eine 90%ige Chance, nichts zu gewinnen, bietet?“
Signifikant mehr Menschen als bei der ersten steigen bei der zweiten Formulierung ein (obwohl die Lotterien völlig identisch sind), da Kosten weniger negative Gefühle evozieren als Verluste; vgl. u. Prospect Theory.
° Auch die Tatsache, dass es in Österreich weit mehr Organspender als in Deutschland gibt, lässt sich auf Framing zurückführen: Österreicher/innen müssen aktiv werden, wenn sie nach ihrem Tod nicht Spender/in sein wollen, Deutsche müssen aktiv werden, wenn sie Spender/in sein wollen. Der deutsche Deutungsrahmen stellt Organentnahme als etwas Negatives hin. Die unterschiedliche Standardoption verändert bei gleicher psychischer Ausgangsposition das Verhalten nachhaltig. (Es handelt sich gleichzeitig um eine Form von Nudging - s. o. - da die unterschiedlichen, vorgegebenen Standardantworten auf die gestellte Frage die gewählte Option nachhaltig beeinflussen.)
° Nach einer Untersuchung forderten (über einen Zeitraum von 100 Jahren) Wirbelstürme, die mit weiblichen Namen benannt wurden, signifikant mehr Tote als solche, die mit männlichen Namen benannt wurden (offenbar deshalb, weil sie aufgrund eines zugrunde liegenden Denkrasters als weniger bedrohlich angesehen wurden und Evakuierungsmaßnahmen oft zu spät kamen). Vgl. a. o. Sapir-Whorf-Hypothese
° Ex.: Die Frage, ob sie „Epileptiker/innen“ einstellen würden, bejahten in einer Untersuchung 20% der befragten Unternehmer/innen, die Frage, ob sie „Menschen mit Epilepsie“ beschäftigen würden, hingegen 40%.
° Ex.: In ein Flugzeug, das „zu 97% sein Ziel unfallfrei erreicht“, würden mehr Leute einsteigen als in eines, das „in 3% der Fälle abstürzt“.
° Aktuelle Beispiele: „EURO-Rettungsschirm“, „Flüchtlingswelle“, „Islamischer Staat“, „Klimawandel“ etc. (ein Schirm schützt, eine Welle bedroht, „Staat“ signalisiert Ordnung, „Wandel“ insinuiert Normalität etc.).

* Postfaktisches Zeitalter, Feelings-as-information-theory: Norbert Schwarz (*1953) untersuchte die Frage, wie Menschen den Wahrheitsgehalt von Informationen überprüfen. Seine Gefühl-als-Information-Theorie besagt, dass bei der Urteilsbildung über ein Objekt zunächst plausible Kriterien eine Rolle spielen (Kompatibilität mit anderen Informationen, interne Konsistenz, Überprüfung eines sozialen Konsensus, Glaubwürdigkeit der Quelle, Vorhandensein unterstützender Evidenz etc.), darüber hinaus aber entscheidend Gefühle, z. B. momentane Stimmungen, als Information einfließen würden. Auch schnelle Zugänglichkeit (z. B. durch deutliche Schriftarten o. ä. oder im Ex., wenn Vpn., die sechs Situationen aufzählen sollen, in denen sie sich als selbstsicher erwiesen haben, sich auch subjektiv selbstsicherer fühlen als solche, die - was weit schwieriger ist - zwölf Situationen aufzählen sollen) und einfache Überprüfbarkeit erhöhten die Bereitschaft, etwas für wahr zu halten (vgl. o. Moses-Illusion). Die Sensibilität für subjektive Erfahrungen sei weit höher als die für die Frage nach Informationsquellen. Im so genannten postfaktischen Zeitalter zählt der emotionale Effekt einer Aussage mehr als ihr Wahrheitsgehalt. (Dieser Begriff tauchte erstmals 2016 analog zu engl. post-truth oder post-fact/ual in einer Rede der deutschen Bundeskanzlerin Angela Merkel, geb. Kasner, *1954, dann - noch im selben Jahr - immer wieder im Zusammenhang mit dem US-Wahlkampf und dem Brexitreferendum auf und wurde in Deutschland zum Wort des Jahres 2016 gewählt; vgl. a. o. Bullshit.) Der Wert von Wahrheit überhaupt wird dadurch torpediert, wodurch ein auf Argumente setzender (und auch ein ideologiefreier, rein faktenorientierter technokratischer) Politikstil immer weniger Chancen hat. Stattdessen werden beim Wahlvolk Emotionen adressiert und „gefühlte Wahrheiten“ unter Ausnutzung kognitiver Verzerrungen evoziert oder durch oftmalige Wiederholungen kontrafaktische „Wahrheiten“ in die Köpfe der Rezipienten „eingepflanzt“ (gemäß dem nach dem amerikanischen Soziologenehepaar Dorothy Swaine Thomas (1899–1977) und William Isaac Thomas (1863–1947) benannten Thomas-Theorem: „Wenn man etwas für wirklich hält, dann handelt man auch so, als ob es wirklich wäre“ - das Verhalten ist von der Situationsdefinition abhängig). Das wichtigste Ziel ist dabei das Erregen von Aufmerksamkeit. Die nun entstehenden Empörungswellen über den snU (strategisch notwendigen Unsinn; der Begriff stammt vom österreichischen Kommunikationsberater Gerald Fleischmann, *1973) bewirken selbst wieder Aufmerksamkeit und halten das System am Laufen. Dass auch die Macht des Wissens die Demokratie indirekt gefährden kann, wenn wissenschaftliche mit politischen oder moralischen Fragen verwechselt bzw. diese durch jene ersetzt werden, beschrieb 2021 Alexander Bogner (*1969) in seinem Buch Die Epistemisierung der Politik.

 

- Defizithypothese:
* 2 Sprachausformungen (tendenziell durch die soziale Schicht determiniert, daher milieuabhängig) werden von Basil Bernstein (1924-2000; gilt als einer der Begründer der Soziolinguistik, die die soziale, politische und kulturelle Bedeutung von Sprache untersucht) unterschieden:

° formal speech, elaborierter Code: Oberschicht, hypotaktisch, großer Wortschatz (viele Adjektiva und Adverbien), kreativ, originell, grammatikalisch komplex, Möglichkeit, Gefühle und Gedanken zu formulieren, auch zu abstrahieren, Verwendung unpersönlicher Pronomina, kontextunabhängig, komplexe Begriffshierarchie, Trennung von Tatsachenfeststellungen und Begründungen usw.
° public speech, restringierter Code: Unterschicht, parataktisch, geringer Wortschatz, unvollständige, kurze Sätze (Fragen, Befehle), kontextgebunden, voraussagbar, stereotype, traditionelle Wendungen, Tatsachenfeststellungen als Begründungen, erwartete Antwort implizit in Frage enthalten usw.

          Laut Bernstein folgende Merkmale:

Bernsteins Codes: Gegenüberstellung

elaborierter Code restringierter Code

1. Die logische Modifikation und der logische Akzent werden durch eine grammatisch komplexe Satzkonstruktion vermittelt, vor allem durch die Verwendung von Konjunktionen und Nebensätzen.

2. Häufiger Gebrauch von Präpositionen, die sowohl rein logische Beziehungen als auch zeitliche oder räumliche Nähe anzeigen.

3. Häufige Verwendung der unpersönlichen Pronomen „es“ und „man“.

4. Diskriminierende Auswahl aus einer Reihe von Adjektiven und Adverbien.

5. Der expressive Symbolismus, der durch diese sprachliche Form bedingt wird, verleiht dem Gesagten weniger logische Bedeutung als affektive Unterstützung.

6. Die individuelle Qualifikation wird verbal durch die Struktur und die Beziehungen innerhalb und zwischen den Sätzen vermittelt. Die subjektive Absicht wird unter Umständen in Worten erläutert.

7. Es handelt sich um eine Form des Sprachgebrauchs, die auf die Möglichkeiten hinweist, die einer komplexen begrifflichen Hierarchie inhärent sind und die Organisation der Erfahrung erlauben.

1. Kurze, grammatisch einfache, oft unfertige Sätze von dürftiger Syntax, die meist in der Aktivform stehen.

2. Verwendung einfacher und immer derselben Konjunktionen („so“, „dann“, „und“).

3. Häufige Verwendung kurzer Befehle und Fragen.

4. Seltener Gebrauch der unpersönlichen Pronomen „es“ und „man“.

5. Starre und begrenzte Verwendung von Adjektiven und Adverbien.

6. Die Feststellung einer Tatsache wird oft im Sinne einer Begründung und einer Schlussfolgerung verwendet, genauer gesagt, Begründung und Folgerung werden durcheinandergeworfen, und am Ende entsteht eine kategorische Feststellung, wie „Du gehst mir nicht aus dem Hause“; „Lass das in Ruhe“.

7. Die individuelle Auswahl aus einer Reihe traditioneller Wendungen oder Aphorismen spielt eine große Rolle.

8. Feststellungen werden als implizite Fragen formuliert, die dann eine Art Kreisgespräch auslösen, bei dem sich die Gesprächspartner ihrer gegenseitigen Sympathie versichern, das heißt, man redet in gegenseitiger Übereinstimmung im Kreis herum. Zum Beispiel: „Stell dir vor! - Das hätte ich nicht gedacht!“. Oder: „Na, was sagen Sie von der Lotte? - Ist ein schlimmes Unglück. - Haben Sie recht. Ist wirklich ein schlimmes Unglück. Und die armen Eltern. - Ja, die armen Eltern. Was dachte sich das Mädchen dabei? - Dachte sich gar nichts, tat eben, was sie wollte. - Ein Unglück nenne ich das, ein schlimmes Unglück für das ganze Haus.“

9. Der Symbolismus hat niedrigen Grad der Allgemeinheit.

10. Die persönliche Qualifikation wird aus der Satzstruktur weggelassen oder ist nur implizit vorhanden, folglich wird die subjektive Absicht nicht mit Worten explizit gemacht oder erläutert.

zit. nach Kurt A. Heller (*1931), Intelligenz und Begabung (= Studienhefte Psychologie in Erziehung und Unterricht). München, Basel 1976

* Maßnahmen: kompensatorischer Sprachunterricht in der Schule, der die mitgebrachten Unterschiede (Sprachbarrieren) beseitigen soll. Problem: Kinder sind zu diesem Zeitpunkt schon relativ alt, viele irreversible Entscheidungen sind bereits gefallen. Der Unterschied in der Anzahl der Wörter, die ein „Oberschichtkind“ im Unterschied zu einem „Unterschichtkind“ zum Zeitpunkt der Einschulung bereits gehört oder gelesen hat, wurde 2003 in einer amerikanischen Studie nach zweieinhalbjähriger Beobachtung in Summe auf 30 Millionen geschätzt! (Mehrfach rezipierte Wörter wurden auch mehrfach gezählt.) Dieser „30-million-word-gap“ wurde von den Autoren Betty Hart, geb. Bettie Mackenzie Farnsworth (1927-2012) und Todd R. Risley (1937-2007) als „the early catastrophe“ bezeichnet, unter der die Kinder ein Leben lang leiden würden. Bereits dreijährige Kinder in upper SES (socioeconomic status) families kannten und beherrschten mehr als doppelt so viele Wörter wie ihre Altersgenossen in welfare families.

Nachlässigkeiten - selbst in der von öffentlichen Medien verwendeten Sprache -, die restringierte Sprecher übernehmen, da sie von diesen gar nicht als Fehler erkannt werden (können), verstärken die Diskrepanzen immer mehr. (Beispiele: Ignorieren des Genitivobjekts nach Verben wie „gedenken“: „Wir gedenken DEN Toten“ statt - korrekt - „DER Toten“ oder das Verwechseln von Dativ und Akkusativ: „Es geht auch ohne DEM“ statt „ohne DAS“, „Es kostet IHM das Leben“ statt „IHN“, „Das kommt IHR teuer zu stehen“ statt „SIE“) u. v. a. m.

Bernsteins Konzept wurde z. B. von William Labov (1927-2024) kritisiert, der ihm seine Differenzhypothese bzw. einen emanzipatorischen Sprachunterricht gegenüber stellte.

 


 


VII. LERNEN UND GEDÄCHTNIS
 

 

Lernen wird manchmal additiv als Erfahrungszuwachs von Einzelwesen, manchmal als Merkmal alles Lebendigen auf verschiedenen Ebenen (von der pflanzlichen über die tierische zur menschlichen) gesehen, das nicht nur Individuen, sondern auch Gruppen, Organisationen oder der Gesellschaft überhaupt möglich ist. Physiologisch bedeutet Lernen Veränderung (Stärkung) der benutzten Synapsen. Diese Vorgänge beginnen bereits lange vor der Geburt, wie inzwischen in zahlreichen Ex.en nachgewiesen werden konnte.

Vgl. zu diesem Abschnitt z. B. Das Lernen lernen, Einführung in die Kognitive Psychologie (Lernprogramm über Gedächtnis u. a.), Das Gedächtnis, Lerntheorien

 

DEFINITIONEN

* Lernen - ein konstitutives Merkmal von Leben und letztlich ein permanenter Gehirnzustand, den man gar nicht verhindern kann - wird behaviouristisch (im Gegensatz zur Reifung, s. o., der Veränderung aufgrund endogener Entwicklungsursachen) als Verhaltensänderung auf Grund von Erfahrung, kognitiv als (Um)strukturierung von Information, konstruktivistisch als gedächtnisbasierte Wissenskonstruktion und im engeren Sinn als systematisches Wiederholen verstanden. Die moderne Hirnforschung würde Lernen als Ursache für erworbene Gehirnveränderungen durch Außenwelteinwirkung (als Folge Entstehung von Repräsentationen; Stärkung der Synapsen etc.) definieren, die weiteres Lernen erleichtern. Man unterscheidet implizite (automatische, unbewusste) von expliziten (intentionalen, bewussten) Lernvorgängen.
(S. a. o.1 und o.2)

* Gedächtnis ist die Wirkung vergangener, zwischenzeitlich möglicherweise nicht mehr bewusster Erlebnisse und Verhaltensweisen auf das spätere Erleben und Verhalten.

* Vergessen ist die Abnahme der Wirksamkeit einer sich selbst überlassenen Einprägung im Laufe der Zeit.
Vgl. Vergessen (Univ. Linz)

 

LERNEN IM KOGNITIVEN BEREICH

In diesen Bereich fällt alles, was man mit dem Begriff „schulisches Lernen“ verbindet. Das Wort kognitiv leitet sich vom lat. „cognoscere“ („erkennen“) ab und bezeichnet die geistige Leistungsfähigkeit des Menschen im Zusammenhang mit der Verarbeitung von Informationen. Die Gehirne von Menschen sind von Geburt an (tw. schon davor) in der Lage, Regeln und Muster zu detektieren, zu speichern und anzuwenden, indem sie täglich Tausende von Beispielen verarbeiten. (Dies geschieht meist unbewusst: „Wir können viel und wissen wenig“, z.B. die Regeln der Grammatik; Manfred Spitzer.) Gehirne machen also von jeher das, was seit Anfang des 21. Jhdts. auch die KI (s. o.) kann: es lernt anhand von Millionen und Abermillionen Daten, die es im Laufe des Lebens verarbeitet, und optimiert so sein Ergebnis. (Bleiben die Daten aus - z. B. wenn Kinder realen Menschen selten, sprechenden Bildschirmgesichtern aber häufig begegnen, werden diese Ergebnisse später leiden.)

Die Frage, ob Hilfsmittel die Leistungsfähigkeit kognitiver Funktionen einschränkten (z. B. heute Navigationsgeräte die Orientierungsfähigkeit oder der Taschenrechner bzw. Computer die Kalkulationsfähigkeit) wurde schon in der Antike diskutiert. Sokrates / Σωκράτης, 469-399 v. Chr. - s. u. - sagt laut Platon / Πλάτων; 428/7-348/7 v. Chr. - s. u. -, einen Gott zitierend, im Dialog Phaidros / Φαίδρος in Bezug auf die Erfindung der Schrift in Zusammenhang mit der Merkfähigkeit: Denn diese Kunst wird Vergessenheit schaffen in den Seelen derer, die sie erlernen aus Achtlosigkeit gegen das Gedächtnis, da die Leute im Vertrauen auf das Schriftstück von außen sich werden erinnern lassen durch fremde Zeichen, nicht von innen heraus durch Selbstbesinnen. (Konsequenterweise hat Sokrates keine Schriften hinterlassen.)

 

- Definition und Allgemeines:
* Der kognitive Bereich ist jener Bereich, in dem Informationen verarbeitet werden (Gedächtnisleistungen, Wissenserwerb, Gedanken, Vorstellungen, Assoziationen etc). Lernen in diesem Bereich beruht auf energieaufwändigen Umverknüpfungen im Gehirns (das dazu zehnmal mehr Energie benötigt, als ihm aufgrund seines Volumens zustünde und daher das Lernen zunächst scheut) und wird im Idealfall dadurch am besten gefördert, dass man in den ersten zwei bis drei Lebensjahren (unabhängig von materiellem Wohlstand) in einem bildungsaffinen Elternhaus mit ruhiger, klarer Kommunikation aufwächst und später vertrauenswürdigen, kompetenten Lehrpersonen konzentriert zuhört. (Die berühmte metaanalytische Hattie-Studie (s. a. o.) des neuseeländischen Bildungsforschers John Hattie, *1950, wies nach, dass 30% bis 40% des Lernerfolgs in der Schule - unabhängig von allen anderen Variablen - auf Lehrpersonen zurückzuführen sind.) Dabei gilt: „Die Anhäufung von Wissen und Können ist mindestens genauso wichtig wie schnelles Aufgewecktsein [also Intelligenz; Anm.]. Positive frühkindliche Bindungserfahrung und frühe sensorische, kognitive und kommunikative Erfahrung sind die besten Faktoren für den Bildungserfolg.“ (Gerhard Roth; s. a. o.)

* Das Gedächtnis enthält zwei Aspekte: Speichern und Abrufen; es ermöglicht:

° Einprägen (Enkodierung)
° Behalten, Speichern (Retention)
° Erinnern, Abrufen (Recall)
° Wiedergeben (Reproduzieren)
° Wiedererkennen (Rekogniszieren) von Bewusstseinsinhalten mit dem perzeptuellen Gedächtnis

Neurowissenschaftlich lässt sich aufgrund von während des Lernvorgangs angefertigten Hirnscanbildern bis zu einem gewissen Grad voraussagen, welche Elemente einer Lernreihe ein Proband wiedergeben wird können. (War z. B. gleichzeitig die Amygdala, das Angstzentrum, aktiv, sinkt die Chance einer positiven Beantwortung.) Der subsequent memory effect lässt eine Korrelation mit spezifischen Hirnarealen zu.

Man unterscheidet (nach Ludwig Goldscheider, ????-19?? und Elise Pilek, ????-19??: 1932 in Zur Systematik des Gedächtnisses; zusammen mit Brunswik; s. o.):

° Materialgedächtnis
° Gestaltgedächtnis
° Sinngedächtnis

bzw. LTM und STM (s. u.) und innerhalb des Langzeitgedächtnisses in der heutigen Terminologie zwei Inhaltsformen, die in unterschiedlichen Hirnarealen gespeichert werden: explizite, also semantische oder episodische Inhalte, und implizite, also prozedurale oder perzeptuelle Inhalte (s. u.).

* Neuroplastizitätshypothese (vgl. a. hier): Forschungen (ca. ab 1990) von William M. Jenkins, *1950?, Spitzer - s. o. - u. a. (vgl. a. Video „Wie lernen Kinder“) legen nahe, dass die Lebenserfahrung des Menschen (also das Lernen) die Stärke der Synapsen festlegt und es daher nicht egal ist, mit welchen Inputs man aufwächst. Das Drüberlaufen von Impulsen verändert die Feinstruktur unseres Gehirnes - besonders stark in den ersten drei Lebensjahren, mit zunehmendem Alter als Feinjustierung langsamer - sowohl auf der synaptischen wie auf der kortikalen Ebene fortlaufend. Diese (inzwischen abgesicherte) Annahme wurde Neuroplastizitätshypothese genannt. Sie wurde zunächst von William James (1842-1910) ohne Grundlage hellsichtig postuliert und 1948 von Jerzy Konorski (1903-1973) und 1949 von Donald O. Hebb (1904-1985) beschrieben bzw. vermutet. Letzterer formulierte 1973 erstmals die biochemische Hebb'sche Lernregel, nach der die long term potentation LTP der long term depression LTD entgegenwirke, sodass eine Erhöhung des Synapsengewichts bewirkt werde. Die Signalübertragung funktioniere durch Langzeitpotenzierung immer besser.

Synapsen ändern sich, wenn sie aktiv sind, also benutzt werden. Werden zwei Neuronen zur gleichen Zeit aktiviert, nehmen sie an Stärke zu: „Neurons wire together if they fire together“ (im Laufe des Lebens werden die Verbindungen nicht mehr, sondern stärker). Der Nachweis der Synapsenstärkung als Grundlage des Lernens führte 2000 zum Medizinnobelpreis für Eric E. Kandel (*1929). Jede Aktion oder Erfahrung erzeugt ein spezifisches Muster an Neuronenverbindungen. Die Hirnbeschaffenheit ist also nicht nur eine Frage der Intelligenz, sondern auch der domänenspezifischen Kompetenz. Das Gehirn wird besser, wenn man es benützt, vor allem (aber nicht nur) in den ersten Lebensjahren. Auch Psychotherapieerfolge bestehen in einem „Überlernen“ alter Verdrahtungen; an der Basisverschaltung kann allerdings nichts mehr geändert werden, sodass man mit lebenslangen Schwierigkeiten rechnen muss.

Vgl. dazu folgende Exe.: Bei Londoner Taxifahrern mit langjähriger Praxis fand man (noch vor der Zeit der Navigationsgeräte) das Hirnareal für räumliches Vorstellungsvermögen bzw. Orientierung im Raum vergrößert. Ähnliche Effekte wies für das logische Denken die Universität Graz bei Schachspielern nach. (Vgl. Spitzer: „Ist also [...] erst einmal klar, dass das Gehirn gar nicht anders kann, als dauernd zu lernen, dann ist ebenso klar, dass gelernt wird, womit Zeit verbracht wird.“ Daraus folgt, dass Eltern darauf achten sollten, womit ihre Kinder im Laufe des Heranwachsens konfrontiert werden. Denn „Einseitigkeit der Erfahrung wird Einseitigkeit des Denkens produzieren.“)

Ein weiterer Beweis für die Neuroplastizität wurde durch die Raumfahrt entdeckt: In der Schwerelosigkeit nimmt die weiße Masse des Gehirns zu. (Prinzipiell unterscheidet man im Zentralnervensystem ZNS die graue Substanz - Substantia grisea; Nervenzellenkörper = Perikaryen - von der weißen Substanz - Substantia alba; Leitungsbahnen, Nervenfasern).

* Effizienzhypothese: Ein Ergebnis der Beschäftigung der Neurowissenschaften mit „gehirngerechtem“ Lernen in den drei relevanten Aufgabenfeldern (kognitiv, kreativ, sozial) war, dass die Hirne intelligenter Menschen beim Lernen oder Problemlösen prinzipiell nicht härter, sondern effizienter arbeiten. Sie verbrauchen für die Bewältigung der ihnen gestellten Aufgaben weniger Energie, „müssen sich weniger anstrengen“ (Neurale Effizienzhypothese; bereits 1988 von Richard J. Haier, *1949, untersucht). Diese Effizienz bereits bestehender neuronaler Verbindungen (die meisten Hirnforscher würden sagen: und nur sie) lässt sich auch bei erwachsenen Menschen durch Lernen noch steigern.

 

- Gedächtnis:
Gedächtnis (bzw. Mnestik von griech. μνήμη) bezeichnet die Fähigkeit, Informationen aufzunehmen, miteinander zu verbinden, zu speichern, in Erinnerungen abzurufen und umzuwandeln. Es handelt sich um eine, aber nicht die einzige Funktion des Gehirns. (Vgl. François VI. de la Rochefoucauld, 1613-1680: „Jeder klagt über sein mangelhaftes Gedächtnis, aber niemand über seinen mangelhaften Verstand.“)
Vgl. Wie Erinnerung funktioniert (WDR), Gedächtnis, Memory Test, Vortrag Kandel (s. o.)

* Inhalte: Man unterscheidet (s. o.):

° explizites (deklaratives) Gedächtnis: Wissensgedächtnis; gliedert sich in ein semantisches (für personenunabhängiges Wissen, Fakten) und episodisches (für Autobiographisches, persönliche Erinnerungen, Quellen) Gedächtnis (Unterscheidung von Endel Tulving, 1927-2023). Die Ich-Perspektive wird durch den im Scheitellappen befindlichen Praecuneus beigesteuert. Sie gewährleistet Anschlussfähigkeit an die eigene Lebenssituation. Dieselben Hirnteile, die das episodische Gedächtnis steuern, sind auch für Zukunftsvorstellungen verantwortlich und ermöglichen episodische Voraussicht.
° implizites Gedächtnis: Verhaltensgedächtnis; speichert prozedural bewusstseinsbegleitete Handlungsabläufe, Routinen und Gewohnheiten (wie die Gesichteserkennung, Gehen, Radfahren, die automatisch ausgeführt werden können), aber auch Wahrnehmungen (erkennt perzeptuell wieder, unterliegt dem Priming-Effekt; s. u.) und Konditionierungen.

* Funktion: Das Gedächtnis ist einem Speichersystem (Arbeits- und Dauerspeicher) mit ausreichend vorhandenem Speicherplatz vergleichbar (Dichotomische Speicherhypothese; s. u.). Im Unterschied zum Computer ist aber Input nicht gleich Output, alles wird subjektiv eingefärbt. Informationen können nicht über einen Download erhalten werden, sondern bleiben dann hängen, wenn sich das Gehirn mit ihnen wiederholt auseinandergesetzt bzw. Gedanken in die Tat umgesetzt hat. Die Funktionsweise des menschlichen Gedächtnisses ist nicht restlos geklärt, die angenommenen Veränderungen des Nervensystems nennt man Engramme. Grundlage scheinen biochemisch-elektrische Vorgänge, Synapsenverstärkungen und morphologische Veränderungen im Gehirn zu sein. Stark beteiligte Hirnregionen sind der Cortex, die Amygdala und der (bei Frauen größere) Hippocampus, dessen Regionen mit CA1 bis CA4 bezeichnet werden (wichtig sind nur die ersten drei). Der Hippocampus - er enthält z. B. Ortszellen / place cells für die räumliche Orientierung - prägt sich alles Neue und Bedeutsame ein und produziert neuronale Repräsentationen, die für die Einspeicherung ins Langzeitgedächtnis notwendig sind. (Für Prozedurales ist er nicht unbedingt notwendig.) In mehreren Neuronenkreisen zirkulieren die Informationen zwischen den anatomischen Strukturen - je länger, desto eher können sie dauerhaft abgespeichert werden. (Diese Tatsache erfordert vom Lernenden viele Wiederholungen.)

Vor der Ausreifung des Gehirns herrscht infantile Amnesie (Begriff von Freud), die aber auch in einem Zugriffsproblem bestehen könnte. Die ersten gesicherten Erinnerungen reichen oft nur bis zum 3. bis 4. Lebensjahr oder noch später zurück. Im Laufe des Lebens kann das Gedächtnis durch Läsionen und vor allem altersbedingte Degenerationserscheinungen (z. B. die Alzheimer-Erkrankung; s. o.) Schaden erleiden. Auch in der Kindheit erworbene Fehlverdrahtungen und falsche Konditionierungen können nicht mehr gelöscht werden, sodass jedes Neulernen (z. B. im Rahmen einer Therapie) ein Überlernen ist und nicht mit der Löschung der alten Gedächtnisinhalte rechnen darf. Prinzipiell verschwindet Gelerntes nicht einfach (Ex.: Vpn., die eine während ihrer Schulzeit erlernte Ballade wiedererlernen sollen, benötigen dafür weniger Zeit als die Kg., die den Text zum ersten Mal erlernt; der Inhalt muss also irgendwo noch vorhanden sein, auch wenn er subjektiv vergessen war), der Zugang zum Gespeicherten kann jedoch verlegt sein bzw. werden: z. B. unter Stress in Prüfungssituationen oder - besonders dramatisch - bei der oft durch Schockerlebnisse ausgelösten dissoziativen Amnesie, bei der das Gedächtnis scheinbar verloren geht. Umgekehrt kann bei Gehirnerschütterungs- oder Schlaganfallopfern manchmal beobacht werden, dass bereits „Vergessenes“ plötzlich reproduziert werden kann.

Frühere Theorien, wie die Spurenzerfallstheorie, scheinen durch folgendes Ex. von Irvin Rock (1922-1995) obsolet zu sein: Er bewies 1957, dass es beim Lernen keine Spurenbildung gibt, sondern das Alles-oder-Nichts-Gesetz wirksam wird:

° 1. Phase: Die Vp lernt 12 Paare sinnloser Silben (s. u.). Nach 10maliger Darbietung werden im ø 8 Treffer erzielt, wenn der 2. Paarling zum ersten assoziiert werden soll.
° 2. Phase: Die Vp wird bereits im 2. Durchgang geprüft. Richtig beantwortete Paare erscheinen im 3. Durchgang wieder, falsche werden durch ein völlig neues Paar ersetzt mit dem Ergebnis, dass nach 10 Runden wieder im ø 8 Treffer erzielt werden.
° 3. Phase: Sie verläuft wie die 2. Phase, es wird jedoch bei einer falschen Antwort nur der 2. Paarling, nicht das gesamte Paar ersetzt. Das Ergebnis (neuerlich ø-lich 8 Treffer nach 10 Durchgängen!) beweist das Alles-oder-Nichts-Gesetz, da bei Spurenbildung aufgrund der assoziativen Gedächtnishemmung (s. u.) die Lernleistung gelitten haben müsste.

Das Gehirn arbeitet (im Unterschied zu digitalen Systemen) immer selektiv: gespeichert wird nur, was zukünftige Bedeutung haben könnte, was assoziiert werden kann oder was emotionalen Gehalt hat. (Vgl. z. B. die von Roger William Brown, 1925-1997, erforschten Flashbulb Memories, also aufwühlende, oft historische Momente wie der Kennedymord, 9/11, die Olympiaskiabfahrt 1976 etc., von denen man oft noch Jahre später den eigenen Standort, die Situation, den Übermittler der Nachricht, die eigenen oder fremden emotionalen Reaktionen und das, was nach der Situation passierte, erinnern kann.)

Wer sich zu sehr auf digitale Speicher in Computern verlässt, anstatt das eigene Gedächtnis zu bemühen, läuft Gefahr, zu früh statt über Antworten über Suchstrategien nachzudenken (wie dies Digital Natives - die oft Digital Naïves sind - tun, die zudem oft an mangelndem Vorwissen leiden und deshalb unzureichende Suchalgorithmen anwenden - im Unterschied zu Digital Immigrants, deren diesbezügliche Vorgangsweise oft aufgrund einer breiten Bildungsgrundlage zielführender erscheint). Differenziertes Vorwissen ermöglicht auch eine differenziertere Weltbetrachtung, da unser Gehirn keine Festplatte, sondern eine Einheit aus Soft- und Hardware ist. (Informationen nach einem Vortrag des deutschen Biologen Martin Korte, *1964)

Außerdem ist zu beachten, dass Erinnerungen wieder hervorgerufene Befindlichkeiten des Gehirns in der Vergangenheit darstellen und somit weder konstant noch verlässlich sind. Sie werden durch nachträgliche Einsicht verzerrt (= Hindsight Bias, Rückschaufehler - s. o. -, eine der kognitiven Verzerrungen, die uns meist nicht bewusst sind). Ihre Unzuverlässigkeit kann durch widersprüchliche Zeugenaussagen (die nicht bewusste Lügen darstellen, sondern nach bestem Wissen und Gewissen gemacht wurden - jede Erzählung, also auch jede Zeugenaussage, verändert zudem zusätzlich die Erinnerung, wobei phantasierte Erinnerungen oft mit einer Aktivität hinterer Hirnrindenareale korrelieren) jederzeit bewiesen und durch den Desinformationseffekt verstärkt werden. (Informationen nach dem Ereignis bzw. die Situation der Befragung - z. B. bei Kindesmissbauch, Autounfällen etc. - können die Erinnerung nachhaltig verfälschen; untersucht von Elizabeth Loftus, *1944; ; vgl. Video). Allein die oftmalige Wiederholung falscher Erinnerungen (meist in gutem Glauben) bewirkt, dass sie schließlich für wahr gehalten werden. Der Kommunikationstheoretiker Walter Fisher, 1931–2018, hält den Menschen weniger für einen Homo sapiens als für einen Homo narrans (dazu vgl. a. o.). Laut der Kriminalpsychologin Julia Shaw (*1987) kann unser Gedächtnis wie Wikipedia von uns selbst, aber auch von anderen beeinflusst und „umgeschrieben“ werden, Erinnerungen können „eingepflanzt“ werden. (Zur Unterscheidung von Wiedererinnern und Wiedererleben s. o.)

Daniel Schacter (*1952) entdeckte

          Sieben Sünden des Gedächtnisses:

° Vergänglichkeit (transience): Ganz allgemein verschwinden Gedächtnisinhalte, wenn sie lange nicht aufgerufen werden.
° Geistesabwesenheit (absentmindedness): Zerstreutheit beim Einspeichern der Information bewirkt schlechte Wiedergabeleistungen. (Konzentration beim Aussteigen aus dem eben auf der Straße oder im Parkhaus abgestellten Auto erhöht z. B. die Wahrscheinlichkeit des schnellen Wiederfindens.)
° Blockierung (blocking) der Wiedergabe kann dadurch entstehen, dass andere Inhalte das Gehirn beschäftigen (s. a. u.).
° Zuordnungsfehler (misattribution): Ein an sich richtig reproduzierter Inhalt kann einer falschen Quelle zugeordnet werden.
° Suggestibilität (suggestibility): Die die Erinnerung auslösenden Faktoren können die Wiedergabe verzerren (vgl. o.).
° Voreingenommenheit (bias): Die Verzerrung erfolgt durch die Weltanschauung des Erinnernden bzw. seine Gefühle im Moment der Erinnerung. (Zu sonstigen Verzerrungen s. o.)
° Beharrlichkeit (persistence): Sie verhindert, dass wir Erinnerungen loswerden können (z. B. bei PTBS: s. u. oder Perseverationen: s. u.).

Das Gehirn erinnert sich also nicht 1:1 an vergangene Ereignisse, sondern trifft zusätzlich Wahrscheinlichkeitsannahmen, die unbewusst in die später erzählten Geschichten einfließen werden. Insgesamt überschätzen wir daher den Wahrheitsgehalt der von uns wiedergegebenen Gedächtnisinhalte. Erklärung (nach Kahneman): Die Verwechslung von Erinnerung und Erfahrung sei eine zwingende kognitive Illusion, da das erlebende Selbst keine Stimme habe und nur das erinnernde Selbst, allerdings fehlerhaft, Buch führe. (Vgl. Jan Philipp Reemtsma, *1952, in Im Keller, dem Bericht über seine Entführung: „Was Sie im Folgenden lesen können, ist so passiert - oder doch wenigstens so erinnert worden.“) Erinnerungen, die oft verzerrt sind, bestimmen also unsere Präferenzen und Entscheidungen mehr, als unsere Interessen dies tun.

* Speicher: Die Einteilung erfolgt gemeinhin nach dem 1968 entstandenen 3-Speicher-Modell von Richard Chatham Atkinson (*1929) und Richard Martin Shiffrin (*1942). Demnach existieren ein flüchtiger Speicher für sensorische Informationen (sensorisches Gedächtnis), ein Zwischenspeicher mit begrenzter Kapazität (Kurzzeitgedächtnis; vergleichbar dem Arbeitsspeicher des Computers) und ein zeitüberdauernder Speicher (Langzeitgedächtnis, in dem alles Erfahrungswissen, sofern es einmal bewusst war, abgespeichert werden kann; vergleichbar der Festplatte des Computers, wobei das Gehirn aber anatomisch nicht in zwei Speicher trennbar ist). Im Unterschied zu digitalen Speichern sind die Hirnspeicher nicht in logischen Hierarchien organisiert. Es gibt z. B. - zumindest auf der Ebene des Hippocampus - keine „Ordner“. Das im Hippocampus unsystematisch Abgelegte wird jedoch über eine spezielle Nervenfaserbahn (Tractus perforans; kann - s. o. - durch neurotoxische Beta-Amyloid-Plaques verklebt werden) im Cortex in intelligentere Speichersystem überführt. Wie schon Lashley (s. o.) erkannte, lässt sich das Gedächtnis nicht eindeutig einem bestimmten Cortexareal zuordnen. (Die Rolle des Hippocampus für die räumliche Vorstellung und die Positionierung erforschten John O'Keefe, *1939, May-Britt Moser, *1963, und Edvard Moser, *1962; alle drei erhielten den Medizin-Nobelpreis 2014.) Außerdem gilt (kontraintuitiv): Je mehr bereits abgespeichert ist, desto mehr geht noch hinein. (Wer fünf Sprachen kann, lernt die sechste schneller als eine monoglotte Person die zweite.)
Vgl. auch Informationen zum Kurzzeitgedächtnis

° Die wichtigsten Unterschiede zwischen STM (KZG) und LTM (LZG) sind:
     
 

Gegenüberstellung STM / LTM

  STM (short term memory, Kurzzeitgedächtnis)
Arbeits-, Aktualgedächtnis
LTM (long term memory, Langzeitgedächtnis)
Ort allen Erfahrungswissens
  Kapazität ist gering, bis zu 9 Chunks (Informationseinheiten) lassen sich ohne Aufwand merken Kapazität fast unbegrenzt, Rainer Sinz, *1940, nahm 1977 etwa 1016 bit als Obergrenze an
  Wiedergabe ohne Einprägung Wiedergabe wegen Einprägung
  ca. 30 sec (bereits nach 5 sec. verschwinden die ersten Wahrnehmungsdetails) Jahr(zehnte): Speicherung möglicherweise für immer, Zugänge jedoch oft verlegt
  Regelkreise, arbeitet sequentiell morphologische Veränderungen
  labil, störanfällig stabil, überdauernd
  weitgehend unabhängig von Informationsgehalt, -dichte Informationsgehalt, -dichte spielen eine Rolle
  nicht trainierbar trainierbar
  eher akustisch orientiert eher sinnorientiert
  Inhalte werden (rückstandslos) gelöscht (vgl. Computerarbeitsspeicher) Inhalte werden (wieder aktivierbar) vergessen (vgl. Festplatte)
  Beweise für die Existenz eines STM: Korsakow-Syndrom (Amnestisches Syndrom; nach Sergei Sergejewitsch Korsakow / Сергей Сергеевич Корсаков; 1854-1900): bei alten Leuten und Alkoholikern beobachtbarer Schwund des STM (anterograde Amnesie) Beweise für die Existenz eines LTM: Retrograde Amnesie: rückwirkender Gedächtnisschwund, z. B. nach einem Unfall, durch Störung der postmentalen Erregungen (s. u.), Verkürzung der Lernzeit bei Wiederholungen auch nach langer Zeit
  Beispiel: Telephonnummer bis zum Anruf Beispiel: Prüfungsstoff
     
° Das nur wenige Sekunden aktive Ultrakurzzeitgedächtnis ist ein sensorischer Puffer mit ikonisch-optischem bzw. echoisch-akustischem Speicher (Begriffe von Ulric Richard Gustav Neisser, 1928-2012), dessen (umfangreiche) Inhalte entweder bei Nichtbeachtung sofort wieder zerfallen oder durch Aufmerksamkeit ins STM (das mit dem LTM interagiert) eingespeichert werden. Erstmals nachgewiesen wurde der ikonische Speicher 1960 in einem ausgeklügelten Ex. vom 1938 in die USA vertriebenen Österreicher George Sperling (*1934): Vpn. wurde ein Dia mit 12 in 3 Viererreihen angeordneten Buchstaben gezeigt (vgl. Video). Danach mussten sie in einem Teilbericht jene der 3 Reihen, die nun willkürlich bestimmt wurde, wiedergeben. Da dies meist gelang, muss angenommen werden, dass kurzfristig im Speicher alle 12 Elemente vorhanden sein müssen. (Vpn., die in einem Vollbericht einfach irgendwelche der 12 Buchstaben nennen sollten, schafften meist nur 5-6.)
° Déjà-vu-Erlebnis (Paramnesie): Scheinbekanntheit mit einer tatsächlich noch nie erlebten Situation. Versuch einer Erklärung: Paramnesien entstehen durch „Schaltfehler“: etwas gerade erst Erlebtes wird sofort in das LTM transferiert, sodass subjektiv der Eindruck einer Erinnerungsvorstellung entsteht. (Das Gegenteil - etwas Bekanntes wird temporär als völlig neu erlebt - heißt Jamais-vu-Erlebnis.)
° Kontraintuitiv ist der Zeigarnik-Effekt (nach der Lewin-Schülerin Bljuma Wulfowna Zeigarnik / Блюма Вульфовна Зейгарник, 1901-1988), gemäß dem man sich an nicht vollendete Aufgaben besser erinnern kann als an abgeschlossene. Ex.: Kellner erinnern sich, solange die üblichen Vorgänge in einem Wirtshaus andauern, auch ohne Notizen an Bestellungen weit besser, als sie dies nach der Bezahlung der Gäste tun. Erklärung: Die fehlende Vollendung hält die Spannung aufrecht. (Es ist ja tatsächlich oft sinnvoller, sich auf ungelöste Probleme als auf erledigte Aufgaben zu konzentrieren.)

 

- Einprägen, Wiedergeben und Vergessen:

   Abb. 3/12: Hermann Ebbinghaus

* Methoden: Seit dem 1885 erschienenen Buch Über das Gedächtnis (s. hier) von Hermann Ebbinghaus (1850-1909) werden als Untersuchungsmaterial sinnlose Silben benutzt (was vom Begründer der vom Spiel Stille Post beeinflussten Schema-Theorie des Gedächtnisses, die eine Einbeziehung des Vorwissens für die Erforschung der Merkfähigkeit für unabdingbar hielt, Frederic Charles Bartlett, 1886-1969, dem ersten Psychologieprofessor an der Universität Cambridge, kritisiert wurde). Sie bestehen aus assoziationslosen Konsonant-Vokal-Konsonant-Kombinationen (z.B. ZUN, FIM, PES, HEM ...) Die Eichung erfolgt im Hinblick auf Merkfähigkeit und eventuelle spontane Assoziationsgeläufigkeit durch Bedeutungshaftigkeit, die im Einzelfall - s. u. von Restorff-Effekt - nie ganz ausgeschlossen werden kann. Schon das Vorkommen eines seltenen Buchstabens wie Q oder Y kann eine Silbe zu markant machen. Außerdem müssen immer wieder verwendete Silben ausgeschieden werden (z. B. zwischenzeitlich „DOS“, als das bald weithin verwendete und nun fast vergessene Disc Operating System als Computerbetriebssystem eingeführt wurde; unter Lateinkundigen muss wohl auch PES ausgeschieden werden). 1957 galten die Silben MUB, NUF, MEV, TUZ und VEP als besonders geeignet. (Manche Forscher verwenden irgendwelche Trigramme / 3-Buchstaben-Kombinationen.)
Zur Überprüfung der Wiedergabeleistung dien(t)en in Ex.en folgende

          Verfahrensweisen:

° Methode der behaltenen Elemente: überprüft, wie viele Items einer dargebotenen Reihe beim freien Reproduzieren (Free Recall) genannt werden können.
° Wiederholungsmethode = Erlernungsmethode: überprüft, wie viele Wiederholungen notwendig sind, bis die dargebotenen Silben fehlerlos beherrscht werden.
° Ersparnismethode: überprüft, wie viele Durchgänge man sich nach einer Wiederholung (bzw. mehreren Wiederholungsdurchgängen) erspart.
° Treffermethode: Paarweise dargebotene Silben werden überprüft, indem die Trefferquote beim Abfragen des zweiten Paarlings ermittelt wird (von Georg Elias Müller, 1850-1934, und Alfons Pilzecker, 1865-1949).
° Wiedererkennungsmethode (v. a. im klinischen Bereich verwendet): überprüft, wie viele Elemente einer dargebotenen Reihe rekognisziert werden können. (Die Leistung beim Wiedererkennen ist im ø dreimal so hoch wie beim Reproduzieren.)

* Vergessenskurve von Ebbinghaus: Hermann Ebbinghaus' Untersuchung des menschlichen Erinnerungsvermögens ergab die Vergessenskurve, die die Abnahme der Wirksamkeit einer Einprägung, die sich selbst überlassen wird, im Zeitverlauf darstellt: „Die Quotienten aus Behaltenem und Vergessenem verhalten sich umgekehrt wie die Logarithmen der Zeit. ln y = lg a  (lg b).t“. Mathematisch kann sie mithilfe folgender Funktion näherungsweise beschrieben werden:

Abb. 3/13: Formel für die Vergessenskurve

             35
________________
t .........Zeit in Stunden (h)
W(t) =
  1  –  0,65 ∙ –1,24·t  W(t)....vorhandenes Wissen nach t Stunden in %

Ergebnisse: Der Mensch kann 20 Minuten nach dem Lernen 60 % des Erlernten abrufen. Nach 1 Stunde sind noch 45 %, nach 1 Tag 34 % und nach 6 Tagen 23 % des Erlernten im Gedächtnis. Dauerhaft abrufbar sind ohne Wiederholungen höchstens 15 % des Erlernten. Diese Zahlen, die sich auf neuen Lernstoff beziehen, schwanken, abhängig u. a. von der Intelligenz des Lernenden, stark und sind davon abhängig, inwieweit das Gelernte tatsächlich zum ersten Mal rezipiert wurde bzw. wie sinnvoll der Inhalt des Stoffes erscheint. (Es sind kaum Inhalte vorstellbar, zu denen man nicht irgendeine Assoziation haben könnte.)



Abb. 3/14: Vergessenskurve nach
Ebbinghaus (Abbildung nach http://www.waldmathematik.com)

            Folgerungen:

° Der Abfall der Kurve ist unmittelbar nach dem Lernvorgang am steilsten.
° Der Einprägungswert einer Wiederholung ist um so stärker, je mehr bereits vergessen worden ist.
° Nach einem Tag sind ²/3 des Stoffs bereits vergessen! Die Kurve geht annähernd asymptotisch gegen 0.
° Die Kurve verläuft umso flacher, je sinnvoller das verwendete Material ist, je mehr Anknüpfungspunkte (Assoziationen) vorhanden sind bzw. je öfter bereits wiederholt worden ist.

* Gesetz von Ebbinghaus: In einem Ex. wurde der Zusammenhang zwischen dem Umfang des Lernstoffs und dem erforderlichen Lernaufwand untersucht:

Abb. 3/15: Gesetz von Ebbinghaus (Abb. nach kzg.htm der Universität Bonn)

Folgerung: Jede Vergrößerung des Lernumfangs macht eine unverhältnismäßig große Steigerung der Lernzeit notwendig (6 sinnlose Silben: 1 Wiederholung, 12: 17, 24: 44, 36: 55 etc.). Nach oben hin scheint die Kurve wieder etwas abzuflachen.

* Sätze von Adolf Lothar Jost (1874-1908; Schüler von Ebbinghaus):

° 1. Jost'scher Satz: „Haben zwei Assoziationen mit gleicher Stärken ein verschiedenes Alter, so wird die Stärke der älteren Assoziation langsamer geringer als die der jüngeren.“
(In der Graphik grau vs. blau)
° 2. Jost'scher Satz: „Sind zwei Assoziationen von gleicher Stärke, aber verschiedenem Alter, so hat eine Wiederholung für die ältere einen größeren Wert.“
(In der Graphik grün vs. gelb)

Abb. 3/16: Die beiden Jost'schen Sätze (© Thomas Knob)

Die Jost'schen Sätze stellen Schlussfolgerungen aus den Forschungsergebnissen von Ebbinghaus dar. Die Graphik bezieht sich auf 20 Silbenpaare, die im Ex. mit der Treffermethode erlernt wurden. Im Schnittpunkt wurden beide Reihen (wenn auch bei unterschiedlicher Lerngeschichte) gleich gut gekonnt: nämlich zu 50% (10 Silben). Die Gruppe A, deren Erlernkurve schwarz eingezeichnet ist, vergisst also ab dem Schnittpunkt langsamer (Vergessenskurve der Gruppe A = blau) als die Gruppe B, deren Erlernkurve und Vergessenskurve grau erscheinen, da der steile Abfall bei A schon überwunden ist, bei B jedoch gerade erst beginnt. (A hat ja früher den Lernstoff schon einmal zu 100% beherrscht, B ist erst in der Aufbauphase.) Aus denselben Gründen wäre A bei einem neuerlichen Lernvorgang (= grün) schneller (wieder) auf 100% als B (=gelb), da für B der Lernvorgang keine Wiederholung, sondern eine Fortsetzung darstellen würde.

* Gedächtnisspanne: umfasst jene Lerneinheiten, die nach einer Darbietung ohne nochmalige Wiederholung wiedergegeben werden können. Man unterscheidet:

° Statische Gedächtnisspanne: Nach Darbietung einer Reihe wird im Ex. überprüft, wie viele Elemente gemerkt werden konnten. Die Anzahl bzw. der Anspruch auf Vollständigkeit ist bekannt. (Die Aufgabe besteht darin, sich möglichst alles zu merken, mehr als 6 bis 9 Elemente schaffen aber nur wenige)
° Gleitende Gedächtnisspanne (running memory span, meist um 2 bis 3 Elemente kürzer): Sie wird im Ex. überprüft, indem die Anzahl der Elemente, die (von hinten) wiedergegeben werden müssen, bis zum Abbrechen der Darbietung unbekannt bleibt. (Man muss also laufend neu lernen und alte Elemente vernachlässigen.)

 

- Ergebnisse der Lernpsychologie (Praxisanwendung, positive Effekte):
In Bezug auf die Schule lässt sich allgemein sagen, dass - entgegen landläufigen Ansichten - weder die Klassengröße noch spezifische Lehrmethoden für den Lernerfolg eine entscheidende Rolle spielen. Stattdessen sind eine gewisse Homogenität des Klassenverbandes, in dem Fokussierung ermöglichende Disziplin herrschen muss, häufige Fehlerrückmeldungen bzw. sonstiges Feedback und (s. a. o.) vor allem - als zentraler Faktor - die von ihrem Fach begeisterte (und dieses beherrschende), wertschätzende Lehrperson wichtig. (Letzterem entspricht in der Psychiatrie - s. u. - die therapeutische Allianz. Vgl. a. Erasmus von Rotterdam, 1469-1536: „Der erste Schritt beim Lernen ist die Liebe zum Lehrer.“) Der „Stoff“ wird dabei immer durch die Gehirne der Lernenden selbst „vermittelt“ und darf nicht instrumentalisiert werden (z. B. um „für das Leben vorzubereiten“, dessen spezifische Anforderungen man ja zum Zeitpunkt des Unterrichts noch gar nicht kennen kann; das Herstellen der Lernfähigkeit selbst ist die beste Vorbereitung für spätere Aufgaben).
Vgl. Manfred Spitzer, Lernen: Gehirnforschung und die Schule des Lebens (2006) und Medizin für die Bildung (2010), den Videovortrag des Hirnforschers Gerhard Roth (s. o.) zu den Lehr- und Lernvoraussetzungen bzw. Interview zum Buchtitel Wie lernen gelingt (2011).

* Lernstrategien: Prinzipiell gilt es, die zur Verfügung stehenden Lernstrategien entsprechend der jeweiligen Situation auszuwählen bzw. anzuwenden. Am Ende jedes Lernvorganges (spätestens nach einer Überprüfung) sollte eine Selbstreflexion stehen, die den Lernfortschritt bewertet und gegebenenfalls den eingeschlagenen Weg in Zukunft ändert. Man unterscheidet folgende

          Lernstrategien:

° Kognitive Strategien: Hier geht es um die tw. in der Folge besprochenen, jeweils stoffbezogen anzuwendenden Techniken (wie z. B: Wiederholen beim Vokabellernen, Exzerpieren beim Geschichtsstoff etc.).
° Ressourcenorientierte Strategien: Sie weisen darauf hin, dass die zur Verfügung stehenden Ressourcen (v. a. das Zeitbudget) im Voraus bedacht werden müssen.
° Metakognitive Strategien: Gemeint sind Überlegungen zur Eigenmotivation (z. B. das Setzen von Belohnungsreizen nach erfolgreicher Absolvierung der Lektionen).

* Pausen: Verteiltes Lernen ist besser als massiertes Lernen. (Es ist z. B. nutzbringender, 6 mal eine Viertelstunde zu lernen als 1 mal zwei Stunden am Stück, obwohl da die Lernzeit um ein Drittel länger wäre.) Empfohlen werden pro Stunde maximal 3 Lektionen, wobei eine Lektion ca. 15 min Länge haben sollte. Dazwischen sollte man ca. 5 min Pause machen. Im Idealfall werden pro Tag höchstens fünf Lerneinheiten (drei am Vormittag, zwei am Nachmittag, also 15 Lektionen pro Tag, absolviert. Dieser Idealfall ist aber oft nicht realisierbar, schon deshalb, weil sich nicht jeder Lernstoff in 15-Minuten-Abschnitte portionieren lässt und äußere Umstände oft dagegenstehen. Für Lehrpersonen gilt, dass sie ihren Vortrag ca. alle fünf Minuten kurz (z. B. für einen Scherz) unterbrechen sollten, um den Inhalt nicht für die Hirne der Zuhörer verloren gehen zu lassen, sondern ihnen durch eine Pause einen Wechsel vom KZG ins LZG (s. o.) zu ermöglichen.

* Wiederholungen: Sie sind - zumindest drei Mal in immer größer werdenden Abständen - notwendig, um den Abfall der Vergessenskurve (s. o.) auszugleichen („Repetitio est mater studiorum“). Außerdem verhindern sie das so genannte Bulimielernen, bei dem Stoff knapp vor dem Abprüfen rasch in sich „hineingefressen“, dort „ausgespieen“ und wieder vergessen wird. Im Schulunterricht wird daher die Unterrichtseinheit oft mit einer Wiederholung des zuletzt Gelernten begonnen und mit einer zusammenfassenden Wiederholung des eben Gelernten beendet. Ein sehr wichtiger Weg zur Konsolidierung des Gedächtnisses im Zusammenhang mit Wiederholungen ist das aktive Selbst-Erinnern anstelle eines rein mechanischen Repetierens (z. B. das bewusste Sich-ins-Gedächtnis-Holen der neuen Lerninhalte am Ende eines Schultags). - Für eigenständiges Lernen gilt folgende

          Empfehlung:

° 1. Wiederholung: nächster Tag
° 2. Wiederholung: nach 3-4 Tagen
° 3. Wiederholung: nach 10 Tagen
° 4. Wiederholung: nach 3 Wochen

Studien über den Zeitraum zwischen Enkodierung und Abruf (Spacing) von Harold (Hal) Pashler (*1958) ergaben, dass der Abstand zwischen den Wiederholungen 10% bis 20% des angestrebten Behaltensintervall betragen sollte. Soll der Stoff also in 10 Monaten beherrscht werden, sollte man einen Monat Pause machen. (In der Frühzeit der Gedächtnisforschung war der untersuchte Abstand oft viel zu gering angesetzt worden.)

Kontraproduktiv sind nach diesen Erkenntnissen manche Bestimmungen in den Schulgesetzen, die den Ergebnissen der Lernpsychologie völlig widersprechen: in Österreich darf z. B. bei einer Prüfung nur der Stoff der letzten 6 bis 8 Woche abgefragt werden. (Nachhaltiger wäre es, alles bis auf die letzten 6 bis 8 Wochen abfragen zu dürfen.)

* Lernkartei: Um Wiederholungen bestmöglich zu organisieren, kann man, wenn es die Struktur des Lernstoffes erlaubt, eine Lernkartei verwenden: In eine Schachtel werden fünf Fächer eingebaut, die jeweils ca. 1cm / 2cm / 5cm / 8cm / 14cm tief sind. 1 Lektion eines Stoffgebietes entspricht etwa 20 Karteikarten, der Aufbau des Kastens entspricht der Vergessenskurve. Die Karteikarten werden auf der Vorderseite mit einer Frage, auf der Rückseite mit der dazugehörenden Antwort versehen (was bei Lernstoffen, die sich in kleine Einheiten nach dem Frage-Antwort-Schema gliedern lassen, z. B. Vokabel, besonders geeignet, für komplexe Themen, die Verständnis und nicht mechanisches Lernen erfordern, schwierig ist). Die Karten werden in das erste Fach gegeben und durchgearbeitet. War die Antwort richtig, kommt die Karte in das nächste Fach, war sie falsch, bleibt sie im ersten Fach. Ist die Mehrheit der Karten im zweiten Fach, wird dieses durchgearbeitet, wobei nicht gewusste Karten wieder im ersten Fach landen, gewusste im dritten usw. Ist das erste Fach (fast) leer, kann man, ohne die alten Karten zu entfernen, ein neues Stoffgebiet einlegen und durcharbeiten und so durch die provozierte Durchmischung verhindern, dass die Karten in derselben Reihenfolge auftreten. (Allein die - vorzugsweise handschriftliche - Herstellung der Karteikarten garantiert schon einen enormen Lerneffekt.)

* PU (Programmierter Unterricht): von Skinner (s. u.) erfundene Praxisanwendung der Lerngesetze mit dem Ziel der Individualisierung des Bildungswegs und der Aktivierung des Lernenden, der sein Tempo selbst bestimmen kann. Der Lernstoff wird in kleine Einheiten (Frames) gegliedert, die eine Aufgabenstellung enthalten. Missverständnisse und Zielabweichungen sind kaum möglich. Nur bei einer korrekten Antwort gelangt man zum nächsten Frame. Es entstanden programmierte Lehrbücher, die heute durch immer bessere Computerlernprogramme, die aber letztlich auf demselben Prinzip beruhen, obsolet geworden sind. Vorläufer waren Lernkarteien und Sidney Leavitt Pressey (1888-1979) mit seiner in den 20er-Jahren entwickelten multiple choice teaching machine, die von Skinner gemäß der erwähnten Prinzipien weiterentwickelt wurde und in vielen Schulen der USA Anwendung fand.

            Zwei Typen:

° Linearer Typ, der eine Lektion, die nicht beherrscht wird, einfach wiederholt
° Verzweigter Typ, der durch Rückverweise oder Sprünge einen individuellen Lernweg ermöglicht und Umwege bei Nicht-Können anbietet, z. T. Scrambled system mit Alternativfragen, die je nach Antwort individuelle Lernwege zur Verfügung stellen (entworfen von Norman Allison Crowder (1921-1998)

Abb. 3/17: Zwei Typen von Programmiertem Unterricht (© Thomas Knob)

* Sinnhaftigkeit des Materials: Je „assoziationsgeläufiger“ und sinnenfälliger das Material, desto flacher die Vergessenskurve. Es empfiehlt sich manchmal, die logischen Zusammenhänge eines Stoffgebietes in Form einer sogenannten Mind Map (= eine von Tony Buzan, geb. 1942, entwickelte Form der kreativen Gedankenfixierung oder Mitschrift) graphisch darzustellen. Konkrete Beispiele fördern die Anschaulichkeit des Lernmaterials, die in Abgrenzung zur Unanschaulichkeit für die Merkfähigkeit wichtiger ist als die Dichotomie konkret / abstrakt.

* Positionseffekte: Innerhalb eines Kontinuums lässt sich der Beginn (Primacy Effect) und das Ende (Recency Effect) leichter merken (auch Reihenpositionseffekt genannt). Wenn man die Reihenfolge der zu lernenden Items ändert (z. B. durch eine Lernkartei, s. o.), verbessert man die Lernleistung, da immer andere Items in den Genuss des Positionseffekts kommen. (Der Recency Effect wird auch in Diskussionen mit Abstimmung wirksam: das zuletzt gebrachte Argument hat einen größeren Einfluss als frühere.)

* von Restorff-Effekt: Herausfallen eines aus welchen Gründen immer assoziationsgeläufigen Elementes aus einer Reihe assoziationsloser Elemente (nach Hedwig von Restorff, 1906-1962; z. B. s. o.: die erwähnte Silbe PES).

* Reminiszenzeffekt: nach einer längeren Pause scheint etwas einmal Beherrschtes leichter auszuführen zu sein als davor (gilt v. a. für körperliche Fähigkeiten, z. B. einen Tennisaufschlag, wenn man eine Woche lang nicht gespielt hat).

* Beschallung: in Exen. zeigte sich, dass weißes Rauschen (s. o.) im Hintergrund besser für die Lernleistung ist als absolute Stille. Erklärungsversuch: Es hebt das Aktivierungsniveau ohne abzulenken (wie dies jeder informationshaltige Schall tut); der Mensch scheint absolute Stille als unnatürlich zu erleben.

* Lerntyp: je nach dem bevorzugten „Kanal“ sollte der Lernstoff optisch, akustisch oder motorisch (vgl. Tu-Effekt) aufgenommen werden. (Unter Kanalkapazität versteht man dabei die Menge der von einem System pro Zeiteinheit übertragbaren Information. Beim Menschen sind das meist 7±2 Einheiten.) Um den Lerntypen aller Schüler/innen gerecht zu werden, empfiehlt es sich, im Unterricht nach Maßgabe der Möglichkeiten einen Methodenmix einzusetzen (Frontalunterricht, Gruppenarbeit, Einzelarbeit, praktische Übungen, Hörübungen, Bebilderung und vieles mehr).

Ex. Stroop-Test zur Untersuchung der Mehrkanaligkeit des Menschen (nach John Ridley Stroop, 1897-1973): Das Wortpaar „laut-leise“ (bzw. „leise-laut“), 50mal in zufälliger Anordnung untereinandergeschrieben, muss entsprechend der Lautstärke einer vom Tonband kommenden Stimme, die jeweils das Wort „laut“ oder das Wort „leise“ laut oder leise ausspricht, angehakt werden. Dabei sind mehrere Hirnmodule (z. B. das Salienzmodul, s. o.) beteiligt und es kommt zu Interferenzen zwischen dem akustischen und dem semantischen Kanal (siehe Variante mit Farben und andere Tests und Erklärung). Mentale Verarbeitungskonflikte (in diesem Test konkurrieren verschiedene Hirnareale miteinander) werden unterschiedlich gut bewältigt, wobei alles, was mit Multitasking (s. u.1 und u.2) verbunden ist, die Lernleistung immer senkt.

Abb. 3/18: Stroop-Test: Rivalisierende Netzwerke im Gehirn (Wörter lesen vs. Farben benennen)
konkurrieren so stark miteinander, dass man den Konflikt subjektiv spüren kann.

Prinzipiell fördert - unabhängig vom Lerntyp - aktive Beteiligung am Lerngeschehen (also die Mitarbeit im Unterricht, das eigenhändige Schreiben bzw. Mitschreiben, selbständiges Recherchieren, themenbezogenes Lesen etc.) den Grad des Behaltens. (Konfuzius: „Sage es mir, und ich vergesse es / zeige es mir, und ich erinnere mich / lass es mich tun, und ich behalte es.“)

* Eigenständigkeit: Wer einen zu lernenden Stoff nicht nur durchliest oder mechanisch repetiert, sondern aktiv durcharbeitet (z. B. durch Exzerpieren, Recherchieren, Formulieren von Fragen etc.), lernt nachgewiesenermaßen nachhaltiger. Es geht dabei darum, die Aufmerksamkeit (engl. orienting im Unterschied zu alerting = Vigilanz, Grade der Wachheit; s. o.) bewusst und zielgerichtet einzusetzen. (Schon Ebbinghaus wies darauf hin, dass vorbereitende Gedanken die Aufnahme fördern.) Der entscheidende Faktor dabei ist die Verarbeitungstiefe. (Ex.: Selbst wenn man sich nur oberflächlich dazu zwingt, beim Erlernen von Hauptstädten jeweils kurz daran zu denken, ob die zuletzt erlernte Stadt südlich, westlich, nördlich oder östlich der aktuell erlernten liegt, fördert dies die Merkleistung.) Ein Langzeit-Ex. im Zusammenhang mit Eigenständigkeit untersuchte die Unterschiede zweier gleich leistungsfähiger Gruppen von Volksschülern, die ihre Diktate korrigiert oder „nur“ mit Hinweisen auf die Fehler versehen retourniert bekamen. Die zweite Gruppe schnitt nach 6 Monaten statistisch signifikant besser ab, da sie beim Verbessern denken musste.

* Üben: Für beinahe alle Bereiche und beinahe alle Menschen gilt: Nur wer übt, wird gut. (Man nimmt - egal ob beim Autofahren, Operieren, im Mathematikunterricht etc. ca. 10 000 Stunden an, die man mit der Materie verbracht haben muss, um eine Sache wirklich zu beherrschen.) Als beste Möglichkeit, Erfolg vorauszusagen, erwies sich in Untersuchungen das Messen der Zeit, die jemand mit freiwilligem Üben ohne jeden Druck verbracht hat. Die oben erwähnte Eigenständigkeit bzw. die unten genannte Motivation erweisen sich dabei als Schlüsselfaktoren.

* Richtiges Lesen: Im Unterschied zur gesprochenen Sprache, die in der heutigen Struktur seit mindestens 100 000 Jahren existiert, sind geschriebene Texte, die eine Kombination von Sehen und Sprechen bzw. Denken erfordern, erst seit ca. 6000 Jahren belegt. Das menschliche Gehirn musste sich also erst spät in seiner Entwicklung damit befassen. Ziel muss es sein, den rein technischen Aspekt des Lesens soweit im Griff zu haben, dass Sinn und Bedeutung erfasst werden können. Mechanische Übungen sind dabei großteils sinnlos. Schlechtes Leseverhalten (s. a. o.) ist die Folge, nicht die Ursache von etwas (in manchen Fällen auch einer durch DTI - s. o. - nachweisbaren Faserschwäche in der linken Hemisphäre zwischen den beiden o. beschriebenen Sprachzentren, die zu einer Verlangsamung der lautlichen Inputreize und in der Folge der Textverarbeitung führt). Lesen ist meist eine Frage der Motivation und der Konzentration. (Wer es gut beherrscht, kann einen mittelschweren, eine Seite langen Text ohne hängenzubleiben laut vorlesen.) Richtwerte: bei wissenschaftlichen Texten erreicht man bei stillem Lesen höchstens 180 Wörter pro Minute, ansonsten 250 pro Minute. (Der Weltrekord liegt bei 4200 Wörtern.) Geübte Leser verändern die Blickspannung 3 bis 5 x pro Zeile, schlechte bis zu 15 x. Die Fixation muss mindestens 200 Millisekunden betragen (die Okulomotorik lässt sich technisch kontrollieren). Günstigerweise orientiert man sich in einem Abstand von ca. 30 cm am gut ausgeleuchteten oberen Zeilenrand; der Zeilenabstand ist wichtiger als die Buchstabengröße. Für das aktive (sinnerfassende) Lesen entwickelte Francis (Frank) Pleasant Robinson (1906-1983) die

          SQ3R-Technik:

° Survey: Verschaffen eines Überblicks
° Questions: Schriftliches Umwandeln der Überschriften in Fragen
° Read: Langsames Lesen und Durchforschen des Textes
° Recite: Rezitieren und selbst formulieren, um Scheinbekanntheit auszubügeln
° Repeat: Wiederholen

Zum Lesen s. a. o.

* Mnemotechnische Hilfen: Künstlich geschaffene Assoziationen (Eselsbrücken) oder die Herstellung logischer Verbindungen von an sich unzusammenhängenden Inhalten (Chunking, Fraktionierung, das Aufteilen von Items in Blöcke; untersucht von Gordon Howard Bower, 1932-2020) erhöhen die Merkleistung, genauso wie die Erstellung von Mind Maps (s. o.), Markieren mit Leuchtstiften etc. Im Kurzzeitgedächtnis lassen sich nicht mehr als 7 ± 2 Chunks verarbeiten (s. o.; die „Miller'sche Zahl“ nach George Armitage Miller, 1920-2012). Als Erfinder der Mnemotechnik gilt Simonides von Keos / Σιμωνίδης ὁ Κεῖος (557/556-468/467 v. Chr.; vgl. a. Gedächtnistricks, Gedächtnistechniken).

Beispiele: Merksprüche zur lateinischen Grammatik („Os, der Mund, und os, das Bein, / müssen beide sächlich sein“), die Technik, während einer Rede mental einen Weg „abzugehen“, an dem sich Gegenstände befinden, die für die einzelnen Redeteile stehen, eine längere Zahl wie 120019550515 durch Chunking leichter merkbar zu machen (12 Uhr am Tag des österreichischen Staatsvertrags) oder folgendes Ex.: Die (immer gleich angeordneten) Punkte lassen sich in der Darbietungsweise 2 oder 3 leichter merken (und reproduzieren) als in der Darbietungsweise 1.

1

2

3

Abb. 3/19: Abbildung von einer FBA aus Wals-Siezenheim

* Motivation: Prinzipiell gilt, dass man dann lernt, wenn man positive Erfahrungen macht (die meist mit Mitmenschen verbunden sind und sich biologisch im Belohnungszentrum im Gehirn niederschlagen; ein dortiger Dopaminmangel führt zu Anhedonie, also Interesse- und Lustlosigkeit - ein Dopaminüberschuss übrigens oft zu sinnloser Beschäftigung mit Nebensächlichem). Je stärker das Motiv (und je höher die emotionale Beteiligung), desto besser die Lernleistung. (Eine Fremdsprache wird man z. B. schnell lernen, wenn man in die Sprecherin verliebt ist. Im Schulunterricht motivieren am meisten die von ihrem Fach begeisterten Lehrer/innen - und nicht deren Unterrichtsmethoden.) Intensität, Richtung und Form des Lernens (jedes Verhaltens) werden von der Motivation wesentlich beeinflusst. Positive Erfahrungen früherer Lernvorgänge (schon in der frühen Kindheit) spielen dabei eine zentrale Rolle. Die Motivation lässt sich manchmal durch profunde Intensivierung der Auseinandersetzung mit dem Lernstoff steigern. („Wofür man sich interessiert, das wird auch interessant.“) Sie hängt aber auch mit Über- bzw. Unterforderung zusammen:

Gemäß dem bereits 1908 von Robert Yerkes (1876-1956) und John Dillingham Dodson (1879-1955) erstellten Yerkes-Dodson-Gesetz („Herausforderungen motivieren zunächst positiv und steigern als Eustress unsere Leistungsfähigkeit. Ab einem bestimmten Punkt, der von Mensch zu Mensch unterschiedlich ist und offenbar auch von der Höhe des Testosteronspiegels abhängt, kippt der Effekt und steigende Herausforderungen wirken sich als Disstress negativ auf unsere Leistungsfähigkeit aus.“) darf das Aktivierungsniveau weder zu niedrig noch zu hoch sein, wenn eine optimale Leistung erzielt werden soll. Der Mensch (Schüler, Arbeitnehmer, ...) soll sich also weder unterfordern noch überfordern, sondern „die goldene Mitte zwischen Tiefschlaf und Tobsucht“ (www.artikelmagazin.de) einnehmen. Die Autoren entwickelten ihre Kurve zunächst in einem Ex. an Laborratten (die unter leichten, aber eben nicht zu starken Stromstößen ihren Weg aus einem Labyrinth schneller fanden als ohne Stress).
Vgl. a. o. Anspruchsniveau u. u. Stress

Abb. 3/20: Yerkes-Dodson-Gesetz (Quelle nordstern.wordpress.com)

Abb. 3/21: Flow-Erlebnis nach Csikszentmihalyi (Quelle wandelweb.de)

* Flow-Erlebnis (vgl. Vortrag Living in flow - the secret of happiness 2014): Manchmal lässt sich ein eventuell auftretendes so genanntes Flow-Erlebnis ausnutzen. Der Begriff stammt vom ungarisch-amerikanischen Psychologen Mihaly Csikszentmihalyi (1934-2021), der darunter eine in vielen Lebensbereichen mögliche länger andauernde Euphorie versteht, in der man alles richtig macht, ohne darüber nachdenken zu müssen. Challenge complexity und skills stehen in richtigem Verhältnis zueinander (siehe Graphik rechts; engl. Ausrücke im Uhrzeigersinn: flow - focused, happy; control - happy, confident; relaxation - confident, contented; boredom - contented, depressed; apathy - depressed, sad; worry - sad, stressed; anxiety - stressed, alert; arousal - alert, focused). Die meisten gelungenen Lernprozesse erfolgen aus den Bereichen Erregung (durch Erhöhung der Fähigkeiten) und Kontrolle (durch Erhöhung der Anforderungen). Laut Csikszentmihalyi hat ein Flow-Erlebnis („jenseits von Angst und Langeweile im Tun aufgehen“) folgende

          Bestimmungsstücke:

° Die Aktivität hat deutliche Ziele, unmittelbare Rückmeldung und ihre Zielsetzung bei sich selbst. (Sie ist autotelisch, intrinsisch motiviert.)
° Wir sind fähig, uns auf unser Tun zu konzentrieren.
° Anforderung und Fähigkeit stehen im ausgewogenen Verhältnis, so dass keine Langeweile oder Überforderung entsteht.
° Wir haben das Gefühl von Kontrolle über unsere Aktivität.
° Es besteht Mühelosigkeit, bei der unsere Sorgen um uns selbst verschwinden.
° Unser Gefühl für Zeitabläufe ist verändert: „Zeitlosigkeit“ entsteht. („Dem Glücklichen schlägt keine Stunde“.)
° Handlung und Bewusstsein verschmelzen („Extase“).

Csikszentmihalyi galt auch als einer der führenden Glücksforscher. Er meinte, dass Lebensfreude durch Tun und auch Anstrengung entstehe, solange diese als sinnvoll empfunden werde. (Vgl. a. u. Burn out)

* Kooperatives Lernen: Gut organisierte Formen der Partner- oder Gruppenarbeit können die Motivation erhöhen und Synergieeffekte erzeugen. Um den Ringelmann-Effekt (s. u.) zu verhindern, entwickelte Elliot Aronson (s. u.) das Gruppenpuzzle (Jigsaw-Methode), bei dem alle Teilnehmer spezifische Aufgaben zu erfüllen haben und daher aktiviert sind. Prinzipiell sind Lernprozesse effektiver, wenn sie in eine soziale Situation eingebettet sind. Damit ist weniger der Lernvorgang selbst als z. B. das Interesse der Umwelt, etwa der Eltern, für dessen Ergebnisse gemeint.

* Ovsiankina-Effekt: In manchen Situationen kann ein von Maria Ovsiankina (1898-1993) beobachteter Effekt wirksam werden, gemäß dem der Mensch die Grundtendenz zeigt, eine einmal begonnene, aber unterbrochene Aufgabe auch dann wieder aufzunehmen, wenn man sich davon keinen Anreizwert erhofft. (Vgl. o. Zeigarnik-Effekt)

* Externe Faktoren: Ruhe, gesunde Ernährung, physische Ausgeruhtheit etc.

 

- Ergebnisse der Lernpsychologie (Praxisanwendung, negative Effekte):
* Ablenkung und Multitasking: informationshaltige Beschallung (s. o.) und jede andere Ablenkung am Arbeitsplatz (der ausschließlich zum Arbeiten auffordern sollte) senken die Lernleistung, da der Mensch nur bedingt mehrere Inhalte gleichzeitig bearbeiten kann (= Simultankapazität, s. o.: Stroop-Test) ist. Beachte v. a. Ablenkung durch Stress! Jede Form des Multitasking (der Versuch einer gleichzeitigen Bewältigung mehrerer Aufgaben) vermindert die Qualität der zu erbringenden Leistung und erhöht die Zeit, die zu ihrer Bewältigung aufgewendet werden muss. Wichtigstes Ziel muss es sein, immer nur einen Informationskanal zu bedienen (s. a. u.). Konzentrationsfähigkeit als Grunddimension gibt es nicht, sie muss über Motivation, Einkanaligkeit etc. erarbeitet werden. Durch bewusste Atemübungen kann z. B. das Abschweifen der Gedanken auch ohne äußeren Einfluss (mind wandering) verhindert werden. Eine strikte Trennung zwischen (ausreichender) Lern- und Freizeit (am besten unter Kontrolle eines Arbeitsprotokolls, das v. a. dann indiziert ist, wenn man nicht mehr erkennen kann, wo die Zeit geblieben ist) fördert den Lernfortschritt.

* Demotivation:
Jede innere Ablehnung des Stoffes bzw. des Lernvorgangs selbst erhöht den Lernaufwand.

* Plateau-Phase:
bezeichnet jene Phase, in der der Lernaufwand in keinem Verhältnis zum Ertrag mehr steht. („Nichts geht mehr hinein.“) Abhilfe: Pause!

* Überlernen:
bezeichnet einen sinnlosen Mehraufwand während des Lernvorgangs. Ein zu über 100% erlernter Stoff unterliegt beinahe derselben Vergessensgeschwindigkeit wie ein zu 100% erlernter. Der Ertrag lohnt den Aufwand in keiner Weise. (1922 in den USA in einem Ex. von Chih Wei Luh, 1894-1970, nachgewiesen; Begriff von Roth, s. o.)

* Gedächtnishemmungen:
Sie beruhen meist auf Störungen der postmentalen Erregungen (darunter versteht man Aktivitäten des Gehirnes nach dem eigentlichen Lernvorgang, die der Konsolidierung des Erlernten dienen). Der Lernstoff kann sich aufgrund von Interferenzphänomenen nicht festigen. („Das Gehirn lernt länger als das Bewusstsein.“) Beweis: retrograde Amnesie, s. o., eine besonders starke Form der affektiven Hemmung (s. u.). Der Nachweis der (mit ~~ symbolisierten) postmentalen Erregungen gelingt auch über längere Zeit. Beschrieben wurden folgende

          8 Hemmungen:

° Retroaktive Hemmung: Lernstoff B, der unmittelbar nach Lernstoff A gelernt wird, stört ~~ und damit das Einprägen von Lernstoff A, der wiedergegeben werden muss.
LA
LB
WA
° Proaktive Hemmung: ~~ von A, unmittelbar vor B gelernt, stören den Lernvorgang von Stoff B, der wiedergegeben werden muss.
LA
LB
WB
° Ekphorische Hemmung (Abrufhemmung): ~~ von B, unmittelbar vor der Wiedergabe von A gelernt, stören Wiedergabe von A. Daher niemals knapp vor einer Prüfung lernen, auch nicht den kurze Zeit danach abzuprüfenden Stoff! (Das hätte nur dann - wenig - Sinn, wenn man davor gar nichts gelernt hat.)
LA
LB
WA
° Ähnlichkeitshemmung (Paul Ranschburg'sche Hemmung): ~~ zweier in zeitlicher Nachbarschaft gelernter Stoffe, die einander ähnlich sind, hemmen einander besonders stark (proaktiv, retroaktiv oder ekphorisch).
LA
LA'
WA oder A'
° Affektive Hemmung: ein emotional tiefgreifendes Ereignis stört die Einprägung eines Lernstoffes (vgl. o. „Retrograde Amnesie“). Ex.: In einer Volksschule konnte nach einem Feueralarm die Vg. von drei in einem unmittelbar vorher gehörten Märchen vorkommenden Zauberwörtern keines, die Kg. alle nennen.
LA

WA
° Linguale Hemmung („es liegt auf der Zunge“; Tip of the Tongue-Phänomen; „Ladehemmung“): sie beruht auf einer partiellen Erregungskollision im Gehirn, z. B. wegen einer Blockade durch ein ähnlich klingendes Alternativwort, die den Output hemmt. Eine Brechung dieser Blockade kann oft dadurch erreicht werden, dass der Grübelvorgang unterbrochen und an etwas anderes gedacht wird. Es ist nicht leicht, die Hemmung im Ex. hervorzurufen, da man nicht wissen kann, welcher Gedächtnisinhalt der einzelnen Vp. gerade unzugänglich ist. (Man versucht ähnliche, aber falsche Wörter zu aktivieren, die das gesuchte Wort hemmen sollen.)
° Assoziative Hemmung: einmal eingelernte Gedankenverbindungen können sehr stabil sein. Das Umlernen von Assoziationen (z. B. das Erlernen einer neuen Haus- oder Türnummer eines alten Freundes) ist aufwändiger als das Neulernen (der Nummer eines neuen Freundes). Gilt auch im motorischen Bereich: falsch eingelernte Golfschwünge oder Tennisschläge lassen sich nicht kurzfristig umstellen. (Diese Hemmung wird auch reproduktive Hemmung genannt.)
° Gleichzeitigkeitshemmung: ein unter Multitasking (s. o) bekanntes, immer schädliches, zu Aufmerksamkeitsstörungen führendes gleichzeitiges Verfolgen von zwei oder mehr Bedeutungssträngen. Die Hemmung wird wirksam, weil der Mensch ein einkanaliges Wesen ist. (Legenden berichten häufig von multitaskingfähigen Personen. Obwohl hier - wie überall - die Begabungen unterschiedlich verteilt sein mögen, steht fest, dass auch diese Personen ihre Lernvorgänge noch schneller und effizienter gestalten könnten, wenn sie sich jeweils auf einen Strang beschränkten.)

Abhilfe bei Gedächtnishemmungen verschaffen am verlässlichsten Pausen zwischen den Lernvorgängen, wobei der Schlaf (wie schon 1914 Rosa Heine, verh. Katz, 1885-1976, und 1924 John Jenkins, 1872?-1941? oder 1901?-1948?, gemeinsam mit Karl Dallenbach, 1887-1971, - s. hier - festgestellt haben) die postmentalen Erregungen am besten schützt. Speziell in der Tiefschlafphase erfolgt eine neuerliche Aktivierung des Hippocampus, der zu einem „Offline-Nachbearbeitung“ genannten Postprocessing bei gleichzeitiger Synchronisierung mit dem Kortex, dem die Inhalte ein zweites Mal präsentiert werden, führt. Nach Albrecht Vorster (*1985; Warum wir schlafen) feuern die Nervenzellen im Hippocampus während des nonREM-Schlafes (s. o.) in derselben Reihenfolge wie beim Lernvorgang noch einmal („Replay“). Das regt Zellen in der Hirnrinde an und fördert das dort lokalisierbare Langzeitgedächtnis. Schlaf ist daher ein Gedächtnisbooster. (Auch wenn dies manche Schüler im Klassenzimmer zu praktizieren versuchen, ist es schwer umsetzbar, nach jedem Lernvorgang schlafen zu gehen.)

Weitere Maßnahmen gegen das Eintreten von Gedächtnishemmungen: Vermeidung von auf das ZNS wirkende Substanzen (Medikamente, Alkohol etc.), von Ablenkung und Stress etc., Time-Manegement, Wechsel der Lernmethoden, ähnliche Lernstoffe (z. B. Vokabel zweier verwandter Fremdsprachen) nicht hintereinander lernen usw. (Zu Gedächtnisstörungen aufgrund von Demenz s. o.)

* Digitale Demenz: Nach dem Hirnforscher Manfred Spitzer (vgl. Video-Interview) beeinflussen seit geraumer Zeit in den Lernbiographien vor allem schlechter Schüler/innen viel zu früh auftauchende, zur Nahfixierung zwingende Bildschirme nicht nur ihre Sehkraft (der prozentuelle Anteil kurzsichtiger Kinder ist seit dem Jahr 2000 dramatisch angestiegen, da der notwendige Ausgleich durch Fernfixierung in der Natur zu kurz kommt), sondern auch die Lern- und Intelligenzleistungen negativ. Forschungen ergaben, dass durch die digitalen Medien die nach der Plastizitätshypothese (s. o.) notwendige „Hirnbildung“ unterbleibt, wodurch - verstärkt in vielen Fällen durch Multitasking (s. o.) - den Kindern Lernerfahrungen vorenthalten werden (z. B. die für das Einprägen extrem wichtige Handschrift oder die Lektüre längerer, zusammenhängender Texte), die die Grundlage für eine gewinnbringende Nutzung dieser Medien erst schaffen würden. (Zur Überforderung des Menschen durch die anschwellende Flut digitaler Daten vgl. folgende Dokumentation.) Die unten stehende Graphik illustriert unterhalb des Lebensbogens die negativen Folgen dieser Entwicklung, stellt aber oberhalb auch die aus Sicht der Hirnforschung positiven Einflüsse dar.

Abb. 3/22: Manfred Spitzer: Digitale Demenz (Quelle: https://www.youtube.com/watch?v=FEjMzb0YlLk, min28f)

* Prokrastination: Das Wort bezeichnet das Aufschieben der Lernvorgänge vom harmlosen Trödeln bis zum pathologischen Meidungsverhalten. (Vgl. Mark Twain, eig. Samuel Langhorne Clemens 1835-1910: „Was du heute kannst besorgen, das verschiebe nicht auf morgen, wenn du es genauso gut auf übermorgen verschieben kannst.“) Der dadurch aufgebaute Druck wird von manchen (im besten Fall) als notwendiger Motivationsschub empfunden, meist führt er aber zu (vgl. o.) vermeidbarem Lernstress. Die Ursachen für Prokrastination sind darin zu suchen, dass der Mensch dazu neigt, kurzfristige Belohnungen versprechenden Versuchungen eher nachzugeben als langfristige Ziele zu verfolgen. (Er ist ein Nahsicht-, kein Fernsichtwesen.) Das Verhalten kann dabei auf herkömmliche laziness (Faulheit, Mangel an zumutbarer Aktivität) oder aber auch auf Störungen der Regulierung des Emotionshaushaltes als Symptom einer Depression zurückgeführt werden.

* Negative Thinking: Der Gedanke „War das aber anstrengend!“ bildet einen Negativstimulus und sollte vermieden werden. Innere (und erst recht ausgesprochene) Sätze sollten immer rational, aufgabenbezogen, Angst reduzierend, produktiv und leistungsfördernd sein, um die (in anderen Zusammenhängen durchaus nützliche, s. u.) angeborene Negativitätsdominanz zu überlisten.

* Lernschwächen: Sie spielen insofern eine besondere Rolle, als ihr Vorhandensein kaum beeinflussbar ist, da sie oft angeboren sind. Durch (frühzeitiges) Training lässt sich jedoch einiges kompensieren. (Beispiele - s. a. o.: Dyskalkulie, also eine Fehlfunktion des Zahlensinns, Legasthenie, also eine Lese- und Rechtschreibschwäche.) Eine prinzipielle Entscheidung besteht darin, in welchem Ausmaß Lernende ihre Zeitressourcen für das Ausbessern der Schwächen statt für ihre Stärken verwenden sollten.

* Missverhältnis von Anstrengung und Stress: Sowohl zu wenig Anstrengung - bewirkt, dass das Gehirn nicht „mitmacht“, da es den Wert der Übung nicht erkennt - wie auch ein Umschlagen der notwendigen (und spürbaren) Anstrengung in Stress - bewirkt Blockaden selbst dort, wo Leistung ansonsten möglich gewesen wäre - beeinflussen den Lernerfolg negativ. Dieser Punkt verlangt nach einer gewissen Feinfühligkeit der Lehrpersonen, die einen deutlichen Einsatz abverlangen und fördern, aber nicht überfordern sollen. (Überforderung könnte z. B. auch durch ein zu schnelles, nicht „hirngerechtes“ Vortragstempo bewirkt werden.)

* Weitere negative Faktoren: Drogen, falsche Ernährung, Alter, Nervosität, Depressionen, private Konflikte, Lärm etc.

 

- Dem Gedächtnis verwandte Phänomene:
* Negative Nachbilder (s. o.)

* Eidetische Phänomene („photographisches Gedächtnis“): besonders bei Kindern auftretende Fähigkeit, ein detailreiches Bild nach kurzer Ansicht auch nach längerer Zeit beinahe fehlerfrei reproduzieren zu können. Nach einem seiner Beschreiber, dem Wiener HNO-Professor Victor Urbantschitsch (1847-1921; wird 1970 im Roman Kalkwerk von Nicolaas Thomas Bernhard, 1931-1989, erwähnt) handelt es sich um ein „subjektives Anschauungsbild“. Grundlage ist ein außergewöhnlich leistungsfähiges ikonisches (visuell-sensorisches) Gedächtnis. (Einer der bekanntesten Künstler mit eidetischer Gabe ist die „lebende Kamera“ Stephen Wiltshire, *1974, ein Autist mit Inselbegabung, der in der Lage ist, nach nur einem Rundflug das Panorama ganzer Städte detailliert nachzuzeichnen.) Das Phänomen steht zwischen negativem Nachbild und Vorstellung.

* Vorstellungen:

° Sie haben keine Reizgrundlage.
° Sie sind ungenauer als die Wirklichkeit.
° Sie sind willentlich hervorrufbar.

            2 Arten:

° Phantasievorstellungen (Neukombinationen)
° Erinnerungsvorstellungen (aus Gedächtnis)

Die Vorstellungsfähigkeit („Imagery“) lässt sich für das mentale Training (Verschiebung des Realverhaltens in den kognitiven Bereich; s. o.) nützen. Zu der Funktion von Vorstellungen vgl. Friedrich Nietzsche (1844-1900): „Allein die Kunst vermag jene Ekelgedanken über das Entsetzliche und Absurde des Daseins in Vorstellungen umzubiegen, mit denen sich leben lässt.“ - Zu den Erinnerungsverzerrungen s. o.

* Illusionen (Pareidolien): Illusionen sind Umdeutungen (bzw. die Verkennung) bestehender Wahrnehmungen; der Begriff wird auch für optische Täuschungen verwendet. „Pareidolie“ („Trugbild“) meint oft „Hinzufügung“. Illusionen können auch bezüglich Realität und Fiktion bestehen. So sehen sich z. B. manche Menschen in Videospielen in eine „reale“ Atmosphäre versetzt, hingegen wurde am 11. 9. 2001 der reale Einschlag der Flugzeuge in die Twin Towers des WTC in New York als einem Action-Film oder Videospiel gleichartig empfunden.

* Halluzinationen (Trugwahrnehmungen): Es handelt sich um subjektiv als Wahrnehmung erscheinende Bewusstseinsinhalte, die keine Entsprechung in der Außenwelt haben (v. a. bei Geisteskranken; z. B. Stimmenhören).

* Pseudohalluzinationen: Sie treten meist im Zustand der Ermüdung auch bei Gesunden als Trugwahrnehmungen, deren Inhalt meist über längere Zeit durchgeführte Tätigkeiten sind, auf. (Man vermeint z. B. während des Einschlafens immer noch ein Auto zu lenken oder skizufahren, wenn man dies den ganzen Tag getan hat.)

* Perseverationen: Dieses Haftenbleiben von Gedanken oder Vorstellungen tritt sowohl bei psychisch Kranken wie auch bei Gesunden ungerufen auf. (Beispiel für das Verharren gewisser Gedächtnisinhalte: „ohrwurm“artige Melodien.)

 

LERNEN IM VEGETATIVEN BEREICH

Diese Überschrift erscheint kontraintuitiv, da sie Lernen in einem nicht kontrollierbaren Bereich postuliert. Die Antagonisten Sympathikus (für anregende, leistungssteigernde Prozesse verantwortlich) und Parasympathikus (für hemmende Prozesse verantwortlich) sind jedoch selbst lernfähig und beeinflussbar.

 

- Definition:
Der Vegetativbereich eines Lebewesens ist - neben dem sensorischen und dem motorischen System - der dritte große Teil des Nervensystems. Es handelt sich um jenen Bereich, der nicht dem freien Willen unterliegt und der die lebenserhaltenden Funktionen steuert (Blutkreislauf, Herzschlag, Atmung...). Dieser Bereich ist klassisch konditionierbar (Signallernen).

 

- Klassisches Konditionierungsex von Pawlow:
Vgl. Seite über Pawlow und Webseite Klassische Konditionierung nach Pawlow (Folien 16-26). (Zum Unterschied zum Operanten Konditionieren s. u.)

Der russische Physiologe Iwan Petrowitsch Pawlow (1849-1936; Medizin-Nobelpreis 1904) fand in seinen Exen. heraus, dass Speichelfluss, der bei Hunden normalerweise reflexhaft als Reaktion auf Fleischpulver auftritt (es sei denn, das Tier ist übersättigt), nach einer gewissen Latenzzeit auch durch einen ursprünglich neutralen Glockenton ausgelöst werden kann, wenn dieser lange genug in zeitlicher Nachbarschaft (innerhalb eines zu bestimmenden Interstimulusintervalls, das herausgefunden werden muss und planartig verändert werden kann) mit der Nahrung dargeboten wird. Den Effekt dieser raum-zeitlichen Nachbarschaft bzw. Gleichzeitigkeit (Kontiguität) nennt man Klassische Konditionierung. Sie beruht auf einer erlernten Assoziation, die eine Antizipation der Nahrung durch die Glocke bewirkt. Das Verhalten wird also als Komplex reflektorischer Vorgänge betrachtet, die durch Irradiation (Ausbreitung entsprechender Prozesse im ZNS) entstehen. (Im Unterschied zum Lidschlussreflex u. a. ist diese Art von Reflexen durch Lernen beeinflussbar, wobei der Lernvorgang - s. o. - mit einer Veränderung der Synapsenstärke einhergeht.)

* Begriffe:

° UCS = unconditioned stimulus, unbedingter Reiz (im Ex. das Fleischpulver)
° UCR = unconditioned reaction, unbedingte Reaktion (Reflex; im Ex. der primäre Speichelfluss; Verhältnis UCS/UCR: r = 1)
° CS = conditioned stimulus, bedingter Reiz (im Ex. der Glockenschlag, am wirksamsten 1/2 sec vor dem UCS)
° CR = conditioned reaction, bedingte Reaktion (im Ex. der durch die Glocke ausgelöste Speichelfluss; Verhältnis CS/CR: r = zwischen 0 und 1)

Abb. 3/23: Klassische Konditionierung nach Pawlow (© Thomas Knob)

* Generalisation und Erweiterung: Wenn mit einem dem erlernten CS ähnlichen Reiz auf Basis der Irradiation eine Überschneidung von Erregungsfeldern und als Folge eine CR erreicht wird (z. B. veränderter Glockenklang, rotes statt grünes Licht etc.), nennt man dieses Phänomen Reizgeneralisation. Generalisationsexe lassen Rückschlüsse auf die Abstraktions- und die Reizdiskriminationsfähigkeit eines Tieres zu.

Ex.: Zu einer experimentellen Neurose führte die Konditionierung von Hunden auf Ellipsen als CSs. Nachdem sie die Unterscheidung zwischen einer projizierten Ellipse (mit UCS gekoppelt) und einem projizierten Kreis (nie mit dem UCS gekoppelt) erlernt hatten (Differenzierung), wurde die Achsenlänge dem Kreis so stark angenähert, dass für die Tiere die Unterschiede nicht mehr merkbar waren. Dies führte zu Übersprungsbewegungen (s. o.) und Unsicherheit.

Konditionierungen lassen sich auch erweitern, indem man vor den CS (z. B. Glocke) einen zweiten CS (z. B. Lichtsignal) setzt (bedingter Reflex zweiter Ordnung; beim Menschen sind Konditionierungen bis zur 7. Ordnung mit dem 2. Signalsystem, der Sprache, gelungen).

* Differenzierung und Einengung: Umgekehrt lassen sich Signale einengen (z. B. statt allen Lichtblitzen „gelten“ nur noch blaue Blitze).

* Extinktion: Wird der CS über längere Zeit weggelassen bzw. tritt der CS immer öfter ohne UCS auf, wird die erlernte Assoziation abgeschwächt und schließlich gelöscht (extinguiert).

* Spontanremission: Werden in einer Extinktions-Phase eine Zeitlang weder CS noch UCS dargeboten, so steigt die Bereitschaft, auf den CS zu reagieren nach dieser Pause wieder etwas an (Spontanremission). Erklärung: Die Hemmung, die sich aufbaut, wenn der CS alleine wahrgenommen wird, baut sich in der Pause wieder ab.

Abb. 3/24: Spontanremission (© Thomas Knob)

 

LERNEN IM VERHALTENSBEREICH

Dieser Bereich wurde vor allem von amerikanischen Lerntheoretikern geprägt und hatte lange Zeit großen Einfluss auf die gesamte Wissenschaft der Psychologie. Im Grunde enthält dieses Kapitel die Geschichte der behaviouristischen Theorien (s. o.) und ihrer Überwindung.

 

- Definitionen:
Lernen im Bereich des Verhaltens (Lernen am Erfolg) wurde v. a. von der amerikanischen Psychologie erforscht. Der extrem milieuoptimistische Behaviourismus (auch Behaviorismus) hat sich hauptsächlich als Lerntheorie etabliert. (Lernen ist für ihn Verhaltensänderung aufgrund einer S => R-Beziehung, s. o.; Der Behaviourismus wurde „Psychologie ohne Seele“ genannt.)

* Grundthese des Behaviourismus: Jedes (menschliche oder tierische) Verhalten ist aufgrund von Reiz-Reaktions-Beziehungen erklärbar (S = stimulus, Reiz; R = reaction, Reaktion). Beobachtbar sind nur der Input (S) und der Output (R), das Lebewesen selbst bleibt eine „black box“ (Verzicht auf jeden Introspektionismus).

* Ziele des Behaviourismus:

° adäquate Beschreibung des (tierischen und menschlichen) Verhaltens
° Voraussagemöglichkeit und damit Kontrolle bzw. Beeinflussung des Verhaltens
° Entwicklung einer Lern- und Verhaltenstheorie

 

- Entwicklung des Behaviourismus anhand seiner Hauptvertreter:
Vgl. Behaviorismus

* John Broadus Watson: Watson (1878-1958; s. a. hier), ein extremer Milieuoptimist, gilt mit seinem 1913 veröffentlichten Behaviourist Manifesto als Begründer des Behaviourismus: Psychologie sei ein objektiver Zweig der Naturwissenschaft, ein mentales Leben könne nicht nur nicht beobachtet werden: es existiere gar nicht. („Gebt mir ein Dutzend gesunder, wohlgebildeter Kinder und meine eigene Umwelt ..., und ich garantiere, dass ich jedes ... zu einem Spezialisten in irgendeinem Beruf erziehe, zum ... Künstler, Kaufmann oder zum Bettler und Dieb...“). Wissenschaftlich zulässig ist für ihn allein das Reiz-Reaktions-Schema (S-R).

Ex.Little Albert“: Um seine Theorien zu beweisen, züchtete Watson 1920 dem Kleinkind Albert (vermutlich Albert B., 1920-2007) Angst vor einer ursprünglich als neutraler Reiz fungierenden weißen Ratte an (durch Koppelung mit einem angsterregenden Gongschlag), die er später gerüchteweise auf alles Pelzige generalisierte. Grund: Er wollte zeigen, dass Angst (wie auch die beiden anderen seiner Meinung nach existierenden Grundemotionen: Wut und Liebe) etwas Erlerntes und daher auch wieder Verlernbares ist. (Bevor er seine Gegenkonditionierung anwenden konnte, verlor die Mutter Alberts das Vertrauen in ihn und verschwand mit ihrem Sohn.

Das Experiment, das er gemeinsam mit seiner Mitarbeiterin Rosalie Alberta Rayner (1898-1935) durchführte, gab Anlass, über ethische Aspekte der Forschung nachzudenken. Watsons allgemeine Ansichten zur Kindererziehung sind aus heutiger Sicht ebenso hochproblematisch (dies gilt offenbar auch für seinen privaten Bereich: beide Söhne verübten aufgrund ihrer Depressionen Selbstmordversuche, einer starb daran). Zusätzlich führte die Missbilligung der Beziehung des verheirateten Forschers zu Rayner (die er später ehelichte und mit der er zwei Söhne hatte, bevor sie an einer verdorbenen Frucht starb) dazu, sich von der Universität zurückzuziehen und als Werbepsychologe zu arbeiten. Als solcher entdeckte er, dass Menschen weniger durch rationale Argumente als viel eher durch das Hervorrufen von Emotionen zu überreden bzw. zu überzeugen sind. Diese Erkenntnis wird seither in der kommerziellen Werbung, aber auch in der politischen Propaganda tagtäglich umgesetzt.)
Vgl. Watsons Little Albert Study

* Edward Lee Thorndike: Thorndike (1874-1949), der als Begründer der Theorie vom Verstärkerlernen gilt, erweiterte das S-R-Modell, indem er ein Streben nach Bedürfnisbefriedigung und damit eine Eigengesetzlichkeit des Organismus (EdO) als intervenierende Variable (iV) unterstellt. Er beschrieb als erster Behaviourist das trial-and-error-Verhalten. (Zu seinem Lernmodell s. u.)

* Clark Leonhard Hull: Hull (1884-1952) führte ein zusätzliches, antizipatorisches Element ein: die Erfolgserwartung (EE; Zielgradient). Innerhalb der Habit-Familie (der zur Verfügung stehenden Verhaltensweisen) ergebe sich je nach Situation eine Hierarchie, die bewirke, dass das Individuum die zum Ziel führende Verhaltensweise auswähle. Bedingte Reaktionen würden durch Erfolg stabilisiert.

* Burrhus Frederic Skinner: Skinner (1904-1990), der Erfinder des Programmierten Unterrichts (s. o.) und der Skinner-Box (vgl. Darstellung z. B. in diesem Video und Skinner-Interview), eines Tierkäfigs (er verwendete v. a. Tauben), der unter strikten Bedingungen und unter Ausschaltung aller ungewollt einwirkenden Variablen eine störungsfreie Beobachtung bei Exn garantiert, rechnete als erster Behaviourist mit spontanem Verhalten ohne Reizgrundlage (= operantes Verhalten oV im Gegensatz zum reaktiven Verhalten). Prinzipiell glaubte er aber, dass jedes Verhalten durch sein Ergebnis kontrolliert werde. (Skinner verwendete die Begriffe „positive -“ / „negative Verstärkung“, aber aus Sachlichkeitsgründen niemals die Begriffe „Belohnung“ / „Strafe“, wobei die Wirkung der positiven Verstärkung stärker als die der negativen sei.)
Zu seinem Lernmodell s. u. - Vgl. Seite der Skinner-Foundation

* Edward Chace Tolman: Tolman (1886-1959) kann (gemeinsam mit anderen) als der Überwinder des Behaviourismus als reine Verhaltensbeobachtungspsychologie angesehen werden. Er rechnete mit latentem Lernen von Bedeutungen und Mustern und zielorientiertem Handlung (anstelle von trial and error) und formulierte damit eine bereits kognitive Lerntheorie. Beim Lernen von Labyrinthen z. B. hätten die Tiere (meist Ratti norvegici mit Albinovariante) eine geistige Landkarte (cognitive map) im Kopf. Seine Ideen wurden weiterentwickelt von

* Robert Mills Gagné: Gagné (1916-2002) gilt nach Tolman als wichtigster Vertreter der kognitiven Wende. Seine Theorie von Lernen als Informationsverarbeitung vor allem im schulischen Bereich schreibt dem Lehrer die Aufgabe zu, Teilaufgaben in einer hierarchischen Sequenz anzuordnen und eine „Lernstruktur“ zu schaffen. Der Lernende stehe in einer Reizsituation, die Reaktionen hervorrufe. Lernen sei eine „Änderung in menschlichen Dispositionen oder Fähigkeiten, die erhalten bleibt und nicht einfach dem Reifungsprozess zuzuschreiben ist.“ In einer veränderten Leistung zeige sich der Erfolg. (Gagné beeinflusste die Curriculumtheorien, die eine möglichst präzise Regelung nicht nur von Lernzielen und Lerninhalten, sondern auch von Lernprozessen und der Lernorganisation schaffen wollen, und befasste sich v. a. mit dem Regellernen.)

Der Gang der Entwicklung des Behaviourismus zeigt, dass der ursprüngliche Ansatz umso mehr verlassen wird, je adäquater die Beschreibung des Verhaltens gelingt:

S => R S + EdO (iV) => R S + EdO (iV) + EE => R S + EdO (iV) + EE + oV => R kognitive Wende

 

LERNMODELLE

(vgl. a. folgende Übersicht)

 

- Neurophysiologisches Modell:
Lernen besteht in einem „Prozess des Herausbildens relativ überdauernder neuraler Leistungsbögen durch simultane Aktivität der den Bogen konstituierenden neuralen Elemente, sodass mit fortschreitender Veränderung der Zellstrukturen eine schnellere Aktivierung des gesamten Bogens dann erfolgen kann, wenn nur eines der neuralen Elemente aktiviert (gereizt) wird“ (so schon 1956 B. Richard Bugelski, 1914-1995). Aus heutiger Sicht erfolgt Lernen gemäß der Plastizitätshypothese (s. o.), indem die Synapsenstärke bzw. die kortikale Ebene erfahrungsabhängig verändert werden. Kortikale Repräsentationen werden durch Lernen Schritt für Schritt nachhaltig verändert. Ständige Musterwiederholung und dauernde Fehlerrückmeldung helfen dabei. Die Lerngeschwindigkeit wird in neuronalen Netzen durch die Lernkonstante ausgedrückt. (Sie ist bei Jüngeren, die ein größeres Arbeitsgedächtnis und eine höhere Verarbeitungsgeschwindigkeit aufweisen, höher.)

 

- Kognitives Lernmodell:
Kognitive Lerntheorien gehen von der Auffassung aus, dass informationsverarbeitende Strukturen Lernvorgängen unterliegen. Das kognitive Feld wird durch Lernen umgestaltet. Die „kognitive Wende“ wollte das behaviouristische Erklärungsparadigma ablösen. Kognitionspsychologie beschreibt Prozesse des Wahrnehmens, Denkens, Urteilens und Schließens und beschäftigt sich mit der Frage, wie Menschen ihre Erfahrungen strukturieren, ihnen Sinn beimessen und wie sie ihre gegenwärtigen Erfahrungen zu vergangenen - im Gedächtnis gespeicherten - Erfahrungen in Beziehung setzen. (Zum Vergleich: „It is quite possible - overwhelmingly probable, one might guess - that we will always learn more about human life and human personality from novels than from scientific psychology.“ Noam Chomsky, *1928, Language and Problems of Knowledge: The Managua Lectures, Lecture 5, 1988, S. 159)

 

- Lernmodell von Pawlow:
Lernen beruht auf Gedankenverbindungen: es erfolgt durch wiederholte gemeinsame Darbietung von CS und UCS. Die dadurch eingeprägte Assoziation des auslösenden Reizes mit einem ursprünglich neutralen Signal ist das Ergebnis eines Lernvorganges, der an natürliche Reflexe gebunden erscheint.

 

- Lernmodelle des Behaviourismus:
* Guthrie: Im Anschluss an Pawlows Terminologie entwickelte Edwin Ray Guthrie (1886-1959) die Kontiguitätstheorie, nach der eine Kombination von Reizen, die mit einer Bewegung einhergeht, beim erneuten Auftreten diese Bewegung nach sich zu ziehen pflegt. Eine verstärkende Wiederholung sei dabei nicht nötig. „Ein Reizmuster gewinnt bei seinem ersten gemeinsamen Auftreten mit einer Reaktion seine volle Assoziationsstärke.“ (Deshalb würden im Ex. Katzen, die die futterspendende Taste beim ersten erfolgreichen Versuch zufällig mit der linken Pfote berührt hätten, auch in der Folge nie die rechte benützen - abergläubisches Verhalten.) Aus einzelnen Bewegungen (movements) entstehe eine Aktion (act) und daraus dann das Verhalten (behaviour).

* Thorndike: Lernen beginnt - bei Lernbereitschaft - mit einem trial-and-error-Verhalten (eine heuristische Methode, die angestrebte Lösung durch Eliminierung der fehlgegangenen Versuche herauszufinden) und berücksichtigt folgende

          Thorndike'sche Lerngesetze:

° Gesetz des Effekts (law of effect): Je stärker das Motiv (etwa Hunger) und der Effekt (etwa Erreichen des Futters), desto eher wird ein Lernvorgang erfolgreich abgeschlossen werden („Lernen am Erfolg“); nachgewiesen etwa in Ex.en, in denen von Versuchstieren das Öffnen eines Käfigschlosses einer von Thorndike entworfenen und später in durchdachterer Form von Skinner weiterentwickelten „Puzzle Box“ bewerkstelligt werden muss. Ein angenehmes Ende (Erfolg, Belohnung) stärkt, ein unangenehmes Ende (Scheitern, Bestrafung) schwächt die entsprechende Verhaltensweise.
° Gesetz der Frequenz (law of exercise): Je häufiger eine S-R-Verbindung wiederholt wird, desto eher prägt sie sich ein.
° Gesetz der Bereitschaft (law of readiness): Ein Lernvorgang erfolgt nur unter der Voraussetzung der Bereitschaft dazu. Diese tritt ein, wenn bedürfnisorientiert ein angenehmer Zustand hergestellt oder beibehalten bzw. ein unangenehmer beendet oder vermieden werden kann.
° Analogiegesetz (law of analogy): In neuen Situationen tendiert das Verhalten dazu, ein ähnliches aus früheren (bekannten) Situationen zu wiederholen.

Folgerung: Lernen erfordert Belohnung, Übung und Verbindungen und erfolgt, wenn unangenehme Triebspannungen vermieden werden sollen (Instrumentelles Lernen bzw. Konditionieren).

*  Hull: Seine Instinktreduktionstheorie besagt, dass needs (physiologische Mangelzustände, Bedürfnisse) den Organismus zu Verhaltensweisen veranlassen, die diese Spannungszustände verringern, die Befriedigung der Bedürfnisse erreichen und Homöostase wiederherstellen wollen. Der Trieb stellt die motivationale Komponente dieser Bedürfnisse dar.

* Skinner: Lernen ist Veränderung von Reaktionswahrscheinlichkeiten (vgl. auch Skinners Buch Beyond Freedom and Dignity / Jenseits von Freiheit und Würde von 1971, in dem er eine Art Umweltdeterminismus vertrat) und basiert auf gleichbleibender, veränderlicher oder unregelmäßiger positiver (belohnender) Verstärkung (reinforcement) von operantem - also zufällig auftretendem - Verhalten (ev. nach einem Intervallplan; Unregelmäßigkeit scheint besonders wirksam zu sein, wie auch Videospieldesigner und Glückspielorganisatoren wissen, die auf diese Weise ihre Kunden manipulieren), die sukzessive das erwünschte Verhalten bilden sollen, bzw. auf Bestrafung des Gegenteils (negative Verstärkung durch punitive Reize). Denkprozesse spielen dabei keine Rolle, der freie Wille ist für Skinner eine Illusion. Dies wird Operantes Konditionieren genannt. (Im Unterschied zur klassischen Konditionierung wird kein natürlich auslösender Reiz vorausgesetzt. Das Verhalten wird durch die Konsequenzen der Aktionen konditioniert.) In diesem Zusammenhang gilt, dass nicht (nur) die messbare Größe, sondern die Unerwartetheit der Belohnung deren Wirkung bestimmt. Gelernt wird vor allem dann, wenn die Erwartung übertroffen wird.

Darauf beruht die Dressur nach dem Motto: „Jetzt haben wir ihn endlich so weit“, sagte die eine Ratte zur anderen, „jedes Mal, wenn wir diese Taste drücken, wirft er uns ein Stück Futter herunter“. Als Verstärkung von bzw. Anreiz für erwünschte Verhaltensweisen können auch sekundäre (später konvertible) Verstärker wie Tokens (z. B. Münzen, Punkte; sie bilden ein Nahziel, um ein Fernziel zu erreichen und „überlisten“ so unsere mentale Verfasstheit) oder gemäß dem Premack-Prinzip eine Aktivität fungieren, die häufiger in Kontingenz zu der seltener auftretenden, erwünschten auftritt (z. B. Spielen / Lernen; nach David Premack, 1925-2015). Sekundäre Verstärker sind also solche, die durch Assoziation mit natürlichen Verstärkern (die kein Lernen erfordern) wirksam werden.

Ex.: Auch der Vegetativbereich erwies sich (bei Ratten!) als konditionierbar. So gelang es dem Lehrer von Zimbardo (s. u.), Neal Elgar Miller (1909-2002), und Leo V. Di Cara (1937-1976), durch Biofeedback die Durchblutung eines Ohres zu steuern. Zur verbalen operanten Konditionierung vgl. den Greenspoon-Effekt: Als bestätigend empfundene Reaktionen des Versuchsleiters - z. B. ein kaum wahrnehmbares „Mhmm“ bei jeder zufälligen Verwendung von Wörtern im Plural - führen nach Joel Greenspoon (1920-2004) zu Verstärkereffekten.

 

- Lernen am Modell:
s. dazu Transmission of Aggression
Nach Albert Bandura (1925-2021, der auch das Konzept von der Selbstwirksamkeitserwartung / self-efficacy entwickelt hat; s. u.) erfolgt Lernen durch Nachahmung von Vorbildern, und zwar in zwei Phasen: Akquisition und Ausführung. Soziales Lernen enthält nach dieser Theorie vier Elemente: Aufmerksamkeit (Verhaltensweisen werden bemerkt) - Abspeichern (sie werden im Gedächtnis behalten) - Reproduktion (sie werden imitiert) - Motivation (sie finden Zustimmung oder Belohnung). Modelllernen findet sich v. a. in der Kindheit und bei motorischen Fähigkeiten, z. B. im Sport: Trainieren bedeutet z. T. Nachahmen. (Schon 1954 hat US-Amerikaner Julian B. Rotter, 1916-2014, in Ohio eine Soziale Lerntheorie entwickelt, nach der Entscheidungen bei mehreren Handlungsoptionen nicht nur durch Persönlichkeitseigenschaften, sondern auch durch erlerntes soziales Verhalten bestimmt werden.)

Banduras bekannteste Studie war das 1963 durchgeführte Bobo-Doll-Ex.: 3-6jährige Kinder der Vg. konnten während ihres Spiels eine ältere Person dabei beobachten, wie sie in offensichtlich frustriertem Zustand eine Stehaufmännchen-Puppe misshandelte, Kinder der Kg. spielten ungestört. Später zeigte die Vg. in überzufälliger Häufigkeit in entsprechenden Situationen selbst aggressives Verhalten. Es gab viele Folgeexperimente mit ähnlichem Setting. Nach der Konsumation von Fernsehfilmen mit Gewaltszenen stieg etwa die Bereitschaft bei Kindern signifikant an, im Spiel auch selbst Aggression umzusetzen. Wenn auch ein direkter Zusammenhang von Medienkonsum und Gewaltbereitschaft aufgrund der unüberschaubaren anderen Faktoren schwer nachweisbar ist, so scheinen Langzeitstudien (z. B. von Leonard Eron, 1920-2007, und L. Rowell Huesmann, *1940?, die 1986 nach einem Vierteljahrhundert Beobachtung von über 800 Vpn. eine diesbezügliche Korrelation fanden und zum Schluss kamen, dass „Gewalt eine hochansteckende Krankheit“ sei) nahezulegen, dass die Konfrontation mit Gewalt überzufällig negative Auswirkungen auf das spätere Leben hat. (Zum Einfluss der Medien s. a. u.)

 

- Lernen aus Einsicht:
Direktes Erfassen von Bedeutungen und Sinnzusammenhängen bzw. das Erkennen von Beziehungen zwischen Hinweisreizen (z. B. Instrumenten) und einem Zielreiz (z. B. Futter), das im Beispiel zum Gebrauch des ersten führt, um das zweite zu erhalten, wird „Lernen aus Einsicht“ genannt.

* Georg Wilhelm Friedrich Hegel (1770-1831): Er unterscheidet diese Form des Lernens vom Auswendiglernen: „Die Gedanken anderer können nur durch das Denken aufgefasst werden, und dieses Nachdenken ist auch Lernen.“

* Kurt Koffka (1886-1941): Die Gestaltpsychologie (s. o.) geht davon aus, dass die Organisationsgesetze der Wahrnehmung auch auf das Lernen zutreffen, das daher nicht durch Versuch und Irrtum erfolge, sondern sich durch und im Laufe der Erfahrung verändere. Psychologische Prozesse seien die Funktion des aktuellen Feldes (s. o.).

* Alfred Petzelt (1886-1967): Lernen als eigenständiges Erkennen (Kant: „Ich kann einen anderen niemals überzeugen als durch seine eigenen Gedanken“) führt nach Petzelt zum von ihm so genannten Possesivverhältnis zwischen dem Lernenden und dem zu erlernenden Gegenstand: „Nach jeder neuen Wissenseinheit entsteht ein neues Ich. [...] Das Ich vermehrt [beim Lernen; Anm.] nicht seinen Besitz, sondern es macht sich in eigenen Akten neu.“ Lernen ist daher nicht Addition von Wissen, sondern bedeutet Auseinandersetzung und Veränderung. (Vgl. dazu auch Michel de Montaigne, 1533-1592: „Man darf das Wissen nicht einfach der Seele anhängen, man muss es ihr einverleiben“ in Über die Schulmeisterei.)

 

 


Fragen und Kommentare an thomas.knob@chello.at

 



Seitenbeginn - Teil 1 -
Teil 2 - Teil 4 - Teil 5 - Materialien - Inhalt

 

Copyright © 1999-2025 Thomas Knob. All rights reserved. - Die Informationen erfolgten nach bestem Wissen und Gewissen. Für den Inhalt der verlinkten Seiten wird keine Verantwortung übernommen.