20
DGB 47 Fremd/ZweitSracherwerb Universität Athen, Wise 2014 Winfried Lechner Handout #2 BOOTSTRAPPING - WIE WIRD DAS LEXIKON ERWORBEN? Bisher wurde die Entwicklung besprochen, die Neugeborene und Kinder in die Lage versetzt, zwischen (i) unterschiedlichen Sprachen (ii) Lauten in fremden Sprachen sowie (iiii) Lauten der eigenen Sprache zu unterscheiden (Handout #2). Die Erklärung, die für diese Beobachtungen gegeben wurde ist, dass Kinder mit der Fähigkeit zur kategorialen Perzeption geboren werden und dass kategoriale Perzeption die Grundlage für die Segmentierung des Sprachsignals bildet. 1 In (1) werden einige der wichtigsten Erkenntnisse aus Handout #2, das den relativen zeitlichen Ablauf von L1-Erwerb in den ersten 12 Monate umfasst, nochmals kurz aufgelistet. (Die unterschiedlichen Stadien der Lallphase wurde nicht im Detail besprochen). (1) Stadien des Spracherwerbs - das erste Jahr a. Vor Geburt (28-35 Schwangerschaftswoche) i. Föten diskriminieren zwischen Sprechern (. unterscheiden) ii. Föten unterscheiden zwischen Phonemen b. Bei Geburt i. Kinder diskriminieren Muttersprache von Fremdsprache ii. Kinder diskriminieren zwischen unterschiedlichen, unbekannten Fremdsprachen iii. Kinder erkennen Vokale c. 1 Monat: Erkennung von Kontrasten zwischen Konsonanten ([b] vs. [p],...) d. 3 Monate: Absenkung des Kehlkopfes (Larynx) e. 5 Monate: Kinder reagieren auf eigenen Namen f. 6 - 8 Monate: Lallphase (babbling) i. Reduplikativ: alle Äußerungen haben Form CV ii. Nicht reduplikativ: Äußerungen enthalten beginnende Silbenstruktur Entwicklung von Akzent und Prosodie Protowörter g. 8 - 10 Monate: i. Fähigkeit, Konsonantenkontraste in Fremdsprache wahrzunehmen, nimmt ab ii. Vokalinventar wird von aufgebaut h. 10 - 12 Monate: Beginn von Sprachverständnis und der Grammatik i. Kinder können nicht mehr nicht-muttersprachliche Konsonantenkontraste unterscheiden ii. Konsonanteninventar entwickelt sich (Liste adaptiert und erweitert aus Guasti 2002: 53) Der nächste wichtige Schritt im L1-Erwerb ist der Aufbau des mentalen Lexikons, also einer (anfänglich relative kleinen) Menge von Assoziationen zwischen Form und Bedeutung. Morphologie sowie die rekursiven Systeme Syntax und Semantik können sich aus naheliegenden Gründen erst dann entfalten, wenn das Kind die Grundbausteine erlernt hat, auf die diese Systeme zugreifen. Zeitlich sieht die Entwicklung so wie in (2) dargestellt aus. (Vorsicht bei der 1 Ähnliche Ergebnisse wurden auch bei der Verarbeitung nicht-sprachlicher akustischer Signale gefunden. Mit 4.5 Monate erkennen Kinder z.B. schon musikalische Rhythmen und diskriminieren zwischen ‘grammatischen' und nicht ‘ungrammatischen' musikalischen Phrasen.

BOOTSTRAPPING WIE WIRD DAS LEXIKON ERWORBEN 02... · Maria muss in die Schule gehen b. Viktor ist aus dem Bett gefallen Doch hilft dies Kindern wenig, einfach aus dem Grund, dass

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

DGB 47 Fremd/ZweitSracherwerb Universität Athen, Wise 2014

Winfried Lechner Handout #2

BOOTSTRAPPING - WIE WIRD DAS LEXIKON ERWORBEN?

Bisher wurde die Entwicklung besprochen, die Neugeborene und Kinder in die Lage versetzt,

zwischen (i) unterschiedlichen Sprachen (ii) Lauten in fremden Sprachen sowie (iiii) Lauten der

eigenen Sprache zu unterscheiden (Handout #2). Die Erklärung, die für diese Beobachtungen

gegeben wurde ist, dass Kinder mit der Fähigkeit zur kategorialen Perzeption geboren werden

und dass kategoriale Perzeption die Grundlage für die Segmentierung des Sprachsignals bildet.1

In (1) werden einige der wichtigsten Erkenntnisse aus Handout #2, das den relativen

zeitlichen Ablauf von L1-Erwerb in den ersten 12 Monate umfasst, nochmals kurz aufgelistet.

(Die unterschiedlichen Stadien der Lallphase wurde nicht im Detail besprochen).

(1) Stadien des Spracherwerbs - das erste Jahr

a. Vor Geburt (28-35 Schwangerschaftswoche)i. Föten diskriminieren zwischen Sprechern (. unterscheiden) ii. Föten unterscheiden zwischen Phonemen

b. Bei Geburti. Kinder diskriminieren Muttersprache von Fremdspracheii. Kinder diskriminieren zwischen unterschiedlichen, unbekannten Fremdspracheniii. Kinder erkennen Vokale

c. 1 Monat: Erkennung von Kontrasten zwischen Konsonanten ([b] vs. [p],...)d. 3 Monate: Absenkung des Kehlkopfes (Larynx)e. 5 Monate: Kinder reagieren auf eigenen Namen f. 6 - 8 Monate: Lallphase (babbling)

i. Reduplikativ: alle Äußerungen haben Form CVii. Nicht reduplikativ:

Äußerungen enthalten beginnende SilbenstrukturEntwicklung von Akzent und ProsodieProtowörter

g. 8 - 10 Monate: i. Fähigkeit, Konsonantenkontraste in Fremdsprache wahrzunehmen, nimmt abii. Vokalinventar wird von aufgebaut

h. 10 - 12 Monate: Beginn von Sprachverständnis und der Grammatiki. Kinder können nicht mehr nicht-muttersprachliche Konsonantenkontraste

unterscheiden ii. Konsonanteninventar entwickelt sich

(Liste adaptiert und erweitert aus Guasti 2002: 53)

Der nächste wichtige Schritt im L1-Erwerb ist der Aufbau des mentalen Lexikons, also einer

(anfänglich relative kleinen) Menge von Assoziationen zwischen Form und Bedeutung.

Morphologie sowie die rekursiven Systeme Syntax und Semantik können sich aus naheliegenden

Gründen erst dann entfalten, wenn das Kind die Grundbausteine erlernt hat, auf die diese

Systeme zugreifen. Zeitlich sieht die Entwicklung so wie in (2) dargestellt aus. (Vorsicht bei der

1Ähnliche Ergebnisse wurden auch bei der Verarbeitung nicht-sprachlicher akustischer Signale gefunden.Mit 4.5 Monate erkennen Kinder z.B. schon musikalische Rhythmen und diskriminieren zwischen‘grammatischen' und nicht ‘ungrammatischen' musikalischen Phrasen.

Interpretation der Zahlen! Die Altersangaben und die Angaben zur Größe des Lexikons sind

statistische Werte, große Abweichungen sind daher möglich, ohne dass daraus auf gestörte oder

abnormale Entwicklung geschlossen werden könnte.)

(2) Entwicklung des Lexikons

Alter Größe des Lexikons

a. 10-12 Monate erste Wörterb. 18 Monate 50c. 20-24 Monate 200 (täglich werden 5 bis 9 neue Wörter gelernt)d. 36 Monate 2,000 e. 10 Jahre 4.000 aktiv, 12.000 passivf. 14-16 Jahre 10.000 Wörter aktiv, 60.000 Wörter passivg. Erwachsene 20,000 - 50,000 aktiv

Dabei verläuft die Entwicklung des Lexikons in zwei Stufen. Zu Beginn erwirbt das Kind

ein phonologisches Proto-Lexikon, in dem nur phonologische Formen gespeichert sind. Dieses

Lexikon enthält also noch keine Bedeutungen, und somit auch keine vollständigen sprachlichen

Zeichen (Verbindungen zwischen Form und Bedeutung). Erst in einem zweiten Schritt werden

diese Formen mit den dazugehörigen Bedeutungen verbunden. Diese beiden Schritten

entsprechen den beiden Aufgaben, die ein Kind beim Aufbau des Lexikons bewältigen muss:

(3) a. Segmentierung des akustischen Signals in einzelne Wörterb. Assoziation von Form und Bedeutung

Wie diese beiden Schritte im Detail ablaufen bildet das Thema des vorliegenden Teils des

Skriptums. (Die Ausführungen folgen Guasti 2002, Kapitel 3.)

1. BOOTSTRAPPING

Wenn Kinder erstmals mit Sprache in Kontakt kommen, hören sie nur sehr selten isolierte Wörter

(diese Beobachtung ist experimentell unterstützt). Außerdem besitzen die Gegenstände für

Kinder noch keine Namen, da sie noch nicht über ein Lexikon verfügen. Daraus ergibt sich

folgende, nahezu paradoxe Situation. Kinder müssen auf der einen Seite ein Lexikon erwerben.

Wir wissen, dass sie dies tun, da jeder erwachsene Sprecher über ein Lexikon verfügt. Doch auf

der anderen Seite können sie dies eigentlich nicht ohne externe Hilfe tun, da sie weder wissen,

wo die Wörter beginnen/enden, noch welche Bedeutungen dies Wörter haben könnten. Dieses

Problem im L1-Erwerb nennt man das Problem des Bootstrapping.2

Bootstrapping durch Syntax? Eine Möglichkeit, Wortgrenzen zu erkennen besteht nun darin, sich

der syntaktischen Gesetze einer Sprache zu bedienen. Im Deutschen ist z.B. die Tatsache, dass

eine Lautkette vor dem finiten Verb im Hauptsatz auftaucht ein Hinweis darauf, dass es sich um

ein einzelnes Wort handeln könnte (‘könnte’, da die erste Position im Satz natürlich auch von

Phrasen eingenommen werden kann):

(4) a. Maria muss in die Schule gehenb. Viktor ist aus dem Bett gefallen

Doch hilft dies Kindern wenig, einfach aus dem Grund, dass das syntaktische System erst dann

2Der Begriff geht auf die engl. Version des Märchens von Münchhausen zurück, in dem sich dieser anden Schlaufen der eigenen Stiefeln (bootstrap) aus einem Sumpf zieht.

3 DGB 41 Spracherwerb, WiSe 2014

entstehen kann, wenn es zumindest ein rudimentäres Lexikon gibt, und gerade der Aufbau des

Lexikons soll ja erklärt werden. Syntaktische Information kann also nicht herangezogen werden,

um Bootstrapping zu erklären.

Phonologisches Bootstrapping: Bevor sich das Lexikon entwickelt, sind Kinder in der Lage,

zwischen unterschiedlichen Sprachen und Lauten zu diskriminieren (Handout #2). Diese

Fähigkeit wurde auf die Fähigkeit von Kindern zurückgeführt, bereits sehr früh prosodische

Einheiten (28-35 Woche der Schwangerschaft), sowie phonetische und phonemische

Unterschiede in der Muttersprache (ab 8-10 Monat) erkennen zu können. Könnte ein ähnliches

System auch das Bootstrappingproblem lösen helfen? Eine Anzahl von experimentellen

Ergebnissen weist in der Tat darauf hin. Diese Hypothese wird in (5) genauer definiert.

(5) Phonologisches Bootstrapping des Lexikons Kinder beziehen die wichtigsten Hinweise auf die Segmentierung von Wörtern ausphonologischen Eigenschaften des Signals.

Genauer scheint es so zu sein, dass Bootstrapping mit Hilfe von vier unterschiedlichen Arten von

phonetischen und phonologischen Hinweisen bewerkstelligt wird.

(6) Bootstrapping durch vier Faktoren

Bei phonologischem Bootstrapping spielen zumindest die folgenden Faktoren eine Rolle: a. Distributionelle Regularitätenb. Phonotaktische Beschränkungenc. Typische Wortformend. Prosodie

Um die Hypothese in (5) sowie die Behauptungen (6) zu überprüfen, ist es notwendig zwei

Dinge zu zeigen. Erstens muss demonstriert werden, dass die Information, die durch (6)

bereitgestellt wird, ausreichend ist, um Wörter zu segmentieren. Zweitens muss überzeugende

Evidenz für die Annahme gefunden werden, dass Kinder beim L1-Erwerb tatsächlich auf die in

(6) beschriebenen Strategien zurückgreifen. Die folgende Diskussion ist, bis auf die

Ausführungen zu Yang (2004), weitgehend Guasti (2002) entnommen.

1.1. DISTRIBUTIONELLE REGULARITÄTEN

Eine Strategie, um Wortgrenzen in einem kontinuierlichen Signal zu erkennen, besteht darin,

statistische Regulariäten zu nutzen. Die Grundidee ist einfach. Nehmen wir einen Satz wie (7)a

mit fünf Silbengrenzen und zwei Wortgrenzen. Diese Grenzen sind bei normalem Sprachtempo

und bei normaler Artikulation nicht hörbar. Das Kind hört daher eine kontinuierliche Kette,

ungefähr so wie in (7)b.

(7) a. Satz: Peter spielte Karten b. Akustisches Signal: [peter•pi:ltekartn]c. Lautgrenzen: [p | e | t | e | r | • | p | i: |.... ]d. Silbengrenzen: pe.ter.spiel.te.kar.ten e. Wortgrenzen: peter+spielte+karten

Transitionen: Jede Grenze ist gleichzeitig auch ein Übergang, in diesem Fall ein Überganz

zwischen Lauten, Silben oder zwischen Wörtern. Solche Übergänge nennt man auch

Transitionen. Transitionen besitzen des Weiteren eine wichtige Eigenschaft, die unter anderm

#2: Bootstrapping 4

auch in der automatischen Spracherkennung genutzt wird: nicht alle sind gleich häufig - einige

Transitionen treten öfter auf, sind also wahrscheinlicher, als andere. Die Analyse von

Transitionen macht nun die statistischen Regulariäten in einer Sprache sichtbar.

Generell gilt, dass Transitionen innerhalb eines Wortes strengeren Regeln unterworfen sind,

als Transitionen zwischen Worten. Daraus folgt eine wichtige Generalisierung: wenn zwei

Einheiten häufig aufeinander folgen, ist die Wahrscheinlichkeit, dass diese beiden Einheiten

zusammen ein Wort oder Teil eines Wortes bilden hoch. Wenn dagegen die Transition zwischen

zwei Einheiten weniger häufig ist, so sinkt auch die Wahrscheinlichkeit, dass diese beiden

Einheiten innerhalb eines einzelnen Wortes liegen. So ist z.B. der Übergang von [kar] zu [te] in

Kar.te häufiger, als die Transitionen von [te] zu [kar] zwischen Worten in spiel.te.Kar.ten.

Diese allgemeine Regelmäßigkeit wurde bereits von Harris (1954)3 beobachtet.

Diese statistische Information kann nun von Kindern (oder auch in der automatischen

Spracherkennung) benutzt werden, um Grenzen zu isolieren. Die einzige, zusätzliche

Voraussetzung ist, dass das Kind bereits früher mit einer größeren Anzahl von Daten (PLD) aus

der Zielsprache in Kontakt war, um die statistischen Regelmäßigkeiten der Sprache erkennen zu

können. Im Folgenden wird diese Idee im Detail ausgeführt werden (s.a. Guasti 2002: 62).

1.1.1. Transitionen und Wahrscheinlichkeiten

Wenden wir uns jetzt den Details zu. Wie lassen sich Wahrscheinlichkeiten konkret berechnen?

Es folgen zwei Beispiele, die den Hintergrund für ein wichtiges Experiment bilden, das im

Anschluss daran vorgestellt werden wird. Das erste Beispiele ist äußerst einfach; das zweite

umfasst einen etwas komplexeren Bereich von Daten und ist auch systematischer organisiert.

1.1.1.1. Einfaches Beispiel für Wahrscheinlichkeiten: Silben und Wörter

Wie wird nun die Wahrscheinlichkeit einer Transition berechnet? Am besten veranschaulicht

man den Prozess an einem Beispiel. Die Silbe [ele] kann im Deutschen z.B. nur der Silbe [fant]

(Elephant) und [gant] (elegant) vorangehen. Die Wahrscheinlichkeit, dass die Silbe [fant] der

Silbe [ele] folgt ist mit anderen Worten also 0.5 oder 50%. Dagegen ist die Wahrscheinlichkeit,

dass die Silbe [mag] in (8) einer spezifischen anderen Silbe vorangeht relativ gering; [mag] kann

vor der Silbe [das] stehen, oder vor [ein] oder vor [kain], etc... Die Wahrscheinlichkeit für eine

Transition wie [mag das] ist also kleiner als 0.25:

(8) Hans mag das Buchein Buchjedes Buchkein Buch

....

1.1.1.2. Transitionen zwischen Lauten (silbenintern und silbenextern)

Im nächsten Schritt betrachten wir die Transition von Lauten innerhalb der Silbe und über

Silbengrenzen hinweg. Silben bestehen aus drei Teilen (s. (9)). (10) veranschaulicht den Aufbau

der Silbe anhand der Form streifst, die gleichzeitig ein Beispiel für die größtmögliche, also

3Zelig Harris beeinflusste Chomsky stark, und dessen Entwicklung der “Transformationsgrammatik”, wiesie von 1955 - ca. 1975 genannt wurde. Ab ca. 1975 spricht man von Generativer Grammatik.

5 DGB 41 Spracherwerb, WiSe 2014

maximale Silbe des Deutschen, bietet.

(9) a. Nukleus/Silbenkern =Def der ‘Kern’ der Silbe, üblicherweise ein Vokalb. Onset/Silbenanlaut =Def Laute, die dem Nukleus vorangehenc. Koda /Silbenauslaut =Def Laute, die dem Nukleus folgen

(10) Silbenstruktur der maximalen Silbe im Deutschen (‘streifst’,‘schrumpfst’,..)

σ qp

O R 8 ei! ! ! N C! ! ! 2 8[• t r a w f s t]

Die folgende Diskussion wird zeigen, dass Wahrscheinlichkeiten einen Hinweis auf die Lage

einer Transition innerhalb der Silbe (Koda vs. Onset) geben, und somit auch auf die Position von

Grenzen zwischen Worten.

In der Koda4: Betrachten wir konkret der Verteilung der Konsonanten [t] und [l] in der Deutschen

Koda, also am Ende einer Silbe. Wie das Fragment (11)a zeigt, können die folgenden sechs Laute

einem stimmlosen alveolaren Plosiv ([t]) am Silbenende vorangehen: [n], [l], [r], [s], [f] und [m].

Auf der Basis dieser - aus didaktischen Gründen nicht ganz vollständigen - Liste ist es möglich,

die Wahrscheinlichkeit zu berechnen, dass ein bestimmter dieser Laute dem [t] in der Koda

vorangeht. Die Wahrscheinlichkeit, vor dem [t] z.B. ein [r] zu finden ist 1/7 oder ca. 14%:

(11) Transition innerhalb der Koda von Silben, von [t] nach links

a. [nt] [lt] [rt] [st] [ft] [mt]Hand5 halt hart hast Haft HemdWind mild Wert Mast lauft fremd

b. Wahrscheinlichkeit [α]-[t]: 1/7

(12) gibt Beispiele für Transitionen in die andere Richtung, also von links nach rechts, und zeigt

die Wahrscheinlichkeit, dass ein bestimmter Konsonant in der Koda dem Laut [l] folgt

(wiederum zur Illustration ein Fragment). Hier beträgt die Wahrscheinlichkeit 1/4:

(12) Transition innerhalb der Koda von Silben, von [l] nach rechts

a. [lt] [ls] [l•] [lm]kalt Hals falsch HalmBild Wels Welsch Helm

b. Wahrscheinlichkeit [l] - [α]-[t]: 1/4

4Für weitere Diskussion der Begriffe Silbe, Koda und Onset siehe Abschnitt 3 von:http://eclass.uoa.gr/modules/document/file.php/GS164/LingIntro2009%2005%20Phonologie%20II%20v2.pdf

5/d/ ÿ [t] durch Auslautverhärtung

#2: Bootstrapping 6

Im Onset: Im Onset einer Silbe, also am Silbenbeginn, findet man - mit Ausnahme von [st] in

einigen Dialekten (Hamburg) - keine einzige der Konsonantenverbindungen in (11)a und (12)a.

Kein Wort des Deutschen beginnt mit dem Onset [nt], ebensowenig existieren [lt], [tn], [tf], [tm]

(vgl. τµήµα), [rt], etc... am Wortbeginn. Dies bedeutet, dass die Wahrscheinlichkeit, diese

Kombinationen am Wortanfang zu finden 0.0 beträgt.

Zwischen zwei Silben: Interessanterweise ist die Transition von Lauten zwischen Silben bei

weitem weniger strikten Gesetzen unterworfen als die Transition innerhalb eines Wortes. So

existiert z.B. die Kombination [n]-[t] nicht als Onset, aber über Silbengrenzen und Wortgrenzen

hinweg in Formen wie:

(13) a. ka[n][t]e ‘die Kan.te’b. ei[n][t]auchen ‘ein.tauchen’

c. ei[n][t]ier ‘ein Tier’d. ka[n][t]räumer ‘kann träumen’e. i[n][t]ibet ‘in Tibet’

Die Wahrscheinlichkeit, [n]-[t] an Silbenbeginn zu finden ist also 0.0, die Wahrscheinlichkeit,

die beiden Laute an einer Grenze zwischen Silben oder Wörtern zu finden ist dagegen auf jeden

Fall höher. Auch wenn wir nur die Beispiele in (13) betrachten, liegt der Wert schon bei 0.2.

Dieser Unterschied kann also, wenn Lerner in der Lage ist, Wahrscheinlichkeit zu berechnen, bei

der Auffindung von Grenzen hilfreich sein und genutzt werden.

1.1.2. Verwenden Kinder Wahrscheinlichkeiten? Saffran, Aslin, and Newport (1996)

Bisher haben wir gesehen, wie die Wahrscheinlichkeit von Transitionen zwischen

unterschiedlichen Einheiten ermittelt werden kann. Saffran, Aslin, and Newport (1996)

argumentierten, dass Kinder diese Information tatsächlich verwenden. Unterschiede in der

Transitionswahrscheinlichkeit erlauben es Kindern während des L1-Erwerbs, Wortgrenzen in

einem kontinuierliche Signal zu erkennen. Kinder verwenden also statistische Information, um

sich sprachliches Wissen anzueignen. Man nennt diese Art des Wissenerwerbs auch Statistisches

Lernen. Bei Statistischem Lernen erwirbt ein Organismus oder ein künstliches System

(Computer) Wissen alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten von

bestimmten Regelmäßigkeiten. Saffran et al. vertreten also die Hypothese in (14):

(14) Hypothese: Kinder verwenden Statistisches Lernen um Wortgrenzen zu erkennen.

Unterstützende Evidenz für (14) kommt von Experimenten, die Saffran et al. durchführten.

Variablen und Bedingungen: Wie bereits in Handout #2 erwähnt wird in einem Experiment

immer eine genau kontrollierte Eigenschaft (die unabhängige Variable) variiert, um dann

festzustellen, welchen Einfluss diese systematische Veränderung auf eine andere Eigenschaft,

die abhängige Variable hat. In der Literatur nennt man die unabhängige Variable auch die

Experimentierbedingung oder, einfacher, die Bedingungen. Bei Bedingungen handelt es sich also

um kontrollierte, d.h. genau definierter, Gruppen von Signalen, die man den Testsubjekten im

Laufe des Experiments präsentiert, um den Einfluss dieser Bedingung auf die abhängige Variable

zu messen. (Weitere Details zur Architektur von Experimenten, und zur Frage, warum man

überhaupt Experimente benutzt, finden sich in Handout #4.)

7 DGB 41 Spracherwerb, WiSe 2014

Teil I - Habituierung: Das Experiment von Saffran, Aslin, and Newport (1996) ist wie folgt

aufgebaut (alle Daten und Interpretation aus Guasti 2002: 66/67). In einer ersten Phase hörte eine

Gruppe von Kleinkindern (8m) eine Reihe von dreisilbigen Phantasiewörtern. In dieser Phase

gewöhnten sich die Kinder an diese Art von Signal. Die Wortfolgen, z.B. pabikudaropitibodo

wurden aus zwei Gruppen von Phantasiewörtern gewählt, die in (15)a und (15)b gegeben sind.

Es gibt ‘Bedingung A’ und ‘Bedingung B’, da zwei unterschiedliche Gruppen von Daten getestet

wurden:

(15) Habituierung (8m)a. Bedingung A: pabiku tibudo golatu daropib. Bedingung B: tudaro pigola bikuti budopa

Die wichtigste Eigenschaft der Gruppen in (15) ist, dass die Silbentransitionen zwischen Wörtern

und wortintern unterschiedliche Wahrscheinlichkeiten besitzen. In Bedingung A folgt z.B.

innerhalb eines Wortes auf pa immer bi, auf bi immer ku, auf ti immer bu, etc... Die

Wahrscheinlichkeit, dass das zweite Element dieser Paare dem ersten folgt ist daher 1.0 (100%).

Anders ausgedrückt: wenn man die erste Silbe kennt, weiß man auch, welche Form die zweite

Silbe besitzt. Bei Τransitionen zwischen Wörtern folgt die Verteilung dagegen viel weniger

strengen Gesetzen. Im vorliegenden Fall kann auf ku entweder ti, go oder da folgen. Gleiches gilt

für die anderen drei Wörter, auch hier gibt es jeweils drei Möglichkeiten im Übergang von einem

Wort zum nächsten. Die Wahrscheinlichkeit, dass man das zweite Element eines Paares

vorhersagen kann beträgt daher nur 1/3 (33%).6

(16) Transitionen für Bedingung A : pabiku tibudo golatu daropi

a. Mögliche Transitionen innerhalb eines Wortes

pa-bi ti-bu go-la da-ro bi-ku bu-do la-tu ro-pi

Y Wahrscheinlichkeit/Vorhersagbarkeit der zweiten Silbe: 1.0 (100%)

b. Mögliche Transitionen zwischen Worten

ku-ti do-pa tu-pa pi-paku-go do-go tu-ti pi-tiko-da do-da tu-da pigo

Y Wahrscheinlichkeit/Vorhersagbarkeit der zweiten Silbe: 1/3 (33%)

Daraus folgt, dass die nächste Silbe zwar innerhalb eines Wortes, aber nicht zwischen Wörtern

vollständig aus den Daten vorhersagbar ist. Weiters ergibt sich daraus, dass Wortgrenzen immer

dort auftauchen, wo die Vorhersagbarkeit/Wahrscheinlichkeit geringer ist. Wenn also Kinder in

der Lage sind, statistische Information zu verarbeiten, sollten sie diese Unterschiede in

Vorhersagbarkeit nutzen können, um Wortgrenzen zu finden. Diese Hypothese testeten Saffran

et al. indem sie den Kindern in einem zweiten Teil des Experiment, der sogenannten Testphase,

neue Reihen von Wörtern präsentierten.

6Zusätzliche Annahme: es folgen niemals zwei gleiche Wörter aufeinander. Wenn dies erlaubt wäre, wäredie Wahrscheinlichkeit 1/4.

#2: Bootstrapping 8

Teil II - Testphase: In der Testphase hörten die Kinder zwei Arten von Wörtern: auf der einen

Seite Formen, die man nach der Habituierung statistisch erwarten würde, auf der anderen Seite

aber auch Kombinationen, die unerwartet sind. (17) zeigt eine dieser Reihen:

(17) Testphase

pabiku tibudo tudaro pigolaÆÉÉÉÉÉÉÉÉÉÉÉÉÉÉÈÉÉÉÉÉÉÉÉÉÇ ÆÉÉÉÉÉÉÉÉÉÉÉÉÉÉÈÉÉÉÉÉÉÉÉÉÉÉÉÉÇ

mögliche Wörter unmögliche Wörter

Nehmen wir an, Kinder konnten während der Habituierungsphase statistische Information über

Transitionen aus den Daten finden. Dann sollte pikabu ein zu erwartendes Wort sein, tudaro

dagegen nicht. Dies folgt aus der Tatsache, dass in den Daten der Habituierungsphase die

Silbenübergänge innerhalb eines Wortes immer vollständig vorhersagbar waren

(Wahrscheinlichkeit 1.00). Bei tu-da-ro werden dagegen die zwei Silben tu-da kombiniert, deren

Verbindung in der Habituierungsphase immer nur zwischen Worten vorkamen, und deren

Wahrscheinlichkeit daher 1/3 beträgt (doppelt unterstrichener Eintrag in (16)b). Das selbe gilt

für pigola. Die beiden Formen tudaro und pigola sollten für die Kinder also neu und unerwartet

sein, da sie nicht den statistischen Gesetzen folgen, die sie in der Habituierungsphase gelernt

haben.

Im Experiment fanden Saffran et al., dass Kinder tatsächlich zwischen möglichen und

unmöglichen Wörtern im oben definierten Sinn unterscheiden. Konkret zeigten Kinder größere

Aufmerksamkeit (gemessen durch Dauer des aktiven Hörens) bei unmöglichen Wörtern. Dies

weist darauf hin, dass Kinder statistische Information, also Information über distributionelle

Regelmäßigkeiten, heranziehen, um Wortgrenzen zu finden.

1.1.3. Statistisches Lernen vs. UG

Das obige Experiment gibt ein Beispiel für sogenanntes Statistisches Lernen. Bei Statistischem

Lernen wird Wissen alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten von

bestimmten Regelmäßigkeiten - im obigen Fall der Übergang von einer Silbe zur nächsten -

erworben. Statistisches Lernen stellt nun eine potentielle Alternative dar zu der Annahme dar,

dass Sprache mittels angeborener Prinzipien erworben wird, die aus der genetisch veranlagten

Universalgrammatik stammen. Daraus ergibt sich folgende Frage:

(18) Frage: Können Wortgrenzen ausschließlich durch Statistisches Lernen und ohne Hilfevon angeborenen Prinzipien erkannt werden?

Die Frage ist wichtig, weil sie eine Annahme in Frage stellt, die hier von Beginn akzeptiert

wurde: dass Spracherwerb durch Prinzipien der UG geleitet wird, also durch einen Teil des

angeborene ‘abstrakten’ Sprachorgans (Language Acquisition Device, UG; s. Handout #1), Wenn

es möglich wäre, dass Kinder Wortgrenzen alleine durch statistisches Lernen erkennen, würde

das bedeuten, dass man zumindest für die Erklärung von gewissen Aspekten von Sprache keine

angeborenen Prinzipen braucht. Eine positive Antwort auf (18) würde ein ernsthaftes Problem

für die Theorie der UG darstellen.7

7Wichtige Einschränkung: dies würde natürlich noch nicht zeigen, dass UG nicht in anderen Bereichen,etwa bei komplexeren phonologischen Phänomenen, Syntax, Morphologie oder Semantik eine wichtigeRolle spielt. Und in der Tat stammen die stärksten Argumente für UG aus diesen Bereichen.

9 DGB 41 Spracherwerb, WiSe 2014

In einem einflussreichen Artikeln widmet sich Yang (2004) dieser Frage, und weist auf

einige schwerwiegende Fehler in der Argumentation von Saffran et al. hin. Erstens muss bei jeder

statistischen Analyse - auch wenn sie unbewusst abläuft, wie bei Kindern - vorher festgelegt

werden, welche Eigenschaften genau statistisch erfasst werden sollen. Und diese Entscheidung

kann nicht alleine dem Signal entnommen werden. Woher weiß das Kind, fragt Yang, dass bei

der Erkennung von Grenzen die Transitionen zwischen Silben relevant sind, und nicht etwa

Transitionen zwischen hohen und tiefen Vokalen, oder die Wahrscheinlichkeit, dass auf einen

alveolaren Laut ein Nasal folgt, oder die Wahrscheinlichkeit, dass sich zwei aufeinander folgende

Silben reimen? Im Prinzip gibt es eine unendlich große Anzahl von möglichen statistischen

Werten - woher wissen Kinder also, dass sie beim Statistischen Lernen auf Silben achten

müssen? Offensichtlich muss das Kind dies bereits vor Beginn des Lernprozesses wissen. Daraus

folgt, dass das Wissen, das Silben bei der Worterkennung eine wichtig Rolle spielen, bereits

angeboren sein muss. Die Antwort auf (18) ist also negativ.

Außerdem stellt sich die Frage, woher die statistisch relevanten Eigenschaften von

Silbenkontakten überhaupt stammen. Auch dies weist auf das Vorhandensein von unabhängigen,

allgemeinen Prinzipien hin. Ein Vergleich: Nehmen wir an, wir setzen einem Hund drei Karten

vor, auf denen jeweils das Wort fleisch, futter und ist steht. Dann trainieren wir den Hund, diese

Karten in einer Reihe auf den Boden zu legen. Nach 100 erfolgreichen Versuchsreihen erhalten

wir als Resultat 100 grammatische oder ungrammatische Sätze. Konkret wird der Hund immer

wieder - und natürlich zufällig - vier grammatische Sätze (futter ist fleisch, fleisch ist futter, ist

futter fleisch und ist fleisch futter) produzieren, sowie zwei ungrammatische Folgen (futter fleisch

ist und fleisch futter ist). Die grammtischen Sätze kommen aber in diesem Fall statistisch

häufiger vor, als die ungrammatischen (0.6 vs. 0.3). Dies ist so, da es einfach mehr

Kombinationen dieser drei Wörter gibt, die grammatisch sind, als Kombinationen, die

ungrammatisch sind. Können wir nun aber daraus schließen, dass der Hund die Regeln der

deutschen Grammatik, oder zumindest einen Teil davon beherrscht? Nein, natürlich nicht. Der

Grund liegt alleine darin, dass unabhängige Faktoren - die Auswahl der Wörter und deren

Kombinatorik - für das Ergebnis verantwortlich sind. Genauso verhält es sich beim Saffran et a.

Experiment. Auch hier sind unabhängige Faktoren dafür verantwortlich, dass Kinder anscheinend

so erfolgreich sind, Wortgrenzen zu erkennen.

Yang zeigte schließlich mittels einen Computermodell, dass das Experiment nur dann

statistisch relevante, also aussagekräftige Ergebnisse liefert, wenn Wörter verwendet werden, die

mindestens drei Silben lang sind. Die PSD, die Kinder in ihrer natürlichem Umgebung hören,

sind jedoch (zumindest im Englischen) meist kürzer. Und es kann gezeigt werden, dass die

Information in diesen Daten nicht ausreicht, um daraus Wortgrenzen berechnen zu können.

Werden also keine Kunstwörter, sondern natürlich vorkommende sprachliche Ausdrücke

herangezogen, ist kein statistischer Lerneffekt mehr zu erkennen.

Zusammenfassend kann festgestellt werden, dass statistische Methoden den Kindern beim

Bootstrapping sicherlich wichtige Strategien zur Verfügung stellen, um gewisse Regularitäten

zu erkennen. Dies hilft auch bei der Auffindung der Wortgrenzen. Auf der anderen Seite kann

Statistik nicht der einzige Faktor sein, der Bootstrapping ermöglicht. Wenn nicht festgelegt wird,

(i) welche Beziehungen statistisch erfasst werden sollen, und (ii) warum genau diese Fakten

relevant sind, hilft Statistisches Lernen wenig. Und genau dieses Wissen wird durch UG zur

Verfügung gestellt. Ohne die Annahme, dass sprachliches Wissen teilweise angeboren ist, kann

#2: Bootstrapping 10

also Spracherwerb nicht erklärt werden. Weitere Probleme für statistisches Lernen werden in §2

zur Sprache kommen, wo ein anderes statistisches Modell, der sogenannte Konnektionismus,

diskutiert werden wird,

1.2. PHONOTAKTISCHE BESCHRÄNKUNGEN

Weitere Unterstützung für die Hypothese, dass Bootstrapping auf phonologischer Information

basiert, kommt von der Beobachtung, dass Kinder schon sehr früh die phonotaktischen Gesetze

ihrer Sprache erlernen. Phonotaktik beschreibt (i) die möglichen Kombinationen von Lauten

sowie (ii) deren Position innerhalb der Silbe. Sprachen unterscheiden sich zudem in ihrer

Phonotaktik. Aus diesem Wissen können Kinder Hinweise auf Wortgrenzen ableiten.

Erstens macht nicht jede Sprache von allen Kombinationsmöglichkeiten ihrer Laute

gebrauch. Sowohl Deutsch als auch Griechisch besitzen [t] und [m]. Die Verbindung [tm] ist

jedoch nur im Griechischen erlaubt. Zweitens treten gewisse Lautverbindungen treten nur an

bestimmten Stellen in der Silbe auf. Im Deutschen ist [br] z.B. ein typischer Onset (brav, Brille,

braun, ...) während [nt] eine typische Koda darstellt (Hand, blind, Wind, Kind,...). Umgekehrt

ist [br] als Koda im Deutschen nicht erlaubt, genausowenig wie [nt] im Onset.

Kinder kennen die phonotaktischen Gesetze ihrer Sprache ungefähr ab dem 9. Monat. Wir

wissen das aus experimentellen Untersuchungen. Kinder erkennen bereits in diesem Alter,

welche Verbindungen an welcher Stelle der Silbe (Koda oder Onset) möglich sind. Mit 6

Monaten sind sie dazu noch nicht in der Lage. Diese Information stellt einen weiteren, wichtigen

Hinweis auf die Position von Grenzen dar. Wenn ein Kind z.B. [nt] hört, muss direkt im

Anschluss daran eine neue Silbe beginnen. Es ist somit wahrscheinlich, dass danach ein neues

Wort beginnt. Dagegen signalisiert [br], dass die Wahrscheinlichkeit hoch ist, dass gerade ein

anderes Wort zu Ende gegangen ist.8

Auch aus unmöglichen Verbindungen lernen Kinder. [nt] ist z.B. keine möglicher Onset im

Deutschen, tritt jedoch zwischen Wörtern auf (Sie kan[n t]anzen). Auch aus dieser Information

können somit Rückschlüsse auf Wortgrenzen gezogen werden. Wenn ein Kind [nt] hört, und es

aus unabhängigen Gründen klar ist, ist [nt] nicht die Koda einer Silbe bildet, dann markiert der

Übergang zwischen diesen beiden Lauten die Grenze zwischen zwei Wörtern.

Eine wichtige Frage, die sich natürlich sofort stellt, ist: wie lernen Kinder denn überhaupt

die phonotaktischen Gesetze? Diese Regeln können nicht angeboren sein, da sich Sprachen ja

in ihrer Phonotaktik unterscheiden. Die Antwort scheint hier zu sein, dass Kinder auf statistische

Information in den Inputdaten zurückgreifen, um daraus phonotaktische Gesetze abzuleiten. In

§1.1 haben wir schon gesehen, dass wortinterne Transitionen ganz allgemein besser vorhersagbar

sind als Transitionen zwischen Wörtern. Diese Tatsachen kann Kinder dazu führen, Hypothesen

darüber zu bilden, welche Lautverbindungen wortintern möglich sind, und welche nicht. Da wir

in der Diskussion von Yang (2004) aber auch gesehen haben, dass statistische Methoden ihre

Grenzen haben, sollte man bei der Bewertung dieser Theorien auch vorsichtig sein. Wie genau

der Beitrag von Statistik im Spracherwerb aussieht, stellt momentan ein äußerst spannendes und

heftig diskutiertes Thema in der Linguistik und Kognitionsbiologie dar.9

8Detaillierte Beschreibung des Experiments und Diskussion findet sich in Mattys, Jusczyk et. al (1999).

9Neuere Arbeiten stützen sich auf komplexere Modelle, die auch Wahrscheinlichkeitsrechnung undSpieltheorie einbeziehen. Eine bekannte Theorie ist die Bayessche Statistik, die auf den englischen

11 DGB 41 Spracherwerb, WiSe 2014

1.3. TYPISCHE WORTFORMEN

Die Wortformen unterschiedlicher Sprachen besitzen unterschiedliche rhythmische

Eigenschaften. Auch diese charakteristischen Eigenschaften können Kinder im L1-Erwerb

verwenden, um daraus wichtige Hinweise auf Wortgrenzen abzuleiten:

(19) a. Im Englischen beginnen die meisten Inhaltswörter mit einer langen Silbe.(table, content, window)

b. Deutsche Inhaltswörter haben meist Initialbetonung (sehen, Abend, Wiese, Fenster,neben, unter, trockener,...)

c. Im Französischen werden die Wörter meist auf der letzten Silbe betont (descendU,premiEr, hivEr, duplicatiOn,...)

Die Eigenschaften in (19) sind tendenziell, und nicht absolut, es gibt also immer Ausnahmen.

Auch im Deutschen gibt es lexikalische Wörter, die mit einer schwachen Silbe beginnen

(erzählen, Geschichte, Verbot, ....). Experimente weisen darauf hin, dass Kinder ab dem 9 Monat

zwischen typischen Wortformen und den weniger typischen rhythmischen Mustern unterscheiden

können.

1.4. PROSODIE

Die Regeln der Prosodie beschreiben u.a. regelmäßige Änderungen in der Grundfrequenz

(Tonhöhe), die Lage des Satzakzent und die Verteilung von Pausen im Satz. Werden die Sätze

(20) normal betont, etwa wenn sie als Antwort auf die Frage Was ist passiert? verwendet werden,

dann trägt jenes Wort den Satzakzent, das direkt vor dem Verb liegt. Wenn es sich um ein

einsilbiges Wort handelt ((20)a vs. (20)b), kann das Kind aus dem Satzakzent auf den Beginn des

Verbs schließen.

(20) a. Sie hat den HUnd gestreichelt b. Sie hat den KAtze gestreichelt

(21)a zeigt, dass Relativsätze durch Pausen (‘||’) vom Rest des Satzes getrennt werden. Auch dies

kann von Kinder als ein Hinweis darauf gewertet werden, wo ein Wort (in diesem Fall Schwester

bzw. die) endet bzw. beginnt. Ähnliches gilt für den Übergang zwischen zwei Teilen eines

Konjunkts, also einer Verbindung mit und ((21)b).

(21) a. Die Prinzessin hatte eine Schwester || die weit weg wohnte. b. Die Prinzessin || und ihre Schwester schliefen.

Durch Nutzung von prosodischer Information können Kinder also Schlüsse auf die Lage von

zumindest einigen Wortgrenzen führen.

1.5. ZUSAMMENFASSUNG

Kinder verwenden unterschiedliche Information, um Wortgrenzen zu erkennen: phonotaktische

Gesetze, allgemeine statistische Regelmäßigkeiten und Wissen über mögliche und unmögliche

Wortformen. Außerdem spielt wahrscheinlich auf Prosodie eine wichtige Rolle bei der

Segmentierung. Diese Prozesse arbeiten synchron, und ergänzen sich teilweise, zudem gibt es

gegenseitige Abhängigkeiten, wie z.B. zwischen Phontaktik und Statistischem Lernen.

Pfarrer Thomas Bayes (1701- 1761) zurückgeht.

#2: Bootstrapping 12

Es wurde auch ersichtlich, dass statistisches Lernen auf zwei unterschiedliche Arten im L1-

Erwerb genutzt wird: einerseits um quantitative Regelmäßigkeiten, die nicht in das grammtische

System eingehen, aus den Daten zu filtern. (Die Übergänge von Silben zwischen Wörtern ist z.B.

nicht grammatisch geregelt.) Andererseits verwenden Kinder Statistisches Lernen, um bestimmte

Teile der Grammatik, wie z.B. die Regeln der Phonotaktik, zu bilden. Wichtig ist abschließend

noch einmal zu betonen, dass rein statistische Methoden ohne angeborene Prinzipien (UG), die

Eigenschaften des L1-Erwerbs nicht erklären kann. Grundlegende Aspekte des Sprachsystems

sind also angeboren und genetisch veranlagt.

Selbst in diesem relativ kleinen Bereich, der Frage des phonologischen Bootstrapping, sind

viele Probleme, wie gezeigt wurde, noch nicht oder nicht vollständig geklärt. Momentan gibt es

z.B. noch keine gute Erklärung für die Beziehung zwischen angeborenen Faktoren und

Statistischem Lernen. Ist nun die Einsicht, dass man noch keine einfache, adäquate Theorie

besitzt, ein negatives Resultat für den Zustand der Forschung? Nein, keineswegs. Erstens lebt

jede gesunde Wissenschaft von der Tatsache, dass neue Erkenntnisse neue Fragen aufwerfen.

Und für Wissenschafter sind interessante, also sinnvolle Fragen immer wichtiger als Antworten,

da gute Fragen faszinieren können wie ein ungelöstes Rätsel oder ein ungelesenes Buch.

Zweitens basieren die meisten relevanten neueren Arbeiten zu diesem Gebiert auf einer

Verbindung von mathematischer Formalisierung, präziser linguistischer Analyse und der

Anwendung von neuen experimentellen Methoden und Einsichten aus der Neuro- und

Kognititionsforschung. Üblicherweise ergeben sich aus solchen neuen Konstellationen auch bald

neue empirische Resultate und Einsichten.

2. MEHR ZU STATISTISCHEM LERNEN: KONNEKTIONISMUS

Die letzten 30 Jahre sahen eine Renaissance von empiristischen Theorien zum Spracherwerb, die

auf neuen technologischen Entwicklungen sowie auf Ergebnissen der theoretischen Computer-

wissenschaften basieren. Die einflussreichste dieser Strömungen ist der Konnektionismus.

Konnektionismus bezeichnet eine Gruppe von Theorien, in der die menschliche Kognitions-

fähigkeit als ein sogenanntes neuronales Netzwerk dargestellt wird, das die Prozesse im

menschlichen Gehirn nachbilden soll. Diese Netzwerke bestehen aus einer Menge von

(abstrakten) Knoten, die ähnliche Aufgaben wie die Neuronen im Gehirn übernehmen, sowie

Verbindungen zwischen diesen Knoten. Konnektionistische Theorien gehen dabei von den vier

Annahmen in (22) aus:

(22) a. In einem neuronalen Netz besteht Information besteht in der unterschiedlichen Stärkevon Verbindungen.

b. Information wird parallel verarbeitet, nicht sequenziell (parallel distributedprocessing)

c. Information wird nicht lokal, sondern global im ganzen Netz gespeichert.d. Information wird nicht symbolisch gespeichert. Es gibt daher keine Regeln, die

Symbole manipulieren könnten. Das Modell ist subsymbolisch.

In der Linguistik und Forschung zur künstlichen Intelligenz werden konnektionistische Modelle

eingesetzt, um die Aspekte des Spracherwerbs zu simulieren. Anhänger des Konnektionismus

behaupten, dass konnektionistische Netzwerke dazu in der Lage sind, allein durch Eingabe von

Daten - also Wörtern oder Sätzen - die korrekten linguistischen Generalisierungen zu extrahieren.

Bisher konnte dies jedoch noch in keinem einzigen Bereich überzeugend belegt werden.

13 DGB 41 Spracherwerb, WiSe 2014

2.1. RUMELHART UND MCCLELLAND (1986)

Eines der bekanntesten Netzwerke wurde von Rumelhart und McClelland (1986) entwickelt. Es

ist in der Lage, die Morphologie der englischen Perfektformen (play - played vs. sing - sang) zu

erlernen. Das konnektionistisches Modell funktioniert wie folgt: Das Netztwerk besteht aus einer

Menge von Eingabeknoten, Ausgabeknoten und sogenannten versteckten Knoten, über die

Eingabeknoten und Ausgabeknoten miteinander verbunden sind:

(23) play work worked sing singed hope

sang say

Im konkreten Fall entsprechen die Eingabeknoten englischen Verbstämmen (z.B. play, work oder

sing) und die Ausgabeknoten allen möglichen Perfektformen (played, worked, sang, aber auch

*singed). Durch Training, d.h. durch wiederholte Eingabe von Verben, lernt das Netzwerk nun,

dass die Perfektform von play regelmäßig ist (played), jene von sing jedoch unregelmäßig (sang).

Der Lernprozess wird dabei durch Verstärkung der Verbindungen, die von sing zu sang führen,

sowie durch Schwächung der Verbindungen zwischen sing und singed modelliert. Nach

Abschluss des Lernprozesses ist das Netzwerk - so behaupten zumindest Rumelhart und

McClelland und andere Vertreter - auch in der Lage, die korrekte Form für neue Verbstämme zu

finden (ring/rang vs. walk/walked).

2.2. VOR- UND NACHTEILE

Die Debatte, ob konnektionistische Netzwerke tatsächlich imstande sind, aus unkontrollierten

Daten korrekte Generalisierungen zu extrahieren, ist noch nicht abgeschlossen. Für detaillierte

Kritik am Konnektionismus siehe unter anderem Fodor and Pylyshyn (1988) und Marcus (2001).

Was L1-Erwerb angeht, kann festgestellt werden, dass konnektinistische Modelle - genauso wie

andere statistische Lernmodell - Information darüber benötigen, was sie überhaupt lernen oder

erwerben sollen. Sie können also die wichtigsten Aspekte des L1-Erwerbs nicht ohne Hilfe von

Zusatzannahmen erklären. Auf der anderen Seite ist Lernen immer auch ein Prozess, bei dem

statistische Regelmäßigkeiten aus den Daten extrahiert werden. Und hier bietet Konnektionismus

eine sehr überzeugende Methode an, um diese Beziehung einem besseren Verständnis

zuzuführen. Die Vor- und Nachteile des Konnektionismus lassen sich wie folgt zusammenfassen:

(24) Vorteile

a. Robustheit: Neuronale Netze kollabieren nicht ‘katastrophal’ bei i. fehlerhaftem Input ii. Fehler im Signal (noise) oder iii. Beschädigung von Teilen des Speichermediums (Hirnschädigung)

b. Neuronale Netze sind plausibel als Modell des Gehirnsc. Neuronale Netze erlauben die Modellierung von nicht-kategorialen, graduellen

Urteilen, Ausnahmen (generische Aussagen) d. Netze können mit konfligierenden Daten, also Daten, die nicht miteinander

kompatibel sind, umgehen

#2: Bootstrapping 14

(25) Nachteile

a. Kompositionalität: Neuronale Netze sind nicht in der Lage, die Bedeutung vonkomplexen Ausdrücken kompositional abzuleiten.

b. Produziert keine Regeln, da keine syntaktischen Regularitäten erkannt werden. AlsResultat generalisiert das Netzt nicht von vorhandenem Wissen auf neue Eingaben:i. Wenn Der Mann sah den Wald, als formal richtig (= grammatisch) erkannt wird,

wird nicht automatisch auch Die Frau hörte den Vogel als richtig erkanntii. Wenn Der Mann sah den Wald, und Die Frau sah den Wald als richtig erkannt

wird, ist das Netz NICHT in der Lage auch Die Frau sah den Mann als formalrichtig zu erkennen.

c. Das Netzt muss mit ausgewählten Daten trainiert werden. Daten im Spracherwerbwerden nicht ausgewählt.

d. Erklärt nicht, wie Schwächung von Verbindungen zustande kommt. Warum gibt eskeine Verbindungen zwischen den drei Knoten der, Fisch, und schläft im Input, undFisch schläft der in der Ausgabe? (Poverty of Stimulus Argument)

e. Ähnlichkeit zwischen neuronalem Netz und Gehirn ist nicht so groß, wie dies dererste Eindruck vermitteln würde. Gehirn ist komplexer.

3. VERBINDUNG FORM - BEDEUTUNG

Wie schon in §1 erwähnte geht der Aufbau des Lexikons in zwei Stufen vor sich. Zuerst werden

phonologische Wortformen erlernt, dann werden, in einem zweiten Schritt, diese Formen mit

Bedeutung assoziiert. Man nennt dies auch das Zwei Stufen Modell von Bootstrapping:

(26) Zwei-Stufen Modell von Bootstrapping a. Aufbau eines phonologischen Lexikonsb. Assoziation von Form und Bedeutung

Bis zum 10. Monat gibt es im Lexikon noch keine sprachlichen Zeichen, also noch keine

Assoziationen zwischen Form und Bedeutung. (Eine Ausnahme bilden einige wenige primäre

Ausdrücke, wie der eigene Name und Begriffe für Eltern.) Dennoch existiert bereits ein

phonologisches Lexikon. Wieder stammt diese Erkenntnis aus experimentellen Tests.

Kinder im Alter von 8 Monaten hörten über einen Zeitraum von 10 Tage verteilt regelmäßig

Kindergeschichten und Märchen. Nach zwei Wochen wurden den gleichen Kindern entweder

eine Liste mit neuen Wörtern, oder eine Liste mit Wörtern vorgespielt, die bereits in den

Geschichten vorkamen. Es wurde festgestellt, dass die Kinder eine klare Präferenz für bekannte

Wörter zeigten. Eine Kontrollgruppe, die die Geschichten nicht gehört hatte, zeigte keinerlei

Präferenz. Dies zeigt, dass Kinder bereits über ein Lexikon von Formen verfügen müssen. Ein

ähnliches Formenlexikon wird auch von anderen Tierarten benutzt, z.B. von Singvögeln. Auch

Singvögeln lernen (eine kleine Anzahl) von musikalischen Phrasen, die sie im Lexikon

speichern, und die sie - bis zu einem gewissen Grad - zu neuen Gesängen kombinieren können.

Nomen vs. Verben: Eine erstaunliche Eigenschaft der Entwicklung des Lexikons ist, dass Kinder

zu Beginn fast ausschließlich Nomen verwenden, Verben werden erst später erworben. Dies ist

verständlich, da Verben generell komplexere Bedeutungen besitzen als Nomen. Ein Name wie

Peter referiert auf den Träger dieses Namens, während die einfachsten Verbbedeutungen

(schlafen) bereits Mengen von Individuen sind. Weiters ist der Erwerb von Verbbedeutungen

davon abhängig, dass das Lexikon bereits Nomen enthält. Die Bedeutung von Verben läßt sich

nämlich semantisch immer eine Beziehung zwischen der Bedeutung von Nomen darstellen:

15 DGB 41 Spracherwerb, WiSe 2014

schlafen ist z.B. eine Funktion, die Schläfer von nicht-Schläfern trennt. Das zweistellige Verb

wissen denotiert die Beziehung zwischen einer Person und einem Objekt, etc...Um Verbbedeu-

tungen zu erlernen, müssen Kinder daher bereits über Bedeutungen für Nomen verfügen. Die

nächsten beiden Abschnitte führen kurz einige wichtige Eigenschaften des Erwerbsprozesses von

Nomen und Verben an.

3.1. NAMEN FÜR OBJEKTE

Beim Erwerb von Bedeutungen muss das Kind einige logisch und kognitivspsychologisch äußerst

schwierige Probleme lösen. Nehmen wir an, das Kind sieht eine Katze auf einem Tisch, und hört

den Satz (27):

(27) Die Katze ist auf dem Tisch.

Ohne vorheriges Wissen ist es, aus rein logischen Gesichtspunkten, nicht möglich festzustellen,

welcher Teil des Satzes auf den Tisch referiert und welcher auf die Katze. Woher soll das Kind

wissen, dass Katze das Wort für eine Katze ist, und nicht für einen Tisch? Und woher soll es

wissen, dass auf dem eine Beziehung darstellt, in der das Subjekt oben ist, und das Objekt unten,

und nicht umgekehrt. Mit anderen Worten, wie lernt das Kind, dass (27) nicht das selbe bedeutet

wie für uns erwachsene Sprecher der Satz (28)?

(28) Der Tisch ist über der Katze

Wenn für das Kind Katze einen Tisch bezeichnet, und Tisch eine Katze, dann können beide Sätze

die selbe Situation beschreiben - sie sind synonym. Die Antwort auf diese und ähnliche Frage

liefert die Annahme, dass Kinder angeborene Strategien benutzen, um aus ihrem bereits

vorhandenen sprachlichen Wissen und der Umwelt neue sprachliche Zeichen zu erlernen.

3.1.1. Markmans Tendenzen

Die Psychologin und Psycholinguistin Ellen Markman schlug vor, dass Kinder gewisse

angeborene Tendenzen besitzen, Wortformen mit Bedeutung zu füllen (Markman und

Hutchinson 1984; Markman 1990). Sie ging von folgender Frage aus: Warum weiß z.B. ein

Kind, dass das Wort Katze nicht nur auf den Kopf der Katze referiert, sondern auf das ganze

Tier? Warum lernt ein Kind, dass das Wort Motorrad hört und gleichzeitig ein Motorrad sieht,

dass das Wort auf das ganze Fahrzeug referiert, und nicht nur auf den Fahrer, oder auf die beiden

Räder? Die Antwort liegt in (29) und der allgemeinen menschlichen Fähigkeit, Objekte also

individuelle, von ihrer Umwelt getrennte Einheiten zu erkennen.

(29) Ganzheitlichkeitstendenz (‘whole object bias’)Kinder verwenden neue Wörter um auf ein ganzes Objekt zu referieren, nicht nur aufTeile dieses Objektes.

Die Objektstendenz wurde auch in vielen psychologischen Experimenten bestätigt.

Eine weitere Tendenz erlaubt es Kindern, Wörter zu verallgemeinern. Wer Katze lernt, kann

das Wort auf andere Katzen anwenden, auch wenn diese nicht völlig gleich aussehen, und sich

z.B. in der Farbe unterscheiden. Genauso wissen Kinder, dass Hunde und Katzen zusammen zur

Klasse der Tiere gehören, ein Tisch dagegen nicht. Diese Generalisierung wird durch Markmans

Taxonomietendenz ausgedrückt.

#2: Bootstrapping 16

(30) Taxonomietendenz (‘taxonomical bias’)Jedes Wort hat die Tendenz, Objekte der gleichen Art oder Klasse zu bezeichnen undnicht auf thematisch verwandte Objekte.

Die Taxonomische Tendenz konnte z.B. in folgendem Experiment nachgewiesen werden.

Kindern im Alter von 4-5 Jahren wird das Bild einer Kuh vorgelegt. Gleichzeitig werden sie

gefragt: Siehst Du diese Dax? Diese Frage bildet eine Verbindung zwischen dem Objekt Kuh und

dem Phantasiewort Dax. Dann sehen die Kinder zwei weitere Bilder: das Bild einer Milchflasche

und das Bild eines Schweines. Anschließend erhalten sie die Aufgabe: Finde ein weiteres Dax!

Wie sich gezeigt hat, wählen Kinder nun systematisch das Schwein, das in die gleiche Art (also

Tier auf dem Bauernhof) fällt, und nicht die Milchflasche, obwohl es auch eine enge Beziehung

zwischen Milch und der Kuh gibt. In einem zweiten Experiment sahen die Kinder genau die

gleichen Objekte, aber die Frage lautete diesmal: Siehst Du das? anstatt von Siehst Du diese

Dax? In diesem Fall konnten Kinder keine besondere Beziehung zwischen Kuh und Schwein

erkennen. Daraus kann geschlossen werden, dass es einen Unterschied macht, ob die Welt mit

Inhaltswörtern (Dax) beschrieben wird, oder nur mit allgemeinen deiktischen Ausdrücken (das).

Wörter spielen also bei der Kategorisierung der Welt eine entscheidende Rolle. (Für weitere

Details, s. Guasti 2002: S. 78).

Eine dritte Tendenz ist dafür verantwortlich, dass die Bedeutungen von Wörtern sich im

allgemeinen nicht überlappen oder überschneiden:

(31) Exklusivitätstendenz (‘mutual exclusivity bias’)Wörter haben die Tendenz Objekte zu bezeichnen, die sich ausschließen

Angeborene Tendenzen helfen Kinder also, Objekten mit Wörtern zu assoziieren.

3.1.2. Nicht sprachliche Hinweise

Schon sehr früh verwenden Kinder auch nicht-sprachliche Hinweise, um Bedeutungen zu lernen.

Es wurde z.B. nachgewiesen, dass Kinder ab dem 18. Monat auf Zeigen und auch auf erhöhte

Aufmerksamkeit ihres Umfeldes reagieren. Wenn die Mutter auf ein Objekt blickt, und das Kind

gleichzeitig eine Wortform hört, dann lernt das Kind diese Assoziation zwischen Form und

Bedeutung sehr schnell. Wenn die Mutter nur auf das Objekt zeigt, aber dem Objekt keine

Aufmerksamkeit schenkt, läuft dieser Lernprozess langsamer ab. Dabei spielen insbesondere die

Augen der Mutter eine große Rolle. Durch den starken visuellen Kontrast zwischen Pupille

(schwarz) und Augenkörper (weiß) können Kinder schon sehr früh erkennen, worauf die Mutter

ihren Blick und somit ihre Aufmerksamkeit richtet (Csibra und Gergely 2009).

McGurk Effekt: Ein besonders berühmtes Beispiel für die Interaktion von visuellem und

sprachlichem Input ist der McGurk Effekt, der seit seiner Entdeckung durch den Psychologen

Harry McGurk in vielen unterschiedlichen Formen gefunden worden ist (McGurk and

MacDonald 1976). In einem Experiment hören Sprecher das akustische Signal [ba], während sie

gleichzeitig eine große Videoaufnahme einer Person sehen, die [ga] sagt. Der größte Anteil der

Sprecher gibt an, nicht [ga] oder [ba] zu hören - sondern [da], also eine hybride Form, in der die

artikulatorischen Eigenschaften von [ba] und [ga] gemischt werden. Dies zeigt, dass visuelle

Information bei gewissen Aspekten des der sprachlichen Wahrnehmung eine Rolle spielen. Ob

der McGurk Effekt auch beim L1-Erwerbs eine Rolle spielt, ist wahrscheinlich, jedoch

weitgehend noch nicht systematisch erforscht.

17 DGB 41 Spracherwerb, WiSe 2014

3.2. ERWERB DER BEDEUTUNG VON VERBEN

Die Semantik von Verben ist im Allgemeinen komplexer als die Semantik von Nomen.10 Um zu

verstehen, was ein bestimmtes Verb bedeutet, müssen Kinder verstehen, in welcher Beziehung

die Argumente diese Verbes stehen. Diese Beziehungen können in unterschiedliche Klassen

eingeteilt werden - die thematischen Rollen oder Θ-Rollen. Die wichtigsten Θ-Rollen sind:

(32) Agens

a. Maria sieht den Filmb. Die Kinder schliefenc. Das Buch wurde von Peter verfaßt

(33) Thema

a. Maria sieht den Filmb. Das Buch wurde von Peter verfaßt

(34) Patiens

a. Wir geben Maria ein Buchb. Peter unterzog ihn einem Test

(35) Experiencer

a. Peter liebt Mariab. Mir gefällt das Buch

(36) Instrument

a. Er öffnete die Flasche mit einem Messerb. Der Stein zerbrach das Fenster

Die Bedeutung von Verben wird also durch die Bedeutung der Argumente definiert, sowie durch

die Beziehung, in der diese Argumente stehen. Daraus folgt, dass Kinder eigentlich erst dann in

der Lage sein sollten, die Bedeutung von Verben (und anderen Prädikaten) zu erlernen, wenn sie

PSDs analysieren können, die Verben und die entsprechenden Argumente enthalten. Die

Psycholinguistin Lila Gleitman hat, seit den 1970er Jahren in vielen Experimenten nachgewiesen,

dass dies in der Tat der Fall ist. Der Spracherwerb von Verben ist sehr eng mit der Fähigkeit

verknüpft, zu verstehen, in welcher Beziehung die einzelnen Argumente eines Verbs zueinander

stehen. Ein einfaches Beispiel zeigt, wie schwierig die Aufgabe für Kinder ist, diese Unterschiede

zu erlernen.

In allen drei Sätzen in (37) bezeichnet das Verb brechen eine Beziehung zwischen einem

Glas und (wenn vorhanden) einem anderen Argument. Die Relation ist jedoch niemals die selbe.

In (37)a ist das Glas das Thema, das ist offensichtlich: es wird zerstört, und Hans verursacht

diesen Zustand. (37)b drückt dagegen aus, dass es eine Handlung gab, die zum Zerbrechen des

Glases führte. Und (37)c beschreibt Situationen, in denen ein Zustand - der Wind - einen anderen

Zustand - das Zerbrechen des Glases - verursacht.11

(37) a. Hans brach ein Glasb. Ein Glas brachc. Der Wind brach ein Glas

10Dies gilt zumindest für einfache Namen, nicht für Ausdrücke wie die meisten Tiere.

11Verben, die sich im Deutschen ähnlich verhalten sind zereissen, kochen, frieren, öffnen/sich öffnen. FürDiskussion siehe u.a. Schäfer (2008).

#2: Bootstrapping 18

Dass diese drei Kontexte tatsächlich vollkommen unterschiedlicher Natur sind, zeigt sich, wenn

man sich vor Augen führt, wie andere Verben funktionieren. Das Verb erschüttern bezeichnet

‘intensive Bewegung’, ohne dass das Objekt unbedingt zerbricht. Ich kann ein Glas, zum Beispiel

im Rahmen eines physikalischen Experimentes, erst erschüttern, und dann zerbrechen. An und

für sich sollten sich die beiden Verben erschüttern und brechen also ganz ähnlich verhalten.

Auch bewegen hat auf den ersten Blick die gleiche Eigenschaft wie brechen oder erschüttern.

Das sagt uns unser Weltwissen. Dennoch behandelt die Sprache diese Prädikate unterschiedlich.

(38) zeigt, dass bewegen und erschüttern keine intransitive Versionen besitzen. (Linguisten

sagen: sie nehmen nicht an der Kausativalternation teil; Levin und Rappaport 1995).

(38) a. Hans bewegte/erschütterte ein Glasb. *Ein Glas bewegte/erschüttertec. Der Wind bewegte/erschütterte ein Glas

Aber auch bewegen und erschüttern können nicht in den selben Kontexten auftreten:

(39) a. Hans bewegte sich b. *Hans erschütterte sich

Jeder Sprecher des Deutschen ist in der Lage, diese Unterschiede in klare, kategoriale

Unterschiede in Grammatikalität zu übersetzen. Die drei Verben brechen, bewegen und

erschüttern scheinen also ähnliche Handlungen in der Welt zu bezeichnen. Im Sprachsystem

besitzen diese Verben jedoch völlig unterschiedliche Eigenschaften. Diese Beobachtung ist auch

nicht auf diese kleine Gruppe von Beispielen beschränkt. Systematische Untersuchungen von

Beth Levin12 und Malka Rappaport13 für das Englische, Elena Anagnostopoulou14 und Artemis

Alexiadou15 für das Griechische und Florian Schäfer16 für das Deutsche und vielen anderen

zeigten, dass sich alle Verben in Klassen einteilen lassen. Aber die Anzahl dieser Verbklassen

ist groß, Levin (1993) führt z.B. 53 unterschiedliche für das Englische an.

Das Problem für den Spracherwerb ist offensichtlich. Wie erlangen Kinder das Wissen, dass

brechen, bewegen und erschüttern in der Grammatik unterschiedlich zu verwenden sind, obwohl

diese Verben ähnliche Handlungen beschreiben? Die Antwort auf diese Frage liegt im Erwerb

einer anderen Eigenschaft: dem Aufbau der Syntax, also der Fähigkeit, Wörter in Gruppen zu

organisieren. Mit diesem Thema werden wir uns zu Beginn von Handout #5 beschäftigen.

3.3. WEITERER AUFBAU DES LEXIKONS

Kehren wir kurz zum Lexikon zurück, um diesen Teil der Entwicklung abzuschließen. Im Alter

von 18 Monaten Lexikon enthält das Lexikon im Durchschnitt 50 Wörter. Ab dem 20-24 Monat

12http://www.stanford.edu/~bclevin/pubs.html

13http://www.huji.ac.il/dataj/controller/ihoker/MOP-STAFF_LINK?sno=9548470

14http://www.philology.uoc.gr/staff/anagnostopoulou/

15http://ifla.uni-stuttgart.de/index.php?article_id=26&clang=0

16http://ifla.uni-stuttgart.de/institut/mitarbeiter/florian/#unten

19 DGB 41 Spracherwerb, WiSe 2014

setzt dann eine Phase ein, in der Kinder jeden Tag sechs bis neun neue Wörter erlernen

(‘schnelles Lernen’; vocabulary spurt). Diese Phase dauert ca. bis zum 6. Jahr und führt zu einem

schnellen Aufbau des Lexikons. Mit 36 Monaten umfasst es dann ungefähr 2,000 Einträge. Zum

Vergleich: erwachsene Sprecher verfügen im Durchschnitt über einen Wortschatz von zwischen

20,000-50,000 Wörtern (Grimm 2000).

Hinweis zum Wortschatz Erwachsener: Die Frage, wie viele Wörter Erwachsene beherrschen ist

schwer zu beantworten. Während sich nach gewissen Quellen in Goethes Werken ca. 90,000

Wörter finden, reichen ungefähr 6,000 Wörter schon aus, um 90% der Texte im Brown Korpus17

lesen und verstehen zu können.

Es gibt zumindest zwei Gründe dafür, warum diese Zahlen so weit differieren. Erstens ist

der Wortschatz sehr schwer experimentell zu überprüfen, da man Sprechern nicht einfach eine

Liste von tausenden Wörtern vorsetzen kann, um sie zu fragen, welche von diesen Wörtern sie

kennen. Zweitens muss vorher geklärt werden, was man unter einem Wort meint: sind sehen und

sah eine Form, oder zwei? Wie sieht das bei Buch und Buches und Bücher aus? Zählt man

Komposita als getrennte Wörter? Küchentisch kann z.B. auf die Bedeutung von Küche und Tisch

zurückgeführt werden, das Wort sollte also nicht getrennt gezählte werden. Auf der anderen Seite

gibt es Komposita wie Fernfahrer (eine Person, die professionell einen Lastkraftwagen ins

Ausland fährt), Nachttopf (ein Gefäß, das früher als Ersatz für Toiletten benutzt wurde),

Blutsbruder, Augenweide oder σπαγγοραµµένος, deren Bedeutung sich nicht direkt aus den

Bedeutungen der Teile ersehen lässt.

17Ein Korpus (Pl. Korpora) ist eine elektronische Sammlung von Texten. Der Brown University StandardCorpus of Present-Day American English umfasst ca. 1,000,000 Wörter, und rund 500 Texte. Derweltweit größte Korpus für Deutsch, der IDS-Korpus wurde vom Institut für Deutsche Sprache inMannheim erstellt, er enthält ca. 5,4 Milliarden Wörter: http://www.ids-mannheim.de/kl/corpora.htmlEine Übersicht über Korpora in verschiedenen Sprachen findet sich in der Bibliographie.

#2: Bootstrapping 20

BIBLIOGRAPHIE

Csibra, Gergely und György Gergely. 2009. Natural pedagogy. Trends in Cognitive Science 13.4:148-153.

L Guasti, Maria Teresa. 2002. Language Acquistition: the growth of the grammar. Cambridge: MIT Press. [pdf auf E-class verfügbar]

Grimm, Hannelore. 2000. Sprachentwicklung. Göttingen: Verlag für Psychologie. Harris, Zelig Sabbettai. 1954. Distributional structure. Word 10: 21: 146-162.Fodor, Jerry and Zenon Pylyshyn. 1988. Connectionism and cognitive architecture: A critical analysis.

Cognition 28: 3-71Levin, Beth. 1993. English Verb Classes and Alternations. Chicago: University of Chicago Press.Levin, Beth, and Hovav, Malka Rappaport. 1995. Unaccusativity: Linguistic Inquiry Monograph 26.

Cambridge, Massachusetts: MIT Press.Marcus, Gary. 2001. The Algebraic Mind. Cambridge, Mass.: MIT Press.Markman, Ellen. 1990. Constraints Children Place on Word Meanings. Cognitive Science 14, 57-77

(1590)Markman, Ellen und John Hutchinson. 1984. Children’s sensitivity to constraints on word meaning:

taxonomic vs. thematic relations. Cognitive Psychology 16: 1–27.Mattys, S., P. Jusczyk, P. Luce und J. Morgan. 1999. Phonotactic and Prosodic Effects on Word

Segmentation in Infants. Cognitive Psychology 38: 465–494. Online abrufbar unter: http://www.acsu.buffalo.edu/~luce/pdfs/1999-MattysJusczykLuceMorgan.pdf

Rumelhart, David, James McClelland und die PDP Research Group. 1986. Parallel DistributedProcessing: Explorations in the Microstructure of Cognition. Cambridge, MA: MIT Press

Saffran, J. R., R. N. Aslin, and E. L. Newport. 1996. Statistical learning by 8-month-old infants.Science 274, 1926-1928

Schäfer, Florian. 2008. The syntax of (anti-)causatives. External arguments in change-of-statecontexts. Amsterdam/Philadelphia: John Benjamins.

Yang, Charles. 2004. Universal Grammar, statistics or both? Trends in Cognitive Science 8. 10: 451-456.

ONLINE RESOURCES

Der wichtigste Korpus für Kindersprache ist CHILDES (Child Language Data Exchange System): http://childes.psy.cmu.edu/Auf die Datenbank kann man direkt hier zugreifen (man braucht ein bisschen Übung, da dasvisuelle Interface relativ einfach gestaltet ist.)

Korpus des Institut für Deutsche Sprache in Mannheim:http://www.ids-mannheim.de/kl/corpora.html

Online Lexikon Deutsch, Universität Leipzig: http://wortschatz.uni-leipzig.de/

Korpora in verschiedenen Sprachen: https://www.linguistik.hu-berlin.de/institut/professuren/korpuslinguistik/links/korpora_links