Zusammenfassung - Universität Ulm

January 13, 2018 | Author: Anonymous | Category: Kunst & Geisteswissenschaften, Schreiben, Grammatik
Share Embed Donate


Short Description

Download Zusammenfassung - Universität Ulm...

Description

Neuronal Grammar Phillipp Hehrmann [email protected]

Stefan Scherer [email protected]

Fakulta¨t fu ¨r Informatik Universit¨at Ulm

Zusammenfassung Es wird ein neurowissenschaftlich motiviertes Modell der menschlichen Sprachverarbeitung vorgestellt. Functional Webs, speziell organisierte Verb¨ unde von Neuronen, werden als grundlegende funktionale Einheit der Informationsrepr¨ asentation und -verarbeitung im Gehirn vorgestellt. Aus verschiedenen, spezialisierten Formen von Functional Webs wie etwa Word Webs zu Repr¨ asentation von Worten oder Sequence Sets zur Erkennung von Wortfolgen wird schließlich ein Modell zusammengesetzt, welches – abseits der Pfade g¨angiger, linguistischer Syntax-Theorien – das Verst¨ andnis komplexer grammatikalischer Abh¨ angigkeiten erm¨ oglichen k¨ onnte.

8. Februar 2005

Inhaltsverzeichnis 1

Grundlegende Syntax

4

1.1

Ersetzungsregeln

4

1.2

Zentrale Einbettung

5

1.3

Diskontinuierliche Satzbestandteile und verteilte W¨ orter

6

1.4

Abh¨angigkeitsgrammatiken

7

1.5

Fragen zu einer neuronalen Grammatik

8

2

Grundlagen zur Sprachverarbeitung im Gehirn

8

2.1

Modellierung von Nervenzellen

9

2.1.1

Nat¨ urliche Neurone

9

2.1.2

K¨ unstliche Neuronenmodelle

2.2

2.3

11

Worte im Gehirn

13

2.2.1

Die Topologie des Kortex

13

2.2.2

Functional Webs

16

2.2.3

Word Webs

19

Neuronale Mechanismen zur Repr¨ asentation serieller Ordnung

21

2.3.1

¨ Grunds¨atzliche Uberlegungen anhand k¨ unstlicher Neurone

21

2.3.2

Synfire Chains

24

2.3.3

Neuronale Sequenzdetektoren

26

3

Neuronale Grammatik

28

3.1

Erregungszust¨ande von funktionellen Netzen

28

3.2

Neuronale Sets

29

3.3

Schwellwertkontrolle

30

3.4

Sequenzdetektion in Netzwerken von neuronalen Sets

31

3.5

Sequenzerkennung

31

2

3.6

Lexikale Kategorien in neuronalen Sets

33

3.6.1

Warum lexikale Kategorien?

33

3.6.2

Lexikale Kategorien als Mengen von Sequenz-Sets

33

3.6.3

Lexikale Unterscheidungen durch Sequenz-Sets

34

3.6.4

Anforderungen an eine neuronale ’Grammar Machine’

34

Literatur

35

3

1

Grundlegende Syntax

In diesem Kapitel wird dargestellt, wie man Sprache auf formale Weise definieren kann. Es werden die so genannten Phrasenstruktur-Grammatiken 1 und die Abh¨angigkeitsgrammatiken behandelt. Außerdem geht dieses Kapitel darauf ein, welche Beschr¨ankungen es bez¨ uglich Sprachen bei neuronalen Netzen gibt und was neuronale Netze bieten, was formalen Grammatiken fehlt.

1.1 Ersetzungsregeln Eine einfache Methode um eine formale Syntax zu definieren sind die Ersetzungsregeln 2 . Eine Ersetzungsregel ist eine Formel, die ausdr¨ uckt, dass etwas ersetzt werden kann durch etwas anderes. Eine Menge solcher Regeln wird auch als Phrasenstruktur-Grammatik bezeichnet, wenn auf der linken Seite des Pfeils immer nur ein Symbol und auf der rechten beliebig viele stehen, wird diese Grammatik auch als kontextfreie Grammatik bezeichnet. Der Pfeil x → y kann so gelesen werden: x wird ersetzt durch y, was auch den Namen der Regeln erl¨autert. Eine Menge solcher Regeln wird nun als Grammatik bezeichnet. Diese Grammatik hat die Einschr¨ankung, dass sie die Bedeutung von W¨ortern v¨ollig außer Acht l¨asst und nur auf die Syntax achtet. Nun folgt ein Beispiel einer solchen Grammatik. In diesem Beispiel werden einige Abk¨ urzungen bzw. Symbole benutzt, die f¨ ur gewisse syntaktische Kategorien stehen. S bezeichnet das Startsymbol, NP die Nominalphrase, VP die Verbalphrase, Det ist der Artikel und V das Verb. Ausdr¨ ucke in runden Klammern sind nicht obligatorisch und Ausdr¨ ucke in geschweiften Klammern sind dann die eigentlichen W¨orter im Satz. (1) (2) (3) (4) (5) (6)

S → NP VP NP → (Det) N N → V (NP) N → {Betty, machine} V → {laughs, cleans, switches} Det → {the, a}

Mit dieser kleinen Grammatik k¨onnen sowohl sinnvolle als auch unsinnige S¨atze gebildet werden, die aber vom syntaktischen Aspekt betrachtet durchaus richtig sind: (1) Betty cleans the machine. (2) The Betty laughs machine. 1 2

Phrase structure grammars Rewriting rules

4

Zu diesem Zeitpunkt k¨onnte man sich eigentlich fragen, ob ein neuronales Netz, das eine neuronale Grammatik 3 beinhaltet, nicht gleichermaßen wie eine solche Phrasenstruktur-Grammatik f¨ahig ist, dieses Problem zu l¨osen. Das folgende Teilkapitel wird jedoch zeigen, dass dem nicht so ist.

1.2 Zentrale Einbettung

Der Vorteil, den kontextfreie Grammatiken besitzen, ist, dass die Regeln rekursiv anwendbar sind und so S¨atze gebildet werden k¨onnen, die syntaktisch korrekt und sehr komplex sind. Es wurde bewiesen[2], dass neuronale Netze ¨aquivalent zu regul¨aren Grammatiken sind, die jedoch nicht so m¨achtig sind wie kontextfreie. Kontextfreie Grammatiken erm¨oglichen es S¨atze zu bilden, in denen andere S¨atze eingebettet sind. Diese Einbettung von S¨atzen wird auch zentrale Einbettung 4 genannt. Nun folgen zwei Beispiele solcher S¨atze 5 : (1) The rat (the cat (the dog chased) killed) ate the malt. (2) Anyone (1 who feels (2 that (3 if so many more students (4 whom we haven’t actually admitted )4 are sitting in on the course (4 than ones we have )4 (4 that the room had to be changed )4 )3 then probably auditors will have to be excluded )2 )1 is likely to agree that the curriculum needs revision. Was diese Beispiele jedoch auch zeigen, dass es wahrscheinlich gar nicht n¨otig ist, dass man unendlich komplexes bzw. tiefes zentrales Einbetten von S¨atzen in einer neuronalen Grammatik erm¨oglichen muss, um Sprache sinnvoll verstehen zu k¨onnen, da das menschliche Gehirn es auch nicht ohne Hilfe und langes Nachdenken schafft, vor allem den zweiten Beispielsatz zu verstehen. Es scheint also irgendwo eine Art Grenze der verst¨andlichen Komplexit¨at zu geben. Diese Grenze wurde von einigen Wissenschaftlern bei drei eingebetteten S¨atzen festgelegt[3]. Um einen Satz wie den ersten Beispielsatz sprechen zu k¨onnen, ist es n¨otig im Speicher bzw. im Gehirn die Information des bereits Gesprochenen zu behalten und zwar Reihenfolge und fehlende Teile. Kontextfreie Grammatiken sind dazu in der Lage, da bewiesen wurde, dass sie ¨aquivalent zu einem Kellerautomaten, der unendlich viel Speicherplatz besitzt, sind. Dieser Automat funktioniert nach dem first-in last-out Prinzip und speichert so ein ’Spiegelbild’ des bereits Gesprochenen. Der Satz ist dann fertig, wenn der Speicher wieder leer ist. 3

Neuronal grammar Center embedding 5 Die Klammern wurden zur Verdeutlichung des Einbettens und zur Vereinfachung des Verst¨andnisses eingef¨ ugt 4

5

Da es in vielen Sprachen vorkommt, dass zentral eingebettete S¨atze benutzt werden, muss man neuronale Netze anpassen und ver¨andern, um dieser Begebenheit gerecht zu werden. Eine M¨oglichkeit, die Tatsache, dass ein neuronales Netz mit endlich vielen Neuronen nur endlich viele Zust¨ande besitzt zu umgehen, w¨are z.B. ein Wachstum des Netzes zu erlauben[4]. Dieses Wachstum ist jedoch nicht unbedingt sehr realistisch, wenn man interne Prozesse des Gehirns beschreiben will, da ein unendliches Wachstum des Gehirns alleine durch den Sch¨adelknochen beschr¨ankt ist. Wie schon gesagt, ist dies aber auch nicht unbedingt n¨otig, da Sprache nur bis zu einer gewissen Komplexit¨at verst¨andlich ist.

1.3 Diskontinuierliche Satzbestandteile und verteilte W¨orter Die vorher definierte Grammatik besteht aus sechs Ersetzungsregeln, die alle nicht eine relativ h¨aufig auftretende grammatikalische Besonderheit beschreiben. Diese Besonderheit wird auch ein verteiltes Wort 6 genannt. ’Betty switches the machine on.’ ist ein Beispiel f¨ ur dies. Es m¨ usste mindestens eine Regel ver¨andert werden um dem verteilten Wort ’switches ... on’ gerecht zu werden. (1) VP → V (NP) (on) ¨ Diskontinuierliche Satzbestandteile 7 sind ein Uberbegriff f¨ ur solche verteilten W¨orter, die grammatikalisch gesehen eng miteinander verbunden sind, jedoch in geschriebener Sprache durch den Raum bzw. in gesprochener Sprache durch die Zeit getrennt sind. Die Problematik besteht darin, dass dieser Abstand unterschiedlich lange sein kann, wie folgende Beispiele zeigen: (1) Betty switched it on. (2) Betty switched the coffee machine on. (3) Betty switched the nice brown coffee machine on. Um nun solche S¨atze produzieren bzw. verstehen zu k¨onnen, muss man Informationen u ¨ber die vorherigen W¨orter speichern und das u ¨ber einen unbestimmten Zeitraum. Eine weitere Schwierigkeit besteht darin, dass W¨orter wie ’switch’ und ’switch ... on’ zwar den selben Wortstamm teilen jedoch eine v¨ollig unterschiedliche Bedeutung besitzen, d.h. also, dass die Bedeutung des Wortes m¨oglicherweise erst am Ende des Satzes eindeutig bestimmt werden kann. Eine Grammatik wie: 6 7

Distributed word Discontinuous constituents

6

(1) (2) (3) (4)

a→Ab b → switches c c→Bd d → C (on),

erm¨oglicht es zwar, das verteilte Wort ’switches ... on’ zu schreiben, ist jedoch nicht korrekt im eigentlichen Sinne, da in (2) schon entschieden werden muss, welches der beiden wortstammgleichen W¨orter gew¨ahlt wird. Um dies zu l¨osen, wurde vorgeschlagen die W¨orter genauer zu unterscheiden und mehr lexikale Untergruppen zu benutzen, wie z.B. ’switch ... on’ in die Gruppe der transitiven Verben mit Partikel zu stecken und das Wort ’switch’ in die Gruppe der transitiven Verben ohne Partikel. Eine Grammatik, die das ber¨ ucksichtigt w¨are z.B.: (1) (2) (3) (4) (5) (6)

b → switches1 c1 c1 → B d1 d1 → C on b → switches2 c2 c2 → B d2 d2 → C

Hierbei wird sichergestellt, dass falls ’switches1 ’ gew¨ahlt wird, der Partikel ’on’ am Ende gesetzt werden muss. Ein Nachteil dieser L¨osung f¨ ur das Problem der diskontinuierlichen Satzbestandteile ist jedoch die h¨ohere Komplexit¨at der Grammatik: Wenn angenommen wird, dass die Zahl der diskontinuierlichen Satzbestandteile n ist, dann w¨ urde die Zahl der Ersetzungsregeln mit 2n erh¨oht werden.

1.4 Abh¨angigkeitsgrammatiken Ein anderer Ansatz, um Grammatiken zu beschreiben, ist, W¨orter in ihre lexikalen Kategorien einzuteilen und sie in Abh¨angigkeiten zu ihren Komplementen - die notwendigen Zus¨atze f¨ ur diese W¨orter - zu stellen. Solche Abh¨angigkeitsgrammatiken 8 k¨onnen mit Abh¨angigkeitsregeln beschrieben werden, deren Notation folgendermaßen erfolgt: Auf der linken Seite einer runden Klammer steht die Kategorie des Wortes, das gerade behandelt wird. In den Klammern befindet sich ein Stern-Symbol /*/, welches den Platz des aktuellen Wortes besetzt. Links davon stehen eine bzw. mehrere abh¨angige lexikale Kategorien, die im Satz zeitlich bzw. r¨aumlich vor dem aktuellen Wort stehen und analog hierzu stehen auf der rechten Seite eine bzw. mehrere lexikale Kategorien, die danach auftreten. Eine Beispielgrammatik w¨are nun: 8

Dependency grammars

7

(1) (2) (3) (4) (5) (6) (7) (8) (9) (10)

V14par (N1 /*/ N4 Par) V14 (N1 /*/ N4) V1 (N1 /*/) N1 ((Det) /*/) N4 ((Det) /*/) V14par {switches} V14 {cleans} V1 {laughs} V14par {Betty, machine} Par {on},

wobei V14par ein transitives Verb mit Partikel, V14 ein transitives Verb, V1 ein intransitives Verb, N1 ein Nomen im Nominativ, N4 ein Nomen im Akkusativ und Par einen Partikel bezeichnen. Beispiels¨atze, die mit dieser Grammatik gebildet werden k¨onnen, sind: (1) Betty cleans the machine. V14 (N1 /*/ N4 (Det /*/)) (2) Betty switched the machine on. V14par (N1 /*/ N4 (Det /*/) Par) 1.5 Fragen zu einer neuronalen Grammatik Nachdem nun gezeigt wurde, wie man mit formalen Grammatiken diverse Begebenheiten verschiedener Sprachen l¨osen kann stellen sich nun einige sehr bedeutende Fragen zu neuronalen Grammatiken: (1) Wie l¨asst sich die zentrale Einbettung realisieren bzw. wie kann kann man solche S¨atze repr¨asentieren? (2) Wie k¨onnen diskontinuierliche Satzbestandteile bzw. verteilte W¨orter realisiert werden? (3) Wie kann der wiederholte Gebrauch ein und desselben Wortes in einem Satz gespeichert werden? (4) Wie k¨onnen lexikale Kategorien repr¨asentiert werden? Zu all diesen Fragen versuchen wir in den folgenden Kapiteln Antworten bzw. L¨osungsvorschl¨age zu finden.

2

Grundlagen zur Sprachverarbeitung im Gehirn

In diesem Abschnitt werden – ausgehend von neurophysiologischen Beobachtungen – m¨ogliche Modelle zur Repr¨asentation und Verarbeitung von Infor8

mationen und Strukturen vorgestellt, wie beim Verst¨andnis und bei der Produktion nat¨ urlicher Sprache auftreten. Zun¨achst wird ein vereinfachtes Neuro¨ nenmodell vorgestellt, das die Grundlage aller weiteren Uberlegungen bildet. Im zweiten Abschnitt wird diskutiert, wie W¨orter und ihre Semantik im Gehirn repr¨asentiert werden k¨onnten. Zuletzt werden wir einige Mechanismen betrachten, die darauf aufbauend das Verst¨andnis grammatikalischer Strukturen erm¨oglichen. Der Schwerpunkt liegt auf einer konzeptuellen Darstellung, die die Entwicklung eines konkreten Modells in Abschnitt 3 vorbereiten und als dessen biologische Rechtfertigung dienen soll. 2.1 Modellierung von Nervenzellen 2.1.1 Nat¨ urliche Neurone Hauptinformationstr¨ager und -prozessor des menschlichen Gehirns sind Neurone – grob gesch¨atzt 1011 dieser hochspezialisierten Zellen beinhaltet unser Zentralnervensystem. Zwar finden sich in unserem Nervensystem daneben auch noch andere Zelltypen wie etwa Glia-Zellen (Astrozyten, Schwann’sche Zellen u.a.). Jedoch dienen diese heutigem Wissen nach vor allem der Aufrechterhaltung des Stoffwechselhaushalts sowie als mechanisches St¨ utzger¨ ust der informationsverarbeitenden Nervenzellen.

A.

B. Abbildung 1. A. Schematische Darstellung eines Neurons (nach [8]). B. Synaptische Kontakte (aus [6])

9

¨ Spezialisiert sind Neurone hinsichtlich der Erzeugung und Ubertragung elektrischer Impulse in Reaktion auf elektrochemische Reize aus ihrer Umgebung. Abbildung 1 zeigt vereinfacht die Anatomie einer solchen Zelle. Zur Aufnahme externer Reize dienen dem Neuron die Dendriten, ein oftmals baumartig verzweigter Zellauswuchs bestehend aus Nervenfasern. Die Erzeugung eines eigenen Reizimpulses (Aktionspotenzials) erfolgt – unter bestimmten Bedin¨ gungen, s.u. – am Axonh¨ ugel, dem Ubergang zwischen Zellk¨orper (Soma) und Axon. Das Axon ist ein weiterer, faserartiger Auswuchs der Zelle, welcher der ¨ Ubertragung der am Axonh¨ ugel erzeugten Aktionspotenziale an andere Neurone dient. Die Impulsleitung erfolgt je nach Zelltyp mit Geschwindigkeiten zwischen 1 und 100 m/s. Auch das Axon ist oftmals stark verzweigt. Am Ende eines jeden Astes befindet sich eine Kontaktstelle zu einer dendritischen Faser eines weiteren Neurons. An diesen sog. Synapsen k¨onnen elektrische Impulse von Zelle zu Zelle u ¨bertragen werden: bei Eintreffen eines pr¨asynaptischen (axonalen) Impulses werden chemische Botenstoffe – sog. Neurotransmitter – freigesetzt. Durch spezifische Rezeptoren kann die postsynaptischen Zelle nun auf den Impuls reagieren. Das Eintreffen eines chemischen Reizes beeinflusst die Wahrscheinlichkeit, mit der am postsynaptischen Dendrit wiederum ein elektrischer Impuls erzeugt wird, der dann entlang der dendritische Faser bis zum Zellk¨orper der postsynaptische Zelle wandert. Erh¨ohen die Impulse an einer Synapse die Wahrscheinlichkeit einer postsynaptischen Impulserzeugung, so nennt man die Synapse erregend oder exzitatorisch. Verringert sie hingegen die Wahrscheinlichkeit, so spricht man von einer hemmenden oder auch inhibitorischen Synapse. Die Bedingung f¨ ur die Erzeugung eines Impulses am Axonh¨ ugel schließlich ist das gleichzeitige Eintreffen ausreichend vieler Impulse aus den Dendriten der Zelle. Wird hierbei eine bestimmt Schwelle u ¨berschritten, so feuert die Zelle und der Impuls wandert entlang des Axons zu den Dendriten weiterer Zellen und so weiter und so fort. Soweit ist das Funktionsprinzip einer einzelnen Nervenzelle – trotz aller h¨asslichen, biochemischen Details, versteht sich – vergleichsweise einfach. Die große Leistungsf¨ahigkeit unseres Nervensystems entsteht aus dem hohen Vernetzungsgrad der Neurone untereinander: jede der 1011 Zellen steht mittels synaptischer Verbindungen in Kontakt mit durchschnittlich 1.000–10.000 weiteren Zellen. Dabei entstehen zahllose R¨ uckkopplungsschleifen, fernerhin sind die Einflussst¨arken der Zellen aufeinander variabel. Eine zentrale Frage ist daher die nach den Mechanismen neuronaler Plastizit¨at, d.h. nach welchen Regeln sich die Verbindungsst¨arken zwischen einzelnen Neuronen im Laufe der Zeit ver¨andern. Obwohl die Details dieser Vorg¨ange auch heute noch teilweise unklar sind, so scheint sich doch die fr¨ uhe Hypothese des amerikanischen Psychologen Donald Hebb prinzipiell best¨atigt zu haben: Wenn ein Axon der Zelle A einer Zelle B nahe genug ist, diese zu erregen und sich wiederholt und dauerhaft an deren Impulserzeugung beteiligt, so geschieht ein Wachstumsprozess oder eine metabolische Ver¨anderung in ei10

ner oder beiden Zellen, wodurch sich die Effizienz von A bez¨ uglich ihrer Wirkung auf B erh¨oht. D. Hebb, 1949 Besteht also eine hohe, positive Korrelation zwischen der Aktivit¨at von Zelle A und Zelle B, so wird die Verbindung der beiden langfristig Verst¨arkt. Dieser Prozess wird auch als long-term potentiation, kurz: LTP, bezeichnet. Dar¨ uber hinaus hat man durch Zellstimulationsexperimente auch noch einen gegenteiligen Prozess festgestellt: besteht keine oder nur geringe Korrelation zwischen der Aktivit¨at von A und B, so nimmt die Verbindungsst¨arke ab. Man spricht hierbei analog von LTD, long-term depression, oder auch anti-Hebb´schem Lernen. Da die Feuerfrequenz einer Zelle nie negativ ist, gilt die Hebb‘sche Regel in dieser Formulierung allerdings h¨ochstens f¨ ur erregende Synapsen. Zwar ließe sich die Regel problemlos f¨ ur hemmende Synapsen umformulieren. Die Faktenlage ist jedoch in diesem Fall sp¨arlicher und weit weniger eindeutig([11]), so dass eine solche Behauptung aus neurophysiologischer Sicht noch nicht ausreichend gest¨ utzt w¨are.

2.1.2 K¨ unstliche Neuronenmodelle Bei n¨aherer Betrachtung liegen der neuronalen Reizleitung – im vorigen Abschnitt weitestgehend u ¨bergangen – komplexe bio- und elektrochemische Prozesse zu Grunde. Zwar sind biologisch realistische mathematische Beschreibungen dieser Prozesse bekannt. Will man aber das Verhalten eines Neurons auf diese Weise simulieren, so kommt man nicht umhin, ein verschachteltes System von Differentialgleichungen zu berechnen – der Rechenaufwand u ¨berschreitet bei wachsender Anzahl zu simulierender Neurone schnell die Grenzen des Machbaren. Daher sind vereinfachte Modelle notwendig, die die Simulation einer großen Anzahl von Neuronen erlauben. Das ¨alteste dieser abstrakten Neuronenmodelle ist die McCulloch-Pitts-Zelle. Eine solche Zelle hat n bin¨are Eingangsleitungen x = x1 . . . xn (entsprechend den Dendriten) sowie einen ebenfalls bin¨aren Ausgang (analog zum Axon), dessen Wert sich als Funktion f (x) der Eing¨ange berechnet. Des weiteren ist jeder Eingang mit +1 oder −1 gewichtet (entsprechend erregenden und hemmenden Synapsen), zusammengefasst als bipolarer Gewichtsvektor w = w1 . . . wn . Zur Berechnung der ¨ Ausgabe werden die gewichteten Eingangssignale summiert. Uberschreitet die Summe einen bestimmten Schwellwert θ ∈ R, so ist die Ausgabe 1, andernfalls 0. Es ist also

f (x) =

   1,   0,

falls

Pn

i=1

w i xi ≥ θ sonst 11

(1)

Abbildung 2 zeigt beispielhaft McCulloch-Pitts-Zellen f¨ ur die booleschen Funktionen UND, ODER und NICHT. Offenbar kann man diese genau wie herk¨ommliche logische Gatter parallel und in Reihe schalten und so jede beliebige boolesche Funktion berechnen – auch wenn ein einzelnes Neuron nur linear trennbare Funktionen berechnen kann. L¨asst man – im Gegensatz zu reinen

Abbildung 2. UND, ODER und NICHT Neurone

Feed-Forward-Architekturen – R¨ uckkopplungsschleifen zu, so existiert zu jeder regul¨aren Sprache ein McCulloch-Pitts-Netz, welches diese erkennt. Genauer gesagt sind McCulloch-Pitts-Netze (mit endlicher Neuronenzahl) und endliche Automaten als Berechenbarkeitsmodell genau gleich m¨achtig. Die M¨achtigkeit des McCulloch–Pitts–Modells ¨andert sich auch dann nicht, wenn man als Gewichte wi anstelle von ±1 beliebige reelle Zahlen zul¨asst. Abbildung 3 demonstriert, wie sich ein Neuron mit reellwertigen Gewichten in ein ¨aquivalentes Neuron mit bipolaren Gewichten umwandeln l¨asst. In Anbetracht der Dis-

¨ Abbildung 3. Uberf¨ uhrung reeller in bipolare Gewichte

kussion um Hebbs Regel in Abschnitt 2.1.1 ist es jedoch offensichtlich, dass ohne eine derartige Erweiterung des Gewichtsvektors eine biologisch plausible Modellierung synaptischer Plastizit¨at nicht gelingen kann. Auch hat sich neben der hier vorgestellten, bin¨aren Schwellwertfunktion eine Vielzahl anderer Ausgabefunktionen eingeb¨ urgert, darunter beispielsweise die Sigmoide x 7→

1 1 + e−x

(2)

oder lineare Funktionen mit Schwellwert (siehe Abb. 4): x 7→

   c(x − θ), falls x ≥ θ   0,

(3)

sonst

Dadurch ¨andert sich auch die Interpretation des Ausgabewertes in Bezug auf den Aktivit¨atszustand des Neurons. Anstelle einzelner Impulse repr¨asentiert 12

Abbildung 4. verschiedene neuronale Ausgabefunktionen: A. Bin¨ ar mit Schwellwert, B. Sigmoid, C. Linear mit Schwellwert (aus [7])

der Ausgabewert bei diesen Funktionen vielmehr die Impulsfrequenz, gemittelt u ¨ber einen gewissen Zeitraum – im Falle der Sigmoiden zus¨atzlich normiert, wobei ein Ausgabewert von 1 der maximalen Feuerfrequenz der Zelle entspr¨ache, unabh¨angig von deren absolutem Wert. Der Vollst¨andigkeit halber sei an dieser Stelle noch angedeutet, wie Hebb’sches (LTP) und anti-Hebb’sches (LTD) Lernen auf k¨ unstliche Neuronen u ¨bertragen werden kann (vgl. Anschnitt 2.1.1) . Eine einfache Form von LTP l¨asst sich folgendermaßen formulieren: Sei wij ∈ R das Gewicht der Verbindung von Neuron i zu j, und seien ai und aj deren Aktivit¨at zum Zeitpunkt des Lernschrittes. Dann betr¨agt die Ver¨anderung des Gewichtes ∆wij = ηai aj ,

(4)

mit Lernrate η. Da ai und aj in natura immer positiv sind (und auch bei allen hier vorgestellten Ausgabefunktionen), kann wij nur st¨andig gr¨oßer werden. Ausgekl¨ ugeltere Lernregeln erm¨oglichen sowohl LTP als auch LTD, auch bei rein positiven Ausgabefunktionen. Beispiele hierf¨ ur sind u.a. Sejnowskis Kovarianz-Regel, Ojas Regel oder die BCM-Regel, siehe [5] f¨ ur einen umfas¨ senden Uberblick. 2.2 Worte im Gehirn 2.2.1 Die Topologie des Kortex Der f¨ ur Sprachproduktion und -verst¨andnis entscheidende Teil des Gehirns ist elektrophysiologische, bildgebenden sowie L¨asionsstudien zufolge die Rinde des Großhirn, der cerebrale Kortex. Daneben erm¨oglicht der Kortex noch zahlreiche weitere Formen h¨oheren Denkens“ wie z.B. alle Formen bewusster ” sinnlicher Wahrnehmung und bewussten Handelns sowie Lang- und Kurzzeitged¨achtnis. Der Kortex ist in zwei H¨alften (Hemisph¨aren) geteilt, die nur u ¨ber die Nervenfasern des sog. Balkens (Corpus callosum) miteinander verbunden sind. Dabei ist eine der beiden Hemisph¨aren – bei ca. 90% der Menschen die 13

Abbildung 5. Die vier Lappen des Großhirns sowie die prim¨ are Areale des motorischen, somatosensorischen, visuellen und auditorischen Kortex

linke – bei der Sprachverarbeitung st¨arker beteiligt als die andere. Erstere wird als die dominante Hemisphere bezeichnet. Ausgebreitet betr¨agt die Fl¨ache der Großhirnrinde etwa 0.2m2 . Notwendigerweise ist sie daher stark gefaltet und gliedert sich in vier von Furchen (Sulci ) und Windungen (Gyri ) durchzogene Lappen. Aufgrund genauer Betrachtung der neuroanatomischer Eigenschaften lassen sich pro Hemisphere rund 50 verschiedene Areale unterscheiden. Leicht auszumachen sind z.B. der prim¨are motorische Kortex und der prim¨are somatosensorische Kortex unmittelbar vor bzw. hinter der Zentralfurche (siehe Abb. 5). Beide dieser Areale sind topographische Karten des K¨orpers - benachbarte K¨operregionen werden abgebildet auch benachbarte Verb¨ unde von Nervenzellen. Aktivit¨at im motorischen Kortex ruft Muskelkontraktionen in der entsprechenden K¨orperregion hervor, w¨ahrend Aktivit¨at im somatosensorischen Kortex Ber¨ uhrungs- oder Schmerzwahrnehmungen aus der entsprechenden Region erzeugt – auch wenn diese gar nicht durch einen tats¨achlichen Ber¨ uhrungsreiz hervorgerufen wurde. Abb. 6 zeigt beispielsweise die Abbildung der K¨orperoberfl¨ache auf den motorischen Kortex, die Abbildung des somatosensorischen Kortex sieht dieser weitgehend ¨ahnlich. Es ist erkennbar, dass sich die sprachrelevanten Muskelgruppen (Gesicht, Kehle, Zunge) am unteren Ende des motorischen u. sensorischen Kortex wiederfinden. Damit liegen sie u.a. in direkter Nachbarschaft zum prim¨aren und sekund¨aren auditorischen Kortex (siehe Abb. 5), ungef¨ahr da, wo die Zentralfurche auf die Sylvische Furche trifft. Zum Verst¨andnis der neuronalen Verbindungsstruktur zwischen und innerhalb der einzelnen Hirnareale ist es sinnvoll, sich zun¨achst eine anatomische Besonderheit der kortikalen Neurone vor Augen zu f¨ uhren. Der h¨aufigste Neuronentyp im Kortex ist mit einem Anteil von ca. 80% die Pyramidenzelle ([9]). Deren dendritischer Baum ist zweigeteilt, man unterscheidet den basalen und den apikalen Dendriten. Der basale Dentrit umfasst ein Fasergeflecht, das den Zellk¨orper des Neurons umgibt und daher Verbindungen zu lokalen Axon14

Abbildung 6. Projektion des K¨orpers auf den motorischen Kortex – der motorische Homunkulus

Abbildung 7. Anatomie einer kortikalen Pyramidenzelle mit basalem und apikalem Dendrit, Axon und Axonkollateralen (aus [5])

ver¨astelungen (Axonkollateralen) benachbarter Zellen erm¨oglicht. Der apikale Dendrit hingegen ist ein langgestreckter Ast, der es der Zelle erlaubt, synaptischen Kontakt zu weiter entfernt verlaufenden Axonen aufzubauen (siehe Abb. 7). Die basalen Verbindungen f¨ uhren zu einem hohen Vernetzungsgrad von Neuronen innerhalb eines Areals – Sch¨atzungen f¨ ur die Verbindungswahrscheinlichkeit zweier benachbarter Neurone liegen zwischen 10% und 80%. Zwischen diesen Neuronen besteht also ein reger, lokaler Informationsaus¨ tausch, der auch mit a¨hnlichen funktionellen Eigenschaften einhergeht. Uber apikale Verbindungen entstehen Kontakte zwischen den verschiedenen lokalen Arealen. Ungef¨ahre Anhaltspunkte f¨ ur deren Konnektivit¨at bieten neuroanatomische Studien bei Katzen und Affen. Es hat sich gezeigt, dass benachbarte kortikale Areale mit Wahrscheinlichkeiten von u ¨ber 70% miteinander verbun15

den sind. F¨ ur nichtbenachbarte Areale betr¨agt die Wahrscheinlichkeit nur noch 15–30%. Dabei ist zu beachten, dass fast alle Verbindungen zwischen verschiedenen Arealen – sofern sie denn existieren – wechselseitig sind, Informationen also jeweils sowohl empfangen wie auch gesendet werden. Eine weitere Beobachtung ist, dass die prim¨aren Areale untereinander nicht direkt verbunden sind - der motorische und der somatosensorische Kortex bilden hierbei die einzige Ausnahme. Die u ¨brigen Verbindung bestehen allenfalls indirekt u ¨ber Umschaltneurone in nicht-prim¨aren Arealen. Dadurch werden aber gleichzeitig auch komplexere Verschaltungen und damit Informationsverarbeitungsschritte m¨oglich – ¨ahnlich wie beispielsweise Perzeptrone mit zwei Berechnungsschichten komplexere Funktionen berechnen k¨onnen also solche mit nur einer.

2.2.2 Functional Webs Zieht man nun zu diesen grundlegenden Beobachtungen u ¨ber die Verbindungsstrukturen innerhalb des Kortex die in Abschnitt 2.1.1 vorgestellten Mechanismen synaptischer Plastizit¨at – LTP und LTD – in Betracht, so wird man erwarten, dass h¨aufig auftretende Aktivit¨atsmuster zur St¨arkung der Gewichte zwischen den beteiligten Neuronen f¨ uhren. Dies kann sowohl innerhalb einzelner Areale geschehen, durch die apikalen Verbindungen aber auch in r¨aumlich getrennten Regionen. Sogar die indirekte Verbindung zweier h¨aufig koaktivierter Neurone aus unterschiedlichen prim¨aren Arealen k¨onnte auf diese Weise verst¨arkt werden – durch Verst¨arkung der jeweiligen Verbindungen zu einem gemeinsamen Umschaltneuron. Korrelation zwischen der Aktivit¨at benachbarter Neurone ist aufgrund der allgemein verbreiteten, topographischen Form der Repr¨asentation zu erwarten: benachbarte Neurone innerhalb eines der Wahrnehmungsareale beispielsweise reagieren auf ¨ahnliche Reize. Aber auch selektive Korrelationen zwischen Neuronen verschiedener Areale sind leicht vorstellbar: jedes Mal zum Beispiel, wenn wir durch Aktivit¨at im motorischen Kortex unsere Stimmb¨ander aktivieren, entstehen im somatosensorischen Kortex Empfindungsreize durch die hervorgerufenen Vibrationen. Und mit zeitlicher Verz¨ogerung schl¨agt sich die Schallwahrnehmung des eigenen Lautes als Aktivit¨at im auditorischen Kortex nieder. Vergleichbare Beispiele lassen sich auch f¨ ur viele weitere Sinnesmodalit¨aten finden, wie etwa gemeinsam auftretenden Geschmacks- und Konsistenzempfindungen beim Essen und vieles andere mehr. Auf diese Weise kann es zur Bildung von u ¨ber den Kortex verteilten Netzwerken kommen, die h¨aufig zusammen auftretende Aktivit¨ats- oder Reizmuster repr¨asentieren. Im folgenden werden Netze dieser Art als Functional Web bezeichnet. Zusammengefasst sind Functional Webs definiert als eine Gruppe von Neuronen, die (1) untereinander hochgradig vernetzt sind (2) u ¨ber mehrere kortikale Hirnareale verteilt sind (3) zusammen als funktionale Einheit wirken 16

(4) voneinander funktional abh¨angig sind in dem Sinne, dass jedes einzelne f¨ ur das optimale Funktionieren des Netzes notwendig ist. Abgesehen davon, dass sich dieses Modell kortikaler Repr¨asentation auf nat¨ urliche Weise aus den bereits vorgestellten Prinzipien neuronaler Plastizit¨at und kortikaler Konnektivit¨at ergibt, bringt sie auch aus theoretischer Sicht eine Reihe von Vorteilen mit sich. Ein Vorteil der Functional Webs liegt in der stochastischen Natur des Feuerverhaltens einzelner Neurone begr¨ undet. Da Neurone unabh¨angig von externer Stimulation immer wieder spontan Aktionspotentiale erzeugen, haben sie f¨ ur sich genommen ein schlechtes SignalRausch-Verh¨altnis. Durch Mittelung der Signale mehrerer Neurone l¨asst sich dieses Verh¨altnis entscheidend verbessern. Das Rauschen hebt sich mit wachsender Anzahl von Neuronen gegenseitig, w¨ahrend das Signal erhalten bleibt. Ebenso ist es eine w¨ unschenswerte Eigenschaft, dass der Verlust eines einzelnen Neurons nicht den Verlust einer gesamten Repr¨asentation nach sich zieht. Wichtig ist es auch, dass zwei Functional Webs nicht aus disjunkten Mengen von Neuronen bestehen m¨ ussen, eine Neuron also Teil mehrerer Functional Webs sein. Dies zieht einige Konsequenzen nach sich. Zum einen wird es durch ¨ den Uberlapp schwierig zu bestimmen, welche Neurone tats¨achlich Teil eines gegebenen Functional Webs sind. Diese Form der Repr¨asentation beinhaltet also zwangsl¨aufig eine gewisse Unsch¨arfe (Fuzziness). Zum zweiten gilt es zu vermeiden, dass sich die Functional Webs im Cortex durch ihren wechselseiti¨ gen Uberlapp nach und nach alle gegenseitig aktivieren. Hierzu bedarf es eines Regulationsprozesses, der sicherstellt, dass der gemittelte kortikale Aktivierungsgrad bestimmt Ober- und Untergrenzen nicht u ¨berschreitet (ein v¨olliges Aussterben jeglicher Aktivit¨at w¨are nat¨ urlich ebenso unerw¨ unscht). Prinzipiell l¨asst sich dies durch zus¨atzliche, inhibitorische Verbindungen der Neurone untereinander erreichen, so dass nach dem Winner–Takes–All“–Prinzip nur ” wenige, maximal aktivierte Functional Webs ihre Aktivit¨at aufrecht erhalten k¨onnen. Ein genaueres Modell f¨ ur einen derartigen Mechanismus unter Einbeziehung anatomisch bekannter, subkortikaler R¨ uckkopplungswege findet sich in [1]. Was nun sind die bislang weitgehend u ¨bergangenen, funktionalen Eigenschaften von Functional Webs? Was außer einer etwas stabileren Repr¨asentation gewinnt man durch sie gegen¨ uber einzelnen Neuronen? Kurz gesagt liegt der entscheidende Vorteil von Functional Webs in ihrer gr¨oßeren Anzahl qualitativ verschiedener Aktivit¨atszust¨ande. Betrachten wir zun¨achst ein solches Netz, bei dem ein ausreichend großer Anteil von Neuronen extern stimuliert wird. Durch die die wechselseitigen, erregenden Verbindungen innerhalb des Netzes kommt es zur Ausbreitung und gegenseitigen Verst¨arkung der Aktivit¨at im gesamten Netz, bis schließlich alle enthaltenen Neurone maximal Aktiviert sind. Dieser Vorgang wird als Ignition“ (Z¨ undung) des Netzes bezeichnet. ” N¨ utzlich ist dies zur automatischen Erg¨anzung unvollst¨andiger Repr¨asentati17

Abbildung 8. Verlauf der Aktivit¨at eines Neurons aus dem temporalen Kortex eines Makaken w¨ahrend eines visuellen Ged¨ achtnistests(aus [12])

onsmuster: man stelle sich beispielsweise ein Functional Web vor, das das semantische Konzept M¨ ucke“ repr¨asentiert. Allein die Wahrnehmung des sum” menden Flugger¨ausches k¨onnte dann ausreichen, um uns durch Ignition des Netzes sofort alle semantischen Aspekte einer M¨ ucke ins Bewusstsein zu rufen, vom Aussehen eines Facettenauges bis hin zur Abneigung gegen den Juckreiz. Bei der Ignition handelt es sich allerdings nur um eine kurzzeitige vollst¨andige Aktivierung. Anschließend kommt es durch Erm¨ udung“ der Neurone und ” m¨oglicherweise auch entgegenwirkenden, regulatorischen Prozessen zu einer Reduzierung der Aktivit¨at im gesamten Web. Dennoch kommt es nicht zu einem pl¨otzlichen Aussterben, da wiederum die gegenseitigen Verbindungen als positive R¨ uckkopplung wirken und den Abfallsprozess stark abbremsen bzw. die Aktivit¨at teilweise auf niedrigerem Level aufrechterhalten k¨onnen. Dieser Prozess des allm¨ahlichen Aktivit¨atsr¨ uckgangs wird als Reverberation“ ” (Nachhall) bezeichnet. Im Elektroenzephalogramm (EEG) oder Magnetoenzephalogramm (MEG) schl¨agt sich dieser Vorgang in Form hochfrequenter Hirnwellen (∼ 30 Hz) nieder. Experimentell konnten derartige Ph¨anomene u.a. bei Ged¨achtnistests mit Affen nachgewiesen werden ([12]). Die Aufgabe f¨ ur den Affen bestand darin, die Form eines nur kurz (0.2s) pr¨asentierten, visuellen Stimulus 16s lang bis zur Pr¨asentation eines Vergleichsstimulus im ¨ Ged¨achtnis zu behalten und bei Ubereinstimmung bzw. Verschiedenheit einen entsprechenden Schalter zu bet¨atigen. Abbildung 8 zeigt den Aktivit¨atsverlauf eines einzelnen Neurons aus dem temporalen Kortex eines Affen. Klar erkennbar ist die starke Aktivierung des Neurons gleich nach Pr¨asentation des ersten Stimulus, entsprechend der Ignition seines Functional Webs. Darauf folgt eine Phase reduzierter, aber nur schwach abfallender Aktivit¨at bis zur Pr¨asentation des Vergleichsstimulus. Diese w¨ urde durch die anschließende Reverberation des Functional Webs erkl¨art. Im u ¨brigen gibt dieses Beispiel auch eine Vorstellung u ¨ber den m¨oglichen zeitlichen Umfang des Reverberation-Prozesses.

18

2.2.3 Word Webs In diesem Abschnitt soll nun vertieft werden, wie W¨orter mit ihren phonetischen wie semantischen Aspekten im Gehirn mittels Functional Webs repr¨asentiert werden k¨onnten. Die Ausgangsbasis f¨ ur eine derartige Repr¨asentation wird bereits im fr¨ uhesten Neugeborenenalter geschaffen, besonders mit Beginn der sog. Lallphase im Alter von etwa 6 Monaten. Aktivit¨at im unteren Teil des prim¨aren motorischen Kortex l¨ost spontane Laut¨außerungen aus, die u ¨ber den Umweg des Geh¨ors Aktivit¨at in den auditorischen Hirnregionen hervorrufen. Da bei gleicher Stellung des Stimmorgane auch immer ein ¨ahnlicher Laut erzeugt wird, k¨onnen durch Hebb’sches Lernen Netze von Neuronen entstehen, die sowohl die akustischen als auch die motorischen Aspekte der h¨aufig erzeugten Phoneme verbinden. Damit erm¨oglichen sie das imitierende Nachsprechen wahrgenommener Silben oder Worte – ein F¨ahigkeit, die S¨auglinge bereits kurz nach Beginn der Lallphase entwickeln. Durch u ¨bergeordnete“ ” Verbindungen zwischen einzelnen Phonemnetzen k¨onnen dann Repr¨asentationen f¨ ur h¨aufig auftretende Folgen von Phonemen entstehen - der Grundstein f¨ ur neuronale Wortrepr¨asentationen ist gelegt. Eine berechtigte Frage ist, wie der S¨augling aus der Wahrnehmung eines kontinuierlichen Sprachflusses lernen kann, welche Phoneme u ¨berhaupt zu einem Wort geh¨oren. Denn nur in den seltensten F¨allen werden ihm ja einzelne W¨orter isoliert vorgesprochen. Auch dies l¨asst sich jedoch mit Hilfe des Korrelations-Lernprinzips erkl¨aren: Phonemfolgen, die zu ein und dem selben Wort geh¨oren, tauchen statistisch gesehen h¨aufiger auf als die eher zuf¨alligen Lautfolgen, die an Wortgrenzen entstehen. Zur Bildung von Wortrepr¨asentationen scheint es also das Vorsprechen isolierter Worte nicht notwendig zu sein. Das bis hierhin vorgeschlagenen Modell wurden auch in elektrophysiologischen Studien experimentell u uft. Eine der Vorhersagen des Modells ist die, ¨berpr¨ dass die Wahrnehmung von echten W¨ortern und Pseudow¨ortern zu unterschiedlichen Hirnreaktionen f¨ uhrt. Genauer gesagt sollte ein echtes Wort Ignition und Reverberation des entsprechenden Wortnetzes hervorrufen, w¨ahrend Pseudow¨orter zu keinerlei solchen Reaktionen f¨ uhren sollten. Tats¨achlich wurden bei EEG- und MEG-Studien bei echten Worten signifikant st¨arkere, hochfrequente Hirnwellen gemessen als bei Pseudow¨ortern, und zwar nahe der Sylvischen Furche, wo sich sowohl der auditorische Kortex als auch die Sprachrelevanten motorischen und somatosensorischen Projektionsfelder befinden (vgl. Abschnitt 2.2.1). Somit stimmt das experimentelle Ergebnis also mit der getroffenen Vorhersage u ¨berein. Durch den h¨aufigen Gebrauch von W¨ortern im Zusammenhang mit bestimmten Gegenst¨anden oder Handlungen k¨onnen die bislang ausschließlich phonologischen Wortrepr¨asentationen durch das Prinzip des Korrelationslernens mit semantischen Inhalten verkn¨ upft werden. Dies k¨onnten etwa Farbe, Griffgef¨ uhl und Geruch eines Gegenstandes aus der Umgebung des S¨auglings sein, 19

Abbildung 9. Topologie mutmaßlicher Word Webs zur Repr¨ asentation von W¨ ortern verschiedener semantischer Kategorien

aber ebenso auch der Bewegungsablauf beim Krabbeln. Functional Webs, die aus diese Weise sowohl die phonologische Information eines Wortes als auch dessen zugeh¨orige Wahrnehmungs- und Handlungsaspekte beinhalten, werden im folgenden auch als Word Webs bezeichnet. Word Webs sollten gem¨aß der bisher angewandten Prinzipien der kortikalen Organisation nicht unspezifisch u urde man erwarten, dass sich se¨ber den Kortex verteilt sein. Vielmehr w¨ mantische Aspekte eines Begriffs in der Topologie seines zugeh¨origen Word Webs widerspiegelt. Die Bedeutung von Worten wie z.B. Hai“ oder Wal“ ” ” werden den meisten von uns in erster Linie durch visuelle Eindr¨ ucke (sprich: Bilder oder Filme) bekannt sein. Im Gegensatz dazu ergibt sich die Bedeutung etwa von Werkzeugnamen viel eher aus der mit ihren Benutzung verbundenen Handlungen. Word Webs f¨ ur vornehmlich visuell gepr¨agte Begriffe sollten daher u ¨berproportional viele Neurone aus den okzipital gelegenen visuellen Arealen enthalten, Word Webs f¨ ur handlungsgepr¨agte Begriffe hingegen viele Neurone im pr¨azentralen, motorischen Kortex. Auch diese Hypothese deckt sich mit Schwankungen im Energieverbrauch der betroffenen Areale, die mit Hilfe hirnbildgebender Verfahren experimentell beobachtet worden sind. Und es finden sich sogar noch feinere topologische Unterschiede: beim Vergleich zwischen gesichts-, arm- und beinbezogenen Verben (z.B. sprechen“, grei” ” fen“ und gehen“) zeigte sich unterschiedlich starke Aktivit¨at entlang des mo” torischen Kortex, und zwar dergestalt, dass das Zentrum der Aktivit¨at je nach Verbkategorie im motorischen Projektionsfeld des Gesichts, der Arme bzw. der Beine lag (vgl. Abb. 6). Abbildung 9 zeigt die mutmaßlichen Word Webs f¨ ur die hier behandelten Wortkategorien: visuell gepr¨agte und handlungsorientierte Substantive sowie gesichts-, arm- und beinbezogene Verben. Ist erstmal ein Grundstock“ von W¨ortern im Gehirn repr¨asentiert, so kann ” die Bedeutung neuer, unbekannter W¨orter auch ihrem sprachlichen Kontext erschlossen werden. Es ist also keinesfalls notwendig, dass jedes neu zu er20

lernende Wort in Zusammenhang mit einem konkreten Gegenstand oder ein konkreten Handlung pr¨asentiert werden muss, um dessen phonologische Eigenschaften mit zus¨atzlichen, semantischen Aspekten zu verkn¨ upfen. ¨ Aus dem hebb’schen Lernprinzip ergibt sich im Ubrigen auch eine Modell ¨ daf¨ ur, wie sich die Ahnlichkeit verschiedener Wort in ihrer neuronalen Repr¨asentation niederschlagen k¨onnte. In Abschnitt 2.2.2 wurde gesagt, dass verschiedene Functional Webs nicht aus disjunkten Gruppen von Neuronen bestehen m¨ ussen. Ganz im Gegenteil macht es sogar Sinn, dass sich einzelne Webs teilweise sehr stark u ¨berlappen – dann n¨amlich, wenn sie sich semantisch urden sich im ¨ahnlich sind. Word Webs vollst¨andig synonymer W¨orter z.B. w¨ idealisierten Fall nur in ihrem Phonemteil unterscheiden. Im Gegensatz dazu w¨ urden sich homophone W¨orter gerade in ihrer Phonemrepr¨asentation u ¨berlappen und der semantische Teil ihrer Word Webs w¨are weitgehend disjunkt (siehe Abbildung 10).

Abbildung 10. Topologie mutmaßlicher Word Webs zur Repr¨ asentation von W¨ ortern verschiedener semantischer Kategorien

Zusammenfassend l¨asst sich also festhalten, dass Word Webs ein plausibles Modell der Repr¨asentation von Worten im Gehirn darstellen, sowohl auf Grund ¨ prinzipieller Uberlegungen zu Organisation und Plastizit¨at des Kortex als auch gest¨ utzt auf experimentelle Ergebnisse aus elektrophysiologischen und funktional bildgebenden Studien. 2.3 Neuronale Mechanismen zur Repr¨asentation serieller Ordnung ¨ 2.3.1 Grunds¨atzliche Uberlegungen anhand k¨ unstlicher Neurone Nach der vorangegangen Diskussion um die grundlegende Repr¨asentationsform von Worten im Gehirn wenden wir uns jetzt allm¨ahlich wieder den in Abschnitt 1 aufgeworfenen Fragen nach den Prinzipien einer neuronalen Grammatik zu. Es wird aufgezeigt, mit welchen Mechanismen verschieden Aspekte serieller Ordnung in k¨ unstlichen McCulloch-Pitts-Netzen repr¨asen¨ tiert werden k¨onnen. Diese Uberlegungen f¨ uhren zusammen mit dem Konzept der Functional Webs und Word Webs auf ein konkretes Modell einer neuronalen Grammatik hin, das in Abschnitt 3 abschließend vorgestellt wird. 21

Das Neuronenmodell von McCulloch&Pitts wurde in Abschnitt 2.1.2 vorgestellt. F¨ ur die Abbildungen dieses Abschnitts gelten folgende Konventionen: der Schwellwert eines Neurons ist die Zahl in dessen Inneren, und das Gewicht aller Verbindungen betr¨agt jeweils 1, soweit nicht anders angegeben. Wie nun lassen sich Netze von solchen Neuronen nutzen, um Sequenzen von W¨ortern zu erkennen? Betrachten wir zun¨achst den einfachsten Fall: gesucht ist ein Netz, das genau einen einzelnen Satz erkennen kann, wobei die einzelnen W¨orter dem Netz sequentiell pr¨asentiert werden. In Abbildung 11 sehen wir zwei m¨ogliche solche Netze zur Erkennung des Beispielsatzes Betty get ” up“. Die Neurone in der Input-Schicht reagieren selektiv auf je eines der drei Worte. Wird die Wortfolge Betty get up“ etwa dem linken der beiden Netze ” pr¨asentiert, so l¨auft folgende Netzreaktion ab (alle Neurone seine zu Beginn inaktiv): (1) Input Betty“ aktiviert Neuron a. ” (2) Input get“ aktiviert Neuron b, w¨ahrend gleichzeitig Neuron d durch a ” aktiviert wird. (3) Input “up“ aktiviert Neuron c, w¨ahrend die Neurone e und f von Neuron b und d erregt werden (4) Durch ihre gleichzeitige Aktivit¨at erregen die Neurone c e und f Neuron g Man erkennt leicht, dass Neuron g nur dann feuert, wenn der Satz Betty get ” up“ w¨ortlich und ohne Unterbrechung im Input vorkommt. Es k¨onnte damit als interne Repr¨asentation dieses Satzes genutzt werden. g wird hierbei als Großmutter- oder Kardinalzelle bezeichnet, da es alleine ein komplexes, zeitlich ausgedehntes Ereignis repr¨asentiert oder vermittelt – man spricht auch von vermittelter Sequenzerkennung 9 . Im Vergleich dazu kommt das Netz in Abb. 11B mit weniger Neuronen aus. Zwar ist auch hier das letzte Neuron der Kette letztendlich eine Kardinalzelle. Zus¨atzlich dazu geht aber die Erkennung des Beispielsatzes einher mit Aktivit¨atswelle, die sich entlang der unteren Reihe von Neuronen fortpflanzt - ein Ph¨anomen, auf das in Abschnitt ?? noch n¨aher eingegangen wird. Einfache Stringdetektoren lassen sich also mit Hilfe k¨ unstlicher Neuronaler Netze implementieren. Eine zentrale Rolle beim Verst¨andnis von Sprache spielt jedoch aufgrund des Prinzips der zentralen Einbettung Abh¨angigkeiten zwischen W¨ortern, die im Satz r¨aumlich bzw. zeitlich beliebig weit voneinander entfernt stehen k¨onnen (vgl. Abschnitt 1.2 und 1.3). Dem sind die bisherigen Stringdetektoren jedoch nicht gewachsen – hierzu bedarf der Einf¨ uhrung von r¨ uckgekoppelten Verbindungen. In Abbildung 12 sehen wir zwei Neurone mit Ged¨achtnis“. Nehmen wir an, das linke Neuron zu Beginn einer Wortfolge ” voraktiviert. Dann ist es nach Pr¨asentation der Folge nur dann noch aktiv, 9

mediated sequence processing

22

Abbildung 11. Zwei Netze zur Erkennung der Wortfolge Betty get up“ A. durch ” eine Kardinalzelle. B. begleitet von einer Aktivit¨ atswelle in der unteren Zellreihe.

Abbildung 12. Netze zur Erkennung des A. dauerhaften bzw. B. einmaligen Auftretens eines Wortes in einer Wortfolge.

wenn kontinuierlich extern stimuliert wurde. Kommt es hingegen zu einer Unterbrechung der externen Stimulation, so ist das Neuron am Ende inaktiv. Das rechte Neuron dagegen bleibt aktiv, sobald es einmal stimuliert wurde (es bedarf dann freilich noch irgendeiner Art von Reset-Mechanismus). Diese Art von Verhalten erinnert an den All- bzw. den Existenzquantor aus der Pr¨adikatenlogik. Speziell das rechte Existenz-Neuron“ eignet sich dazu, den Zusam” menhang zwischen verteilten Satzbestandteilen herzustellen. Dies verdeutlicht Abbildung 13: das abgebildete Netz ist durch seine R¨ uckkopplungsschleifen in der Lage, alle der folgenden S¨atze zuerkennen: (1) Betty switched it on. (2) Betty switched the nice brown coffee machine on. (3) Betty switched the coffee machine she received as a present from her mother at her 25th birthday on. Auf diese Weise gelingt es mit neuronalen Netzen, Strukturen zu repr¨asentieren, bei denen das auftreten eines Bestandteils das sichere Auftreten eines anderen Bestandteils bedingt, und zwar mit beliebigem Abstand zwischen den beiden. Damit sind sie rein stochastische Modelle wie z.B. Markov-Ketten in dieser Hinsicht u ¨berlegen. Im Folgenden sollen nun ausgehend von den hier ¨ skizzierten Uberlegungen anhand von McCulloch-Pitts-Zellen sollen nun noch zwei auch neurophysiologisch plausible Ans¨atze zur neuronalen Modellierung serieller Ordnung vorgestellt werden. 23

Abbildung 13. Netz zur Erkennung der W¨ orter Betty“, switches“ und on“ inner” ” ” halb einer l¨angeren Wortfolge in genau dieser Reihenfolge und mit beliebig langen Unterbrechungen zwischen den W¨ortern

2.3.2 Synfire Chains Der erste Ansatz zielt hierbei nicht prim¨ar auf das Erkennen oder die Repr¨asentation grammatikalischer Ordnung, sondern auf die Speicherung von Phonemfolgen. Seien in Analogie zum motorischen Kortex Neurone gegeben, ¨ der Aktivierung die Außerung verschiedener Laute hervorruft. Der denkbar einfachste Weg, eine Phonemfolge zu speichern w¨are es, die entsprechenden Neurone mit erregenden Synapsen zu verbinden. Wird nun das erste Neuron der Folge aktiviert, pflanzt sich die Aktivit¨at entlang dieser Verbindungen fort und f¨ uhrt dabei zur entsprechenden Laut¨außerung. Allerdings hat man festgestellt, dass die synaptischen Gewichte im Kortex im Regelfall viel zu schwach sind, als dass ein einzelnes Neuron ein anderes erregen k¨onnte. Dazu ist normalerweise die ann¨ahernd gleichzeitige Aktivit¨at zahlreicher Input-Neurone notwendig. Statt dessen w¨are es also plausibler anzunehmen, dass anstelle einzelner Neurone jeweils ganze Neuronengruppen miteinander verbunden sind, wobei alle Neuronen einer Gruppe jeweils synchron von ihrer Vorg¨angergruppe innerhalb der Verbindungskette erregt werden. Diese Form der neuronalen Verschaltung wird als Synfire Chain bezeichnet. Auch experimentell konnten Ph¨anomene beobachtet werden, die sich mit diesem Modell decken. Untersucht wurde die Korrelation zwischen dem Feuerverhalten mehrerer Neurone. Dabei fiel auf, dass ein Neuron besonders h¨aufig dann feuerte, wenn zuvor zwei weitere Neurone in einem ganz bestimmten Zeitabstand gefeuert hatten. Abbildung 14 zeigt eine solche Synfire Chain. Durch Aktivierung aller Neurone der ersten Gruppe entsteht eine Welle synchroner Aktivit¨at innerhalb der Gruppen. Eine nur teilweise Aktivierung hingegen reicht nicht aus, um eine sich fortpflanzende Welle zu erzeugen. In Wirklichkeit sind die Gruppen wahrscheinlich deutlich gr¨oßer und k¨onnten gesch¨atzt ca. 50–100 Neurone enthalten, mit einem Schwellwert jeweils zwischen 5 und 10. Mehrere Synfire Chains k¨onnen sich teilweise u ¨berlappen und kreuzen, ohne dass sich eine Aktivit¨atswelle dabei unkontrolliert in alle Richtungen weiter ausbreitet. Die verdeutlicht Abbildung 15. Aktivierung der Neuronen in der Gruppe links oben ( b“) f¨ uhrt ” zu einer Aktivit¨atswelle, die sich nach rechts unten ausbreitet, nicht aber – ent24

Abbildung 14. Ein Synfire Chain bestehend aus 5 Gruppen von je 3 synchron aktiven Neuronen. Der Schwellenwert der Neurone betr¨ agt 2.

lang der kreuzende Synfire Chain – nach links unten. Dies wird durch den nur ¨ teilweisen Uberlapp der jeweils mittleren Neuronengruppen der beiden Ketten gew¨ahrleistet. Die beiden Neurone in Mitte ganz links und ganz rechts dienen also als Kontextindikator, die bestimmen, in welche Richtung sich die Aktivit¨at ¨ im Uberlapp-Bereich weiter ausbreitet. In der Abbildung ist zudem wieder der Bezug zur Speicherung von Phonemfolgen angedeutet. Jedes Wort w¨ urde nach dieser Vorstellung phonetisch durch eine eigene Synfire Chain repr¨asentiert, die sich mit den Ketten zahlreicher anderer W¨orter u ¨berschneidet und kreuzt. Freilich bedarf dieses Modell noch der Verfeinerung. Die Geschwindigkeit der Welle ist bisher konstant. Wir aber k¨onnen unsere Sprechgeschwindigkeit nach Belieben variieren. Dies ließe sich aber beispielsweise durch die Regulation der unspezifischen Hintergrundaktivit¨at erreichen. Durch starkes Hintergrundrauschen w¨aren die Neuronen schon von vornherein n¨aher an ihrem Schwellwert, so ihre letztendliche Aktivierung schneller von statten ginge als bei schwacher Hintergrundaktivit¨at. Dies k¨onnte auch erkl¨aren, wie es bei hoher Sprechgeschwindigkeit zunehmend zum Nuscheln und Versprechen kommt. Zum einen k¨onnte es geschehen, dass sich die Aktivit¨at schneller durch den motorischen Kortex ausbreitet, als es die Muskulatur umsetzen kann. Zudem steigt durch die hohe Voraktivierung der kreuzenden Synfire Chains die Wahrscheinlichkeit, dass sich die Aktivit¨at entlang eines falschen Pfades, m¨oglicherweise sogar entlang mehrerer Pfade gleichzeitig ausbreitet. Das Synfire-Chain-Modell zur phonetischen Repr¨asentation deckt sich also auch mit psycholinguistischen Beobachtungen. ¨ Dennoch erscheint es unwahrscheinlich, dass sich ein Ahnlicher Ansatz – etwa Synfire Chains zwischen Worten anstelle von Phonemen – auf die Verarbeitung von ganzen S¨atzen u ¨bertragen l¨aßt. Der zeitliche Abstand zwischen der Aktivierung zwei benachbarter Neuronengruppen liegt bei Synfire Chains im Millisekundenbereich, w¨ahrend bei der Verarbeitung von S¨atzen Verz¨ogerungen von einigen Sekunden auftreten k¨onnen, noch dazu von Fall zu Fall variabel. Kritisch ist auch die riesige Anzahl m¨oglicher Wortfolgen und daher der 25

Abbildung 15. Kreuzende Synfire Chains zur phonologischen Repr¨ asentation der englischen W¨orter bat“ und tab“ ” ”

ben¨otigten Synfire Chains. Im Falle von Phonemfolgen liegt die Anzahl der m¨oglichen Nachfolger zwischen 5 und 20, im Falle von Wort jedoch rund 104 . Dies ließe sich Reduzierung durch die Einf¨ uhrung verschiedener Wortkategorien. In diesem Falle ist jedoch unklar, wie eine Synfire Chain die Auswahl zwischen verschiedenen W¨ortern einer Kategorie vornehmen k¨onnte. Und wie k¨onnte ein solches System – egal ob auf der Ebene von W¨ortern oder Wortkategorien – von bereits bekannten auf unbekannte Strukturen generalisieren? Im Folgenden wird ein alternativer Ansatz vorgestellt, der kombiniert mit dem Modell der Functional Webs diese Probleme u ¨berwinden k¨onnte.

2.3.3 Neuronale Sequenzdetektoren Kehren wir in Gedanken noch einmal zur¨ uck zu Abbildung 11A. Pr¨asentation des Beispielsatzes Betty get up“ f¨ uhrte zur Aktivierung der Kardinalzelle g. ” Die Zellen d, e, f dienen hierbei lediglich der Verz¨ogerung der Aktivit¨at der Input-Neurone a und b. Aus neurophysiologischer erscheint allerdings ein anderer Verz¨ogerungsmechanismus wahrscheinlicher. Da die Reizleitung in einer Nervenfaser nur mit begrenzter Geschwindigkeit erfolgt, k¨onnte die Verz¨ogerung allein durch unterschiedlich L¨angen der Verbindungsleitungen erfolgen. Solche Verz¨ogerungsstrecken konnten im Kleinhirn bereits nachgewiesen werden, die auch dort sicherstellen, dass zeitlich genau abgestimmte Sequenzen 26

Abbildung 16. A. Ein Phrasenstruktur-Baum zur syntaktischen Repr¨ asentation des Satzes He comes“. B. Word Webs und Sequenzdetektoren zur Repr¨ asentation syn” taktischer Abh¨angigkeiten

neuronaler Aktivit¨at gleichzeitig an einer Kardinalzelle eintreffen und diese erregen. Dennoch kann auch diese Art von Sequenzdetektor so kaum als Grundlage zur Sprachverarbeitung dienen. Die beobachteten Verz¨ogerungen liegen im Bereich von deutlich unter 1s, w¨ahrend im Fall von Sprache viele Sekunden zwischen den einzelnen Bestandteilen verteilter W¨orter liegen k¨onnen – zudem k¨onnen die Verz¨ogerungen von Fall zu Fall stark schwanken. Einen m¨oglichen Ausweg bietet die Implementierung von Sequenzdetektoren als Funktional Webs anstelle einzelner Kardinalzellen. Dieses Modell wird in Abschnitt 3 im Detail vorgestellt. An dieser Stelle sei nur noch als zus¨atzliche Motivation noch angedeutet, welche Vorteile eine Grammatik basierend auf Sequenzdetektoren gegen¨ uber formalen linguistischen Modellen wie etwa PhrasenstrukturGrammatiken bieten k¨onnte. Ein in der Linguistik g¨angiger Ansatz zur Repr¨asentation syntaktischer Strukturen sind hierarchische B¨aume mit syntaktischen Kategorien als inneren Knoten und den W¨ortern oder Morphemen 10 eines Satzes als Bl¨attern (siehe Abb. 16A). Ein Problem hierbei ist die Modellierung von bestimmten Abh¨angigkeiten zwischen verteilten Satzbestandteilen wie etwa der Kongruenz zwischen Subjekt und Verb-Endung ( He“ und -s“ ” ” im abgebildeten Beispiel). Zur Pr¨ ufung der grammatikalischen Korrektheit eines Satzes m¨ usste zus¨atzlich zum Aufbau eines syntaktisch korrekten Baumes 10

Morphem: kleinste bedeutungstragende Spracheinheit, z.B. ein Wortstamm oder eine Verb-Endung

27

gem¨aß der Phrasenstrukturgrammatik noch derartige Abh¨angigkeiten in einem weiteren Arbeitsschritt u uft werden. Dagegen kommt das Modell in ¨berpr¨ Abbildung 16B basierend auf Sequenzdetektoren mit einem einheitlichen Mechanismus aus. Die Detektoren sind nicht hierarchisch angeordnet: jeder f¨ ur sich erkennt ein Wort-/Morphempaar: Pronomen – Verb, Verb – Verb-Endung sowie Pronomen – Verb-Endung. Speziell letzterer gibt Auskunft u ¨ber die Kongruenz zwischen Subjekt und Pr¨adikat des Satzes. Zusammengenommen vermittelt – so die Behauptung – der Aktivit¨atszustand zahlreicher solcher paarweiser Sequenzdetektoren gen¨ ugend Information u ¨ber die Struktur eines pr¨asentierten Satzes, um seine Bedeutung erschließen zu k¨onnen. Diese Behauptung zu Untermauern ist Sinn des folgenden Abschnitts.

3

Neuronale Grammatik

Bisher haben wir neuronale Ensembles und funktionelle Netze betrachtet. In diesem Kapitel werden zwei neue Begriffe eingef¨ uhrt. (1) Neuronale Sets, die funktionelle Netze mit speziellen Eigenschaften sind. (2) Sequenz Sets sind, neuronale Sets sind, die Sequenzen von W¨ortern repr¨asentieren k¨onnen.

3.1 Erregungszust¨ande von funktionellen Netzen

Ein solches Netz agiert aufgrund der starken internen Verbindungen als eine funktionelle Einheit, d.h. wenn ein angemessener Teil des Netzes durch einen Input erregt wird, f¨ uhrt die Konnektivit¨at dazu, dass alle bzw. ein Großteil der Neuronen aktiviert werden. Diese volle Aktivit¨at bezeichnet man mit Ignition. Diverse Ersch¨opfungseffekte reduzieren danach kontinuierlich die Aktivit¨at, die jedoch nicht ganz ausstirbt. Der Rest der Aktivit¨at, der nicht verloren geht, wird Reverberation genannt. Im Gegensatz zur Ignition ist die Reverberation ein lang anhaltender Prozess innerhalb des funktionellen Netzes, jedoch sind bei weitem nicht so viele Neuronen aktiviert wie bei der Ignition. Zus¨atzlich besteht die M¨oglichkeit, dass sich das Netz in einem inaktiven Ruhezustand befindet. Im Folgenden wird das neuronale Set eingef¨ uhrt und erl¨autert weshalb es ein Spezialfall dieses funktionellen Netzes ist, das drei Zust¨ande besitzt: Ignition, Reverberation und Ruhe. 28

3.2 Neuronale Sets Ein neuronales Set zeichnet sich gegen¨ uber einem funktionellen Netz durch eine gr¨oßere Variabilit¨at der Zust¨ande aus. Aktivit¨at eines neuronalen Sets kann sich in einer Menge solcher Sets u ¨ber externe Verbindungen, die schw¨acher sind als interne Verbindungen, ausbreiten und beeinflusst so benachbarte Sets. Um ein neuronales Set in den Zustand der vollen Aktivit¨at Ignition zu f¨ uhren, ist immer ein externer Input notwendig. Eine solche Aktivierung wirkt sich dann auf andere Sets aus, die dann in den Zustand des Primings gef¨ uhrt werden. Das Priming ist weitaus schw¨acher als Ignition und Reverberation. ¨ Uber die Zeit verringert sich die Aktivit¨at aller Zust¨ande mit exponentieller Geschwindigkeit: A(Si , t) = A(Si , t0 ) ∗ e−c∆t ,

(5)

wobei t0 den Zeitpunkt der externen Aktivierung durch ein anderes Set bzw. durch externen Input, ∆t den Abstand zwischen t0 und t, A(Si , t) die Aktivit¨at von Set Si zu Zeitpunkt t0 und c die Steigung des Abfallens der Aktivit¨at bezeichnet. Inputs anderer Sets, die sich in den Zust¨anden Reverberation bzw. Priming befinden, wirken u ¨ber verschiedene Verbindungen auf das neuronale Set. Es wird angenommen, dass sich die Inputs der anderen im Set summieren. Insofern ist die Aktivit¨at von Si so zu beschreiben: A(Si , t) =

X

A(Sj , t − 1),

(6)

j

wobei A(Sj , t − 1) die Menge der exzitatorischen Stimulation von Set Sj auf Si zum Zeitpunkt t−1 bezeichnet. Die Stimulation erreicht Set Si zum Zeitpunkt t. Falls sich ein Netz bereits im Zustand Reverberation befindet ver¨andert sich die Gleichung nur um einen zus¨atzlichen Term: A(Si , t) = A(Si , t0 ) ∗ e−c∆t +

X

A(Sj , t − 1)

(7)

j

Der Zustand der Ignition wird dann erreicht, wenn die zeitliche bzw. r¨aumliche Summation eine Schwelle θ u ¨bersteigt. Nach einer Ignition I wechselt der Zustand im n¨achsten Zeitschritt zur Reverberation R1 , wobei R1 der st¨arkste 29

Reverberation Zustand ist. Durch den exponentiellen Abfall gibt es theoretisch unendlich viele solche Reverberation Zust¨ande. Kurz gefasst ver¨andern sich die Zust¨ande folgendermaßen: A(Si , t) > θ ⇒ A(Si , t + 1) = I ⇒ A(Si , t + 2) = R1

(8)

Ein neuronales Set kann sich in vier Zust¨anden befinden: AS = {0, P, R, I},

(9)

wobei P und R eigentlich eine Menge von Zust¨anden bezeichnen. Aufgrund des kontinuierlichen Abfalls der Aktivit¨at kann es jeweils unendlich viele Zust¨ande R1 , R2 , ... und P1 , P2 , ... geben. Dies ist jedoch unwahrscheinlich in der Realit¨at, weil das Signal-zu-Rausch Verh¨altnis die Anzahl beschr¨ankt, weswegen wir auch nur eine endliche Menge von Zust¨anden betrachten, die ihrer St¨arke nach sortiert sind, wobei R1 , P1 die st¨arksten Zust¨ande bezeichnen. Weitere Vereinfachungen sind, dass der zeitliche Abfall der Aktivit¨at ignoriert wird und die r¨aumliche und zeitliche Summation der Aktivit¨at vereinfacht wird.

3.3 Schwellwertkontrolle

Um das Aktivit¨atslevel in einem gewissen Rahmen zu halten muss eine Regulation der Schwellwert eingef¨ uhrt werden. Es wird angenommen, dass ein starker Anstieg der Aktivit¨at detektiert werden muss und in Folge darauf der Schwellwert angepasst wird. Die Realisierung ist eigentlich relativ einfach. Der extremste Anstieg der Aktivit¨at ist dann, wenn ein neuronales Set aus dem Ruhezustand in den Zustand Ignition springt. Dies f¨ uhrt dann zu einer globalen Erh¨ohung des Schwellwerts. Diesen Anstieg der Aktivit¨at mit folgender ˆ Die Ignition ohne Schwellwertkontrolle 11 bezeichnen wir mit dem Symbol I. darauf folgende Korrektur wird wie bisher mit I bezeichnet. I tritt dann auf, wenn ein Set aktiviert wird, das sich zuvor schon in einem Zustand der Reverberation bzw. Priming befand. Die globale Inhibition der Aktivit¨at durch die Schwellwertregulierung wird so realisiert, dass alle Sets, die sich in Rn bzw. Pn befinden, in die Zust¨ande Rn+1 bzw. Pn+1 herabgestuft werden.

11

Threshold control

30

Abbildung 17. Detektor f¨ ur die Sequenz alpha – beta

3.4 Sequenzdetektion in Netzwerken von neuronalen Sets An dieser Stelle gen¨ ugt es zu sagen, dass es einen Mechanismus gibt, der zur Detektion von Sequenzen oder seriellen Reihenfolgen 12 herangezogen werden kann. Dieser Mechanismus k¨onnte beispielsweise u ¨ber Verbindungen, die in nur einer Richtung verlaufen, implementiert werden. Da dies jedoch unrealistisch ist und in der Natur nicht so vorkommt, wird im Folgenden von bidirektionalen Verbindungen ausgegangen, die jedoch asymmetrisch sind, d.h. es gibt in eine Richtung sehr starke und in die andere Richtung eher schwache Verbindungen zwischen zwei neuronalen Sets. Eine Unterscheidung zwischen ’starken’ und ’schwachen’ Verbindungen ist selbstverst¨andlich eine weitere Vereinfachung des realen Modells. Die st¨arkeren Verbindungen werden in die Richtung des u ¨blichen Flusses angenommen, d.h. Sets, die W¨orter die oft vor gewissen anderen gesprochen werden, repr¨asentieren, haben starke Verbindungen zu einem Sequenz-Set und dieses wiederum zu den Sets, die h¨aufig danach gesprochene W¨orter repr¨asentieren. Abbildung 17 zeigt ein Netz, das α vor β akzeptiert: Solche starken Verbindungen, wie zwischen α und γ, ließen sich beispielsweise durch Hebb’sches-Lernen trainiert, da durch eine solche Regel Synapsen dann verst¨arkt werden, wenn sowohl pr¨a- als auch postsynaptische Aktivit¨at vorhanden ist. Im Folgenden wird genauer auf ein Beispiel eines Netzwerks aus neuronalen Sets eingegangen und erl¨autert, warum das Netz nur dann einen String akzeptiert, wenn dieser in der korrekten Weise pr¨asentiert wird.

3.5 Sequenzerkennung Es wird im Folgenden angenommen, dass jedes Wort bzw. Morphem im Input sein Wortnetz 13 bzw. neuronales Set aktiviert und als Konsequenz das Set in den Zustand Ignition bringt und daraufhin in den Zustand Reverberation. Reverberation wiederum bringt andere Sets u ¨ber starke Verbindungen in den 12 13

Serial order Word web

31

Zustand Priming. Ignition aktiviert auch u ¨ber schwache Verbindungen sich im Ruhezustand befindliche Sets und bringt sie in den Zustand Priming. Ein Sequenz-Set wird nur dann in den Zustand Ignition gef¨ uhrt, wenn es von einer Ignition eines anderen Sets aktiviert wird und sich zuvor schon in Reverberation bzw. Priming befand. Nun folgt die konkrete Abfolge einer Sequenz (Es wird angenommen, dass die Sequenz AB ein korrekter Satz ist.): (1) Das Wort A aktiviert die Inputeinheit α. (2) Da α im Ruhezustand war, erfolgt eine volle Aktivierung Iˆ und die Schwellwertregulierung wird aktiviert. Diese hat jedoch keinen weiteren Einfluss, da sich kein Set in einem aktivierten Zustand befand außer α. (3) α aktiviert und ’primet’ das verbundene Sequenz-Set γ. γ wird jedoch nicht vollst¨andig aktiviert, da es sich nicht in Priming oder Reverberation befand. (4) α ¨andert seinen Zustand in R1 und ’primet’ so konstant γ u ¨ber die starke Verbindung zwischen den beiden. Da es auch starke Verbindungen von γ zu β gibt, wird auch β von γ ’geprimet’. (5) Nun erscheint B als Input und β wird vollst¨andig aktiviert und ver¨andert seinen Zustand in I, da β zuvor schon im Zustand Priming war. (6) β aktiviert nun mit I den Sequenzdetektor γ, welcher sich nun auch in I befindet. (7) Schlussendlich aktiviert auch γ noch einmal α, was zum Akzeptieren des Satzes f¨ uhrt. Daraufhin ruhen alle Sets wieder. Damit man nicht glaubt, dass das auch bei einem grammatikalisch falschem Satz passiert, wird der Input in BA ge¨andert: (1) Der Input B f¨ uhrt zu Ignition Iˆ von β. Die Schwellwertregulierung hat keinen Effekt. (2) Die Ignition Iˆ von β f¨ uhrt zu einem kurzen Priming in γ. Dieses Priming schwindet jedoch schnell wieder, da nur eine schwache Verbindung zwischen β und γ besteht. (3) β befindet sich in R1 und sowohl α als auch γ sind im Ruhezustand. (4) Es folgt nun A im Input und f¨ uhrt zu Iˆ in α. (5) Die Schwellwertregulierung verringert nun die Aktivierung von β zu R2 . (6) Am Ende der Sequenz befinden sich also alle Sets in unterschiedlichen Zust¨anden: β in R2 , γ in P1 und α in R1 . Insofern wird die Sequenz BA nicht akzeptiert. Zusammenfassend sind drei Dinge notwendig, damit ein String akzeptiert wird: (1) Synchronization - Eine sich durch das Netz fortpflanzende Welle der Ignition ’synchronisiert’ alle beteiligten Sets. (2) Satisfaction - Die Sequenz-Sets, die direkt mit Inputeinheiten verbunden sind befinden sich in R1 . 32

(3) Visibility - Die Inputeinheiten befinden sich in R1 und sind somit ’sichtbar’. 3.6 Lexikale Kategorien in neuronalen Sets Im ersten Kapitel haben wir lexikale Kategorien eingef¨ uhrt um gewisse Abh¨angigkeiten korrekt zu repr¨asentieren und um feiner unterscheiden zu k¨onnen. Ist dies nun wieder notwendig in Bezug auf das Modell mit neuronalen Sets? Im folgenden Abschnitt wird dies diskutiert. 3.6.1 Warum lexikale Kategorien? Nehmen wir nun das Beispielwort aus Kapitel (1) wieder auf: ’switch’ bzw. ’switch ... on’. Der Inputdetektor f¨ ur den Wortstamm ’switch’ ist wie gehabt ein neuronales Set, das reagiert, falls das Wort ’switch’ im Input erscheint. Man br¨auchte danach jedoch unterschiedliche Sequenz-Sets, die auf unterschiedliche nachfolgende W¨orter reagieren. In diesem Beispiel gibt es z.B. einen f¨ ur das Wort ’switch’ als Nomen, welches ein Verb erwartet oder f¨ ur das Wort ’switch’ als transitives Verb, das ein Nomen im Akkusativ erwartet oder auch f¨ ur das Wort ’switch ... on’, das zuerst ein Nomen im Akkusativ und dann sp¨ater den Partikel ’on’ erwartet. Man sieht also, dass es viele Verzweigungen gibt. Wenn man das f¨ ur jedes m¨ogliche Wortpaar oder f¨ ur jede m¨ogliche Wortsequenz machen w¨ urde w¨are die Zahl der Sequenz-Sets astronomisch groß. Ein Weg, dieser Tatsache auszuweichen w¨are, W¨orter, so wie schon bei den formalen Grammatiken vorgeschlagen, in lexikale Kategorien einzuteilen. Wenn man die W¨orter in etwa 100 lexikale Kategorien einteilt, wie z.B. Nomen im Nominativ, Akkusativ oder Dativ und Verben in transitive, intransitive etc., w¨ urde man die Zahl der n¨otigen Sequenz-Sets drastisch senken. 3.6.2 Lexikale Kategorien als Mengen von Sequenz-Sets Wie schon weiter oben beschrieben, wird ein Sequenzmerkmal dadurch repr¨asentiert, dass ein Sequenz-Set zuerst im Zustand Ignition ist und dann im Zustand Reverberation verweilt und so die Information u ¨ber die aufgetretene Sequenz speichert. Eine lexikale Kategorie kann nun als eine Vereinigung von mehreren Sequenz-Sets gesehen werden. Zwei Beispiele hierf¨ ur w¨aren: urde mittels zwei Sequenz-Sets repr¨asentiert (1) Ein Nomen im Nominativ w¨ werden. Das erste erkennt, dass ein Artikel vor dem aktuellen Wort erschien und das zweite, dass ein Verb dem aktuellen Wort folgt. urde ebenfalls zwei Sequenz-Sets ben¨otigen. (2) Ein Nomen im Akkusativ w¨ Das erste steht f¨ ur ein voranstehendes transitives Verb und das zweite 33

Tabelle 1 Ungef¨ahre Anzahl und Gr¨oßenordnung der neuronalen Sets zur Sprachverarbeitung Lingusitisch

Sets

Neuronen

Wort/Morphem

1 Inputeinheit

105 Neuronen

Sequenzmerkmale

1 Sequenz-Set

105 Neuronen

Lexikale Kategorie

< 10 Sequenz-Sets

< 106 Neuronen

Vokabular

105 Inputeinheiten

1010 Neuronen

103 Sequenz-Sets

108 Neuronen

Grammatik

107 Verbindungen zwischen den Sets

f¨ ur einen voranstehenden Artikel. Hierbei ist wichtig zu unterscheiden, dass es Sequenz-Sets gibt, die in die ’Zukunft blicken’ und welche, die sich die ’Vergangenheit merken’. Diese SequenzSets k¨onnen direkt aus den Regeln der Abh¨angigkeitsgrammatiken abgelesen werden.

3.6.3 Lexikale Unterscheidungen durch Sequenz-Sets Um W¨orter, wie ’switch’, eindeutig zu einer lexikalen Kategorie zuordnen zu k¨onnen, ist noch ein zus¨atzlicher Mechanismus notwendig, der die anderen Zuordnungsm¨oglichkeiten unterdr¨ uckt. Es muss gew¨ahrleistet werden, dass das wahrscheinlichste Set, die anderen hemmt und so eine Art ’the-winner-takes-itall’ Selektion entsteht. Dieser Mechanismus k¨onnte beispielsweise so realisiert werden, dass erkannt wird, wessen Sequenzmerkmale vollst¨andig erf¨ ullt werden und so kann entschieden werden, welches Set gewonnen hat gegen¨ uber denen, die nicht alle Merkmale erf¨ ullen. Falls die letzten n¨otigen Sequenz-Sets zweier lexikalen Kategorien gleichzeitig im Zustand Ignition sind, ist die Kategorie, die die meisten aktiven Sets besitzt, der Sieger.

3.6.4 Anforderungen an eine neuronale ’Grammar Machine’ In diesem Abschnitt geht es darum mathematisch abzusch¨atzen, wie viele Sets bzw. Neuronen notwendig sind, um eine Grammatik zu repr¨asentieren. Wie ein vorhergehender Abschnitt zeigte, kann man die Abh¨angigkeitsgrammatiken dazu benutzen, f¨ ur ein Wort die Anzahl der ben¨otigten Sequenz-Sets abzusch¨atzen. In einer Grammatik, wie sie im Englischen u ¨blich ist, ist es nahezu unm¨oglich W¨orter zu finden, die mehr als f¨ unf abh¨angige W¨orter besitzen. Man kann nun ein mehrdeutiges Wort mit f¨ unf m¨oglichen Bedeutungen und jeweils f¨ unf abh¨angigen W¨ortern als Extremfall f¨ ur eine Absch¨atzung annehmen. In diesem Fall w¨ urde die Inputeinheit 25 Verbindungen zu Sequenz-Sets 34

ben¨otigen. Nun kann man ein Vokabular von ca. 100000 W¨ortern annehmen, die durchschnittlich in zwei der 100 lexikalen Kategorien stehen und jeweils f¨ unf Sequenzmerkmale besitzen. Nun wird f¨ ur jedes Wort ein neuronales Set ben¨otigt. Um jede der lexikalen Kategorien zu repr¨asentieren, ben¨otigt man jeweils f¨ unf Sequenz-Sets, also 500. Man ben¨otigt also nur 500 Sequenzdetektoren um eine solche Grammatik repr¨asentieren zu k¨onnen. Man sieht also, dass die Repr¨asentation der 100000 W¨orter weitaus aufw¨andiger ist als die Repr¨asentation der Sequenzen. Wenn man nun noch etwa 100000 Neuronen f¨ ur jedes Set veranschlagt, ergibt das eine maximale Gesamtzahl von 1010 Neuronen, die das Vokabular repr¨asentieren. Eine ’feinere’ Grammatik, die mehrere lexikale Kategorien repr¨asentiert, schl¨agt also gar nicht so stark ins Gewicht, da auch bei 1000 Kategorien nur 5000 Sequenz-Sets ben¨otigt werden. Man sieht also, dass es entscheidend darauf ankommt, wie viele W¨orter repr¨asentiert werden sollen.

Literatur [1] Pulverm¨ uller, P. (2002). The Neuroscience of Language. Cambridge University Press, Cambridge [2] Chomsky, N. (1963). Formal properties of grammars. [3] Bach, E., C. Brown, W. Marslen-Wilson (1986). Crossed and nested deoendencies in German und Dutch; a psycholinguistic study. Language and Cognitive Processes, 1, 249–262. [4] Petri, C. (1970). Kommunikation mit Automaten. Dessertation: Universit¨ at Bonn. [5] Dayan, P., L. P. Abbot (2001). Theoretical Neuroscience. MIT Press, Cambridge, MA [6] Rojas, R. (1993). Theorie der neuronalen Netze. Springer Verlag, Berlin [7] McLeod, P., K. Plunkett, E. T. Rolls (1998). Introduction to Connectionist Modelling of Cognitive Processes. Oxford University Press, New York [8] Penrose, R. (1991). Computerdenken. Spektrum Verlag, Heidelberg [9] Silbernagel, S., A. Depopoulos (2001). Taschenatlas der Physiologie. Thieme Verlag, Stuttgart [10] Schmidt, F., G. Thews, F. Lang (1997). Physiologie des Menschen. Springer Verlag, Berlin [11] Ga¨ıarsa, J.-L. (2004). Plasticity of GABAergic synapses in the neonatal rat hippocampus. J. Cell. Mol. Med. 8(1): 31-37 [12] Miyashita, Y., H. S. Chang (1988). Neural correlate of pictorial short-term memory in the primate temporal cortey. Nature 331: 307-311

35

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF