HDoz. Dr. Christine Römer
Prof. Dr. Peter Gallmann
Friedrich-Schiller-Universität Jena
Das Lexikon in der Generativen Grammatik: Protokolle
Originaltexte (einschließlich Besonderheiten in Grammatik und Rechtschreibung; einzige Anpassungen, sofern nicht besonders angegeben: Vereinheitlichung der Formatierung und Einfügen der HTML-Tags).
27. April 2007
Thema: Standardmodell und Prinzipien-und-Parameter-Modell
Referat: Küfner, Franziska / Kausch, Benjamin
Protokoll: Lückert, Wiebke
-
In diesem Seminar ging es um eine grundsätzliche Annäherung an Noam Chomsky und die von ihm begründete Generative Grammatik. Dazu wurde ein Überblick über seine Biographie und zentralen lingutistische Werke sowie wichtige Phasen der Modell- und Theorieentwicklung gegeben.
-
Franziska Küfner hat in ihrem Referat die Entwicklung der Standardtheorie vorgestellt. Chomskys Ziel war (und ist) der Versuch eine Metasprache zu entwickeln, die es ermöglicht, alle natürlichen Sprachen zu formalisieren und damit eine universell gültige Grammatiktheorie zu entwickeln. Die unterliegende Idee ist, dass mittels limitierter Regeln und Bausteine eine unendliche Menge von Sätzen generiert werden kann, die in dieser Perspektive vorrangig nach Grammatikalitätsaspekten bewertet werden, zum Beispiel auch der – semantisch zumindest herausfordernder - Satz "Colorless green ideas sleep furiously". Die sprachlichen Bausteine waren die bis heute gängigen Bezeichnungen, wie A, NP, VP, PP. Als wesentliche theoretische Stationen auf dem Weg zum sogenannten Standardmodell gelten die Vorstellung von einem Automat, im Sinne eines Sprachgenerators, das einfache Phrasenstruktur- und das Transformationsmodell. Im Standardmodell wird davon ausgegangen, dass auf syntaktischer Ebene die Tiefenstruktur auf der Grundlage von Phrasenstrukturregeln generiert wird. Diese Grundstruktur der Sätze kann transformiert werden (z.B.: beim Passiv) und so eine andere Oberflächenstruktur hervorbringen. An diesen Prozess angebunden sind sowohl Laut- als auch Bedeutungskomponenten.
-
B. Kausch hat in seinem Referat dargestellt, wie dieses Modell von C. zur Prinzipien-und-Parametertheorie weiterentwickelt wurde, weil die Beobachtungs-, Beschreibungs- und Erklärungsadäquatheit mit dem Standardmodell nicht hinreichend gegeben war. Fragen, die sich rund um den Erwerb der Sprache stellten, konnten nicht anders beantwortet werden, als mit der Annahme, dass es angeborene Prinzipien in Form einer Univeralgrammatik in der menschlichen Kognition gibt, die dann einzelsprachlich durch unterschiedlichen Input parametrisiert werden. Aus diesem und mittels der Phrasenstrukturregeln generiert sich die D-Struktur. Durch die Bewegung von Phrasen (Move-Alpha) entsteht die S-Struktur. Als Schnittstellen zwischen dieser Struktur und dem tatsächlichen Output sieht C. sowohl phonetische, als auch semantische Regeln. Die verschiedenen Prinzipien stellt B. Kausch ausführlich und gut nachlesbar dar.
-
Bemerkenswert erscheint mir die Leistung C.s, ein Grammatikmodell entwickelt zu haben, das weit über bloße Erklärung und Darstellung von grammatischen Strukturen hinausgeht. Es handelt sich um ein sprachtheoretisch anspruchsvolles Modell, das innerhalb der Linguistik für einen Paradigmenwechsel gesorgt hat.
4. Mai 2007
Thema: Das minimalistische Konzept
Referat: Neudeck, Anna-Karina
Protokoll: Bonitz, Petra-Kristin
-
Das Referat von Anna-Karina Neudeck gab einen eindrücklichen Einblick in den sprachwissenschaftlichen Minimalismus.
-
Eine kurze Einleitung bildete den Einstieg in das Thema und schuf einen Rahmen zu der letzten Sitzung, in der es um das Standardmodell und das Prinzipien-und-Parameter-Modell von Noam Chomsky ging. In der Einleitung wurden nochmals wichtige Aspekte der Universalgrammatik genannt, dessen Existenz im Folgenden durch den Erstspracherwerb bei Kindern belegt wurde. Hierbei ist signifikant, dass das unbewusste Spracherlernen von einer immensen Schnelligkeit geprägt ist. Es wurde genauer von einigen Seminarteilnehmern hinterfragt, wie sich die Annahme erhärten ließe, dass Kinder keine bedeutenden Fehler machen, obwohl es doch offensichtlich die "fruchtbaren Fehler" gibt. Es stellte sich heraus, dass diese Fehler auf der Wortbildungsebene auftreten, nicht aber auf der syntaktischen, so dass einige Fehler, die man bei Fremdsprachenlernern beobachten kann, nicht bei Kindern auftreten.
-
Anschließend wurden die Hauptfragen der Generativen Linguistik erläutert und ein kurzer geschichtlicher Abriss der Erklärungsversuche gegeben, wodurch wir wieder auf das Prinzipien-und-Parameter-Modell stießen. Zwei Beispielsätze von Andrew Radford demonstrierten bestehende bzw. fehlende Grammatikalität im Englischen. So muss das Wort how in dem Satz How do you think [that John said [that Bill fixed the car.] ]? über mehrere Ebenen verschoben werden; eine grammatische Erklärung kann hier also gegeben werden im Gegensatz zu dem Satz How do you wonder [why John asked [which car Bill fixed ] ]?, in dem diese Bewegungen von how nicht möglich sind, da die Spezifiziererpositionen durch schon vorhandene Phrasen blockiert werden.
-
Es wurde geschildert, wie der von Chomsky geprägte Minimalismus versucht, einfachere und sparsamere Erklärungen zu postulieren, was eine Weiterentwicklung der Grammatiktheorie zur Folge hatte. Das Y-Modell bildet hierbei die Grundlage. Die Dozenten erläuterten den Seminarteilnehmern unklare Einzelheiten. So wurden die Konzepte "merge", "move" und "spell-out" differenziert betrachtet und dabei Unterschiede zum T-Modell aufgezeigt, so zum Beispiel, dass es bei dem Y-Modell zu einer Interaktion zwischen "merge" und "move" kommen kann. Ein wichtiger Punkt ist außerdem, dass man nun keine direkte Unterteilung mehr von Tiefen- und Oberflächenstruktur vornimmt, um das System zu vereinfachen.
-
Die Ökonomiebedingungen und -kriterien wurden präsentiert, die genau die Sparsamkeit und Reduktion von zuviel Komplexität von Grammatik verkörpern. Sprache ist von einem ökonomischen Prinzip geprägt und vermeidet redundante Elemente, wodurch sie eine bestmögliche Effizienz aufweist, genau dieses Phänomen berücksichtigt das minimalistische Prinzip. Es wurde die Ökonomie der Repräsentation und der Derivation unterschieden, wobei der Terminus Derivation nicht im morphologischen Gebrauch verwendet wird sondern hierbei die Ableitung von Sätzen benennt.
-
Zum Schluss wurden Eigenschaften von Sprachen nach dem minimalistischen Programm vorgestellt, welche von jeder Grammatiktheorie erklärt werden müssen.
11. Mai 2007
Thema: Optimalitätstheorie und Generative Grammatik
Referat: Winkler, Doreen / König, Carolin
Protokoll: Knopp, Franziska
-
Grammatiken sind Regelsysteme, von denen man laut der Standardtheorie von Chomsky annimmt, dass deren Regeln nicht verletzbar und nicht gewichtet sind. Die Optimalitätstheorie ist eine Theorie über Beschränkungskonflikte und ihre Auflösung durch Beschränkungsordnung bzw. -gewichtung.
-
Am Beispiel der Straßenverkehrsordnung soll die Optimalitätstheorie erläutert werden, um sie dann später auf die Syntax anwenden zu können. Die Straßenverkehrsordnung ist ebenfalls ein System von verletzbaren und gewichteten Regeln und jede Verkehrssituation hält mehrere Lösungsstrategien bereit. Treffen zum Beispiel mehrere Verkehrsteilnehmer gleichzeitig an einer Kreuzung ein, so entscheidet die Hierarchie der verletzbaren und gewichteten Regeln, welche Handlung optimal ist. Dabei ist darauf hinzuweisen, dass die Verkehrsteilnehmer Regeln verletzen können und gleichzeitig optimal sind, sobald andere Fahrer wichtigere Regeln missachten – das Kriterium "Qualität geht vor Quantität" tritt hier ein. Die zentralen Annahmen der Optimalitätstheorie (Universalität, Verletzbarkeit, Geordnetheit und Wettbewerb) widersprechen den üblichen Grundannahmen der Standardtheorien. Eine weitere Unterscheidung ergibt sich auch in Hinblick auf den Grammatikalitätsbegriff. Die Standardversion der Optimalitätstheorie besagt, dass ein optimaler Kandidat aus der Kandidatenmenge grammatisch ist, alle anderen nicht optimalen Kandidaten sind ungrammatisch. Die Standardtheorien hingegen sind charakterisiert durch Regel-Ausnahme-Systeme.
-
Die Beispiele aus der STVO werden nun auf die Syntax übertragen. In Mehrfachfragesätzen treten drei hierarisch geordnete Beschränkungen auf: PUR-EP (Reinheit der erweiterten Projektion, heißt, genau ein Spezifikator und genau eine Bewegung), W-KRIT und ÖKON. Die ranghöchste Beschränkung PUR-EP besagt, dass maximal eine W-Phrase im Vorfeld stehen darf. Nach dem W-Kriterium wird in der Syntax eine Bewegung aller W-Phrasen verlangt und die rangniedrigste Beschränkung ÖKON hingegen verbietet die Bewegung von W-Phrasen aufgrund des Mehraufwandes. Ähnlich verhält es sich beim Ersatzinfinitiv im Deutschen, der bei bestimmten Verben statt des Partizips auftritt, wenn dem Partizip eine Infinitivkonstruktion vorausgeht. In diesem Fall treten die zwei Beschränkungen, *GE-MV (*ge-Modalverben, die nicht die Form eines Partizips haben können) und PROJ-P (Projektionsprinzip) auf, wobei GE-MV die höhere Beschränkung von beiden ist. Bei dem Projektionsprinzip muss die Valenz syntaktisch realisiert werden, in unserem Fall verlangt das Hilfsverb das Partizip II. Abschließend wurden Probleme aufgedeckt, die bei der Anwendung der Optimalitätstheorie auftreten können. Laut der Optimalitätstheorie gibt es immer nur einen optimalen Kandidaten, manchmal treten aber zwei richtige auf, die sich in ihrer Verletzung gegen die vorliegenden Beschränkungen nicht überbieten. Andererseits gibt es die verschiedenen Grammatikalitätsgrade, sodass manche Sätze vollkommen falsch sind und andere nur in gewissem Maße nicht korrekt sind. Die Optimalitätstheorie aber wählt nur einen Gewinner (einen optimalen Kandidaten) aus, wobei es aber auch sein kann, dass keiner der Kandidaten der optimale wäre.
18. Mai 2007
Thema: Die Stellung des Lexikons in älteren Theorievarianten der Generativen Grammatik
Referat: Mildner, Anja / Dielenhein, Iris
Protokoll: Hopf, Daniela
-
Die Sitzung gab einen Überblick über die Stellung des Lexikons in älteren Theorien, angefangen bei Ferdinand Saussure, der die Untrennbarkeit von Morphologie und Syntax sowie die Nichtausschließbarkeit der Lexikologie aus der Grammatik festhielt.
-
Nach dem Strukturalisten Bloomfield ist das Lexikon eine Sammlung von Unregelmäßigkeiten, welches eine Liste von Morphemen darstellt, die wichtiger als die eigentlichen Wörter sind und die elementaren Bausteine einer Sprache darstellen. Das Strukturalistische Lexikon lässt keine "Theorie des Lexikons" zu, da es ihm an innerer Organisation mangelt.
-
Für das Lexikon in der Transformationellen GG nach Chomsky sind die drei Aspekte Grammatik, Morphologie sowie die Anfangsphase grammatikalischer Derivationen vom "Syntactic Structures"-Model wichtig. Komplexe Wörter werden hier als Verkettung von Morphemen angesehen und folgen so dem gleichen transformationellen Erzeugungsmechanismus wie Sätze. Syntaktische OS sind auf gemeinsame, einheitliche semantische TS zurückführbar. Deutsche deverbale -ung-Substantive werden beispielsweise durch die Transformationsregel (Verbstamm(Stamm Morphem)+Suffix = Substantiv) hergeleitet. Dies lässt unter anderem Wortverwandtschaften deutlich werden, hat aber auch diverse Nachteile. So lässt sich festhalten, dass sich nicht von allen Verben -ung-Ableitungen bilden lassen.
-
Nach Chomskys Standardtheorie beinhaltet die Basis der Grammatik das Lexikon als ungeordnete Liste lexikalischer Formen. Die lexikalische Position besagt, dass komplexe Wörter nicht mehr in einem unbestimmten Teil der Basis abgehandelt werden, sondern direkt im Lexikon. Wie die Seminarleiterin herausstellt, unterscheidet sich das Standardmodell hier vom T-Modell, in dem das Lexikon nun eine autonome Komponente (außerhalb der Syntax) darstellt. Die Hauptthese ist, dass eine Substantivgruppe wie Annas Wunsch nach einem Pferd nicht transformell aus dem Satz Anna wünscht sich ein Pferd hergeleitet wird. Das Lexikon ist nun in der Lage aus kleinen linguistischen Einheiten komplexe Einheiten zu generieren. Das Generative Modell besagt weiterhin, dass die Grammatik auf die TS wirkt. Es treten jedoch auch hier Probleme auf, die man mit Regeln wie der Redundanzregel von Radfort lösen kann. Diese besagt, dass man aus Verben mit dem Suffix -ung Substantive bilden kann. Des weiteren geht man von einem mit Wortbildungssuffixen erweiterbarem Grundlexembestand aus, wobei dies nicht auf alle Worte (sehen → *Sehung) zutrifft. Gibt es ein anderes Wort mit ähnlicher Bedeutung (im Falle von *Sehung: Sichtung) funktionieren die Regeln meist nicht. Ausnahmen müssen dann im Lexikon markiert werden.
-
Das Lexikon bei Aronoff beinhaltet Wortbildungsregeln und eine explizite Beschreibung irregulärer Komponenten eines Wortes.
-
Das Lexikon in Selkirks wortsyntaktischer Annäherung besteht aus einem Lexikon im strukturalistischen Sinne und aus einer Komponente, die Wortstrukturen generiert.
-
Im Lexikon nach Höhle sind keine wortspezifischen Bildungsregeln zu finden.
-
Das Lexikon im Prinzipien- und Parametermodell nimmt Einfluss auf die D-Struktur und gibt den Wörtern ihre relevanten syntaktischen Eigenschaften.
-
Im Lexikon bei der Lexikalischen Phonologie nimmt man einen postlexikalischen Teil der Phonologie an. Regeln der Morphologie und Phonologie gelten als über das ganze Lexikon verteilt.
25. Mai 2007
Thema: Die Stellung des Lexikons in neueren Theorievarianten der Generativen Grammatik
Referat: Beck, Benjamin / Vogel, Varinia
Protokoll: Vogler, Kathrin
-
Während die vorangegangene Sitzung einen Überblick über die Stellung des Lexikons in älteren Theorievarianten der GG vermittelte, standen nun die neueren Theorievarianten im Mittelpunkt. Die Klärung der Grundfragen (die auch in den folgenden Sitzungen von Bedeutung sein werden), was das Lexikon umfasst und wie auf das Lexikon Zugriff genommen wird, spiegelten sich auch in der Zweiteilung des Themas wider. In einem ersten Teil behandelte der Referent die Stellung des Lexikons in neueren Theorievarianten, um zu zeigen, wie viel Information aus dem Lexikon oder aus der Syntax benötigt wird, um Phrasenstrukturen aufbauen zu können. In einem zweiten Teil rückte die Referentin das Lexikon in der distribuierten Morphologie in den Mittelpunkt, um nachzuweisen, dass ein zweimaliger Zugriff auf das Lexikon denkbar ist.
-
Die Stellung des Lexikons in neueren Theorievarianten der GG betrachtend, wies der Referent nach, dass die X-bar Theorie das Lexikon vom Sprachverarbeitungssystem trennt. Da die von den Phrasenstrukturregeln vorgezeichneten Bestimmungen bereits dem Lexikon inhärent sind, werden die Phrasenstrukturregeln aufgrund der Eigenschaften lexikalischer Einheiten reduziert.
-
Des Weiteren zeigte sich, dass bei der Interpretation lexikalischer Einträge nach dem minimalistischen Programm lediglich die Output-Bedingungen "sichtbare" Einträge im Verarbeitungssystem beschreiben, für Berechnungen daher nur die minimalen bzw. bei großen Einheiten die maximalen Ableitungen (Xmin/max) von Interesse sind, es folglich keiner Zwischenschritte mehr bedarf. Der Dozent erklärte, dass laut Chomskys Forschungshypothese bei den Phrasenstrukturen Automatismen beim Übergang zur logischen Form zu finden sind und daher ganze Phrasen verarbeitet werden können.
-
Das Konzept Merge (Substitution) rückt die bei der Entstehung einer sprachlichen Äußerung zu vollziehenden mentalen Derivationsprozesse des Lexikons in den Mittelpunkt: select bezeichnet die Auswahl lexikalischer Elemente aus einer Numeration, bspw. der (D) und Mann (N), und merge die Verknüpfung dieser Elemente zu einer größeren Einheit, bspw. der Mann (DP), die in die Numeration zurückfließt. Beim Labelling wird vermutet, dass der Typ dieser neu entstandenen Kategorie sofort bei deren Bildung von einem Label als Träger der Information angezeigt wird, wobei entweder das eine oder das andere Element bestimmend ist. Die Auffassung von Kategorien als elementare Konstruktionen von Eigenschaften ihrer lexikalischen Einheiten bedingt, dass die "Bare-Levels" keinen eigenständigen Wert mehr innehaben und die "Bare-Phrase-Stucture" folglich nur die relevanten lexikalischen Eigenschaften und davon abgeleitete Repräsentationen aufzeigt.
-
Zusammenfassend verdeutlichte der Dozent den radikalen Wechsel in der Theorie, wird die Universalgrammatik doch auf das Wesentliche beschränkt und dem einzelsprachlichen Anteil eine große Bedeutung beigemessen.
-
Im zweiten Teil des Seminars zum Lexikon in der distribuierten Morphologie erklärte die Referentin anhand der deutschen Verbflexion die Grundannahme Müllers von einem zweimaligen Lexikonzugriff. Die als Flexionsmarker benannten gleichlautenden Endungen in den Tabellen der Verbreflexion, wie bspw. te, s, n, t, e, realisieren als lexikalische Elemente vorhandene Merkmale, ohne jedoch neue morpho-syntaktische Eigenschaften beizutragen. Synkretismen, also übereinstimmende Endungen, finden sich dabei bspw. bei der 1./3.Pers.Sg.Prät. oder bei der 2.Pers.Sg.Präs. und 3.Pers.Sg.Präs. und lassen sich anhand der zentralen Operationen Verarmung und Spaltung ableiten. Zu diesem Zweck werden die Person-Merkmale 1, 2 und 3 in [+1,-2], [-1,+2] sowie [-1,-2] kodiert. Die Verarmung, die – wie auch die Spaltung – nach der Syntax aber noch vor der morphologischen Einsetzung auf die abstrakten Morpheme (z.B. I, v) angewendet wird, führt durch die Tilgung morphosyntaktischer Merkmale zu einer Unterspezifikation, bspw. ergibt das Tilgen von +/–1 die natürliche Klasse [-2] der 1. und 3.Pers., so dass durch die komplette Übereinstimmung der Merkmale eine gleichlautende Endung einzusetzen ist. Bei der Spaltung treten mindestens zwei Flexionsmarker auf, die verschiedene Merkmale des abstrakten Morphems realisieren, bspw. bei glaub-s-t mit s [+2,-pl] und t [-1]; die gleichen Endungen werden hier auf die Flexionsmarker zurückgeführt.
-
Neben dem Rückgriff auf das Lexikon zum Aufbau der Phrasenstruktur werden gemäß der distribuierenden Morphologie die I-Merkmale des Verbs durch Flexionsmarker aus dem Lexikon realisiert, was einen zweiten Zugriff auf das Lexikon bedeutet.
1. Juni 2007
Thema: Zum Verhältnis von Lexikon und Morphologie
Referat: HDoz. Dr. Christine Römer
Protokoll: Dürr, Suzanne
-
Thema der Sitzung war das Verhältnis von Lexikon und Morphologie. Zunächst galt es dieses in der Betrachtung verschiedener Grammatikauffassungen von de Saussure über Morris bis hin zum Mehrebenen-Modell aufzuzeigen. De Saussure, der als Begründer des Strukturalismus gekennzeichnet werden kann, hat durch die Unterscheidung eines inneren und eines äußeren Bezirks der Sprachwissenschaft das Paradigma der Junggrammatiker überwunden. Zur Verdeutlichung führt de Saussure als Analogie das Schachspiel an: Während z.B. das Material oder die Herkunft der Figuren äußerlich, und somit unwesentlich ist, ist eine Beherrschung des Spiels nur möglich, wenn der Wert der Figuren und die Regeln bekannt sind. Nach de Saussure ist die langue als das Sprachsystem der zentrale Kern der Linguistik. Darüber hinaus unterscheidet er eine statische von einer historischen Betrachtungsweise der Sprache. Unter einer statischen Perspektive versteht er hierbei die Beschreibung des Sprachsystems zu einem bestimmten Zeitpunkt, welche als Gegenstand der Grammatik angesehen werden muss. Chomsky hat ein anderes Verständnis des Begriffs statisch, wenn er demgegenüber eine dynamische Linguistik fordert. Traditionell gliedert man die Grammatik in Formenlehre und Syntax. Diese Sichtweise wird von de Saussure kritisiert, wenn er eine Durchdringung von Formenlehre, Syntax und Lexikologie postuliert. De Saussure ordnet das Lexikon der Grammatik zu. Diese Zuordnung kann nach Christine Römer als berechtigt betrachtet werden, insofern z.B. die Aktionsarten von Verben sowohl grammatisch als auch lexikalisch ausgedrückt werden können. Die Annahme eines eigenständigen Lexikons verbindet nun de Saussures Auffassung mit Chomskys Y-Modell.
-
De Saussure gilt auch als Begründer der Semiotik. Morris hat seine Konzeption weitergeführt. Während für de Saussure aber die Beziehung der Zeichen entscheidend ist, weil sich der Wert eines Zeichens aus den Relationen ergibt, in denen es steht, geht Morris vom Zeichen selbst aus und unterscheidet hierbei eine syntaktische, eine semantische und eine pragmatische Dimension. Morris' Konzeption weicht nun auch von de Saussures ab, da er die Morphologie der Syntax zurechnet und das Lexikon als auf die verschiedenen Zeichendimensionen verteilt ansieht. Das Mehrebenen-Modell, wie es z.B. von Heidolph, Flämig und Motsch vertreten wird, überträgt de Saussures Opposition von Formativ und Bedeutung eines Zeichens auf den Satz. Als modulares Modell geht es von einer pragmatischen Ebene aus, die alle anderen Ebenen umfasst. Das Lexikon fehlt im Mehrebenen-Modell, da angenommen wird, dass die Grammatik das Sprachsystem ausreichend beschreibt.
-
Helbig unterscheidet nun eine enge und eine weite Grammatikauffassung. Während in der engen Auffassung Grammatik als Beschreibung der morphologischen und syntaktischen Regularitäten einer Sprache betrachtet wird, wobei Lexikologie, Phonetik/ Phonologie und Semantik ausgeschlossen werden, versteht die weite Auffassung Grammatik als Abbildung des gesamten Sprachsystems. Die Semantik kann aber nicht von der Grammatik ausgeschlossen werden, da es auch eine grammatische Bedeutung gibt. Der Fall der Betonung von Partikelverben zeigt außerdem, dass auch einem Ausschluss von Phonetik/ Phonologie nicht zugestimmt werden kann. Die weite Grammatikauffassung kann nun mit holistischen Modellen korrespondieren, die eine Untrennbarkeit der kognitiven Wissensmodule behaupten, weil diese interagieren. Eine Beschreibung der Verbindung der einzelnen Module ist jedoch erst möglich, wenn diese zuvor in ihrer Verschiedenheit analysiert werden. Deshalb sind den holistischen Modellen modulare vorzuziehen. Diese gehen von getrennten Modulen aus, um dann deren Interaktion aufzuzeigen. Chomsky vertritt gegenüber Piaget eine modulare Auffassung bezüglich des Spracherwerbs, wenn er die Autonomie der Sprachfähigkeit betont. Hierbei muss Chomskys Position als zutreffend gekennzeichnet werden, da sie durch empirische Untersuchungen untermauert ist.
-
Weiterhin gibt es auch verschiedene Auffassungen, ob das Objekt der Morphologie das Wort oder das Morphem ist. Nach Christine Römer muss das grammatische Wort als Gegenstand der Morphologie angesehen werden. Traditionell werden als Teildisziplinen der Morphologie Wortbildungs- und Flexionslehre angenommen. Bei Spencer und Zwicky (2001) findet sich ein weiteres Verständnis: Sie verorten die Morphologie im Zentrum der Linguistik, da das Wort als zentrale Kategorie eine Verbindung zu Phonologie, Syntax und Semantik herstellt. Römer schließt sich dieser Sichtweise an, wenn sie als Teildisziplinen der Morphologie Morphologie im engeren Sinne, Morphophonologie, Morphosyntax, Morphosemantik und Morphographie anführt. Während nach Römer die Morphologie die grammatischen Worteigenschaften untersucht, betrachtet die Lexikologie das Wort umfassend.
8. Juni 2007
Thema: Die Organisation der Lexikoneinträge (lexical entries)
Referat: Krauß, Stephanie
Protokoll: Küfner, Franziska
-
In ihrem Referat befasste sich Frau Krauß mit dem Thema über die im Langzeitgedächtnis gespeicherten Lexikoneinträge. Dabei ging es vorrangig um deren Aufbau und ihre Beziehung untereinander.
-
Das Lexikon repräsentiert in Form einer Wortliste die vollständig spezifizierten syntaktischen Wörter und bildet dabei deren Form und alle grammatisch relevanten Merkmale ab. Alles lexikalische Wissen einer einzelnen Einheit, das ein Muttersprachler erlernen muss, wird hier abgebildet. Das sogenannte Bildungsmodul, das aus bestehenden Wörtern neue bilden kann, und bestimmte Bildungsprinzipien, die für die Wortneubildung verantwortlich sind, zählen unteranderem zu der Lexikonkomponente.
-
In der Generativen Grammatik vertritt man hinsichtlich der Frage nach dem Inhalt der in der Wortliste aufgeführten Einheiten einen empirisch-psycholinguistischen Standpunkt, der besagt, dass nur stark frequentierte Wörter fest im Lexikon gespeichert sind. Weniger häufig genutzte Wörter werden mit Hilfe der Bildungsregeln stets neu gebildet. Eine andere Theorie besagt dagegen, dass es genüge, würde die Liste nur die Grundbestandteile der Wörter einer Sprache enthalten.
-
Ein einzelner Eintrag im Lexikon besteht aus den allgemeinen lexikalischen Prinzipien, die die phonetischen (Phonemkette, Wortakzent), graphischen (Graphemkette, Groß-/Kleinschreibung) sowie die semantischen Eigenschaften eines Elements festhalten. Desweiteren werden hier auch Angaben zur Wortart und zu den morphosyntaktischen Merkmalen des Wortes wiedergegeben. Bei der letzten Komponente eines Eintrags handelt es sich um die sogenannte Selektion, die Eigenschaft vieler Wörter, eine Anzahl von Wörtern mit bestimmten Eigenschaften um sich her zu verlangen (z.B. das Theta-Raster des Verbs: hierbei werden die einzelnen von einem Verb geforderten Argumente und deren Spezifikation aufgelistet.)
-
Für die morphosyntaktischen Merkmale genügt es, nur Besonderheiten eines Eintrags festzuhalten, wohingegen die Normalfälle (default) nicht mehr aufgeführt werden müssen. So ist es nicht notwendig, in dem Eintrag eines Verbs den Infinitiv als Defaultfall anzuführen, dafür aber die Einordnung der starken Verben in die einzelnen Klassen, da als Normalfall die schwachen Verben angenommen werden. Auch haben sich die Linguisten darauf geeinigt, dass der Akkusativ als Kasus des 2. Arguments nicht mehr vorgemerkt werden müsse, weil es sich dabei um einen strukturellen Kasus handelt. Zur Charakteristik der einzelnen Elemente werden im Lexikoneintrag ebenfalls die morphosyntaktischen Merkmale, der Kern der Nominalphrase, die thematische Rolle (Agens, Patiens, Richtung) und ihre Position gespeichert.
-
In der Generativen Grammatik klassifiziert man die Wortarten in Nomen, Adjektiv, Verb und Partikel, daneben gibt es weitere Wortkategorien, die mit den Hauptwortarten kombiniert auftreten können.
-
Zur Diskussion kam es unter den Seminarteilnehmern, als man eine Lösung zur Darstellung der spezifischen Eigenschaften von Reflexivverben im Lexikoneintrag suchte. Herr Prof. Gallmann stellte dabei noch einmal klar, dass in einem Eintrag nur nicht vorhersagbare Elemente aufgeführt werden sollten. So wird das Pronomen sich im Beispiel von sich irren als inhaltsleer definiert und nur in der phonetischen und graphemischen Form repräsentiert. Bei anderen Reflexiven, wie bei sich kämmen, handelt es sich bei dem Reflexivpronomen um ein sogenanntes expletives Objekt und wird im Selektionsrahmen als 2. Argument gehandhabt. Anstatt des Kerns der Nominalphrase schreibt man hier das Pronomen als solches in die Charakteristik.
-
Den zweiten thematischen Schwerpunkt des Referates von Frau Krauß bildeten zwei Theorien über die Beziehungen der Lexikoneinträge zueinander. Dabei wurde zwischen der Impoverished Entry Theory und der Full Entry Theory anhand des Beispiels des Verhältnisses der Wörter decision und decide unterschieden. Die erstere besagt, dass ein voll spezifizierter Eintrag zu decide existent ist, derjenige zu decision dagegen nicht vorhanden. Ein vollständiger Lexikoneintrag enthält eine entry number, eine phonological representation, syntactic features und eine semantische Repräsentation.
-
Durch die sogenannte Redundanzregel ("a lexical entry x having such-and-such properties is related to a lexical entry w having such-and-such properties"; Jackendoff, R. 1975, S. 642) stehen die beiden Einheiten decision und decide in einem Abhängigkeitsverhältnis zu einander. decision enthält dann im Lexikon einen reduzierten Eintrag bestehend aus einem Verweis auf das Verb (entry number) und einem Hinweis auf die Redundanzregel.
-
In der Full Entry Theory verfügen beide Wörter über einen vollständigen Eintrag im Lexikon, d. h. dass keine Vernetzung der beiden Elemente angegeben wird und der Sprecher hierbei zwei Einzeleinträge und deren Verknüpfung erlernen. Die Redundanzregel spielt also keine Rolle bei der Ableitung von Sätzen.
-
Am Ende des Vortrags kam die Referentin auf die Rolle des Lexikons bei der Laut-Bedeutungs-Zuordnung zu sprechen und wies hierbei auf die von Ilse Zimmermann vorgestellten lexikalischen Informationen von Wörtern hin.
15. Juni 2007
Thema: Die Regeln im Lexikon
Referat: Leiding, Stefanie / Rosenbaum, Betty
Protokoll: Palme, Maria
-
Die beiden Referentinnen, Stefanie Leiding und Betty Rosenbaum, beschäftigten sich in ihrem Referat zum einen mit den Einträgen im mentalen Lexikon, den Wörtern und Regeln, und wiesen zum anderen Abhängigkeiten und Unterschiede in der Anatomie der Sprache nach.
-
Pinker geht von der Annahme aus, dass die unendliche Bibliothek nach 2 Tricks – Wörter und Regeln – funktioniert, die auf unterschiedliche Weise gelernt bzw. verwendet werden können und in unterschiedlichen Bereichen des Gehirns angesiedelt sind. Dabei beruht das Wort auf einer im Gedächtnis gespeicherten willkürlichen Paarung von Lautung und Bedeutung (Saussure: beliebiges Zeichen), die per Konventionen miteinander verknüpft sind und ihre Funktion dahingehend erfüllt, da Sprecher und Hörer auf identische Einträge (z.B. bekannte Personen, Orte, Objekte und Handlungen) ihres mentalen Lexikons zurückgreifen können. Die Bedeutung eines Wortes stellt hierbei die Verbindung zu einem Eintrag in der mentalen Enzyklopädie der Person dar. Wie Jackendorff so geht auch Pinker davon aus, dass neben der Buchstabenfolge wie z.B. im Wort <R-o-s-e>, ebenso die Lautung […], die symbolische Bedeutung sowie die Wortart oder grammatische Kategorie Nomen (N) im mentalen Gehirn abgespeichert sind. Die Leistungsfähigkeit dieses Zeichenprinzips spiegelt sich in der Statistik wieder. Ein durchschnittlicher Erwachsener versteht passiv bis zu ca. 1.000.000 Wörter; die Bedeutung eines gesprochenen Wortes wird binnen einer Fünftelsekunde, das geschriebene in ca. einer Achtelsekunde erfasst.
-
Die Grammatik der Regeln bezieht sich auf neuartige Relationen zwischen Dingen und wird von einem Mechanismus gesteuert, der Sequenzen von Symbolen kombiniert und analysiert. Die Regeln hat 4 Merkmale: Sie sind erstens produktiv, d.h. es wird eine Kette von Arten von Wörtern spezifiziert. Zweitens sind die in den Regeln enthaltenen Angaben symbolischer Art (abstrakt), so kann z.B. eine Nominalphrase (NP) als Symbol oder Variable durch ein beliebiges Nomen (N) ersetzt werden. Drittens sind sie kombinatorisch, so lässt sich für jede Position im Satz eine lange Liste von Wörtern einfügen. Zum Beispiel kommen bei der Annahme von vier Determinierern (der/dieser/jeder/einer) und 10.000 Nomen bereits 40.000 Möglichkeiten zustande eine NP zu äußern. Viertens sind sie rekursiv, d.h. mehrere NPs können ineinander geschachtelt werden. Die Anzahl der Schachtelung unterläge Gallmann nach allein der Beschränkung des Kurzzeitgedächtnisses.
-
Pinker belegt seine Annahme, bei der Wörter und Regeln nach zwei unterschiedlichen Prinzipien funktionieren anhand der Untersuchung der Präteritumsbildung von regular und irregular verbs. Reguläre Verben bilden eine offene Liste mit folgender Regel im Englischen: Präteritum = Verbstamm + Suffix <ed> (z.B. walked, played). Die These, nach der die Präteritumsbildung einem automatisierten regelbildenden Mechanismus unterliegt und daher die Präteritumsformen von der Lautung her vorhersagbar sind und sie unbeschränkt erzeugt werden können, lehnt sich stark an Chomskys Theorie des automatisierten Spracherwerbs an. Im Kontrast zu den auf diesen Regeln basierenden regulären Verben werden die auf 150 bis 180 beschränkten irregulären Verben ideosynkratisch gebildet und mechanisch abgerufen; sie gelten daher nach der Wort-und-Regel-Theorie als Wörter. Bei der Anwendung tritt das Prinzip in Kraft: existiert ein Eintrag des Präteritums im mentalen Lexikon z.B. stood von stand, findet die Regel (+ed) keine Anwendung, ansonsten wird wie z.B. bei dem unbekannten Verb broom das Präteritum broomed gebildet. Auf die Nachfrage eines Kommilitonen bezüglich der Stetigkeit dieses Reglements wurde von den Lehrkräften der kontroverse Standpunkt dieser Thematik in der linguistischen Forschung betont und auf die häufige Verwendung starker Verben verwiesen mit der Ergänzung, dass sowohl in der englischen als auch deutschen Sprache in 99% der Fälle schwache Verben vorlägen.
-
Der zweite Part des Referates beschäftigte sich mit der Anatomie der Sprache, die nach Pinker in der Komposition von dem Mentalen Lexikon (Speicherung von Wörtern), der Morphologie (Regeln für Zusammenfügen von Wörtern) und der Syntax (Regeln für den Bau von Phrasen und Sätzen) begründet liegt, die über die Schnittstellen der Semantik (Verbindung von Sprache und Geist) und der Phonologie (Schnittstelle zwischen Artikulation und Rezeption) funktionieren. Am Beispiel der Pluralbildung des Wortes mother-in-laws versucht er die Korrelation zwischen Syntax und Semantik nachzuweisen. Semantisch betrachtet läge der head (Kopf) und damit die Pluralbildung bei mothers, jedoch tritt hier die Bedeutung in den Hintergrund, sodass die Wörter strukturell (kategorial) als Einheit erfasst werden. Pinker sieht darin einen Trend bestätigt, dass die meisten der umstrittenen Plurale zunächst Phrasen waren und dann zu Wörtern wurden. Dieses Phänomen ließ sich ebenso in der Bildung von Präfixen und Suffixen nachvollziehen.
-
Das Ende des Referates bildete die Untersuchung zu den Morphologischen Regeln (Römer) oder Wohlgeformtheitsbedingungen. Sie geht davon aus, dass das Strukturierungs- und Verknüpfungswissen zum einen mit der Annahme von Regeln in der Wort-und-Regel-Theorie (Item-and-Process-Model) oder dem Zugrundelegen von Wohlgeformtheitsbedingungen (Contrains) beschrieben wird. Sie weist die Bedingungen am Beispiel des Subkategorienprinzipes und der Obliqueness-Hierarchie nach. Erstere besagt, jeder SUBCAT-Wert eines phrasalen Zeichens basiert aus der Verkettung der Konstituentenwerte und wird erst durch seine Sättigung, d.h. wenn die SUBCAT-Liste leer ist, wohlgeformt. Das zweite Prinzip nimmt eine Argument-Struktur-Hierarchie an, die eine Grundreihenfolge der Elemente voraussetzt und in jeder Sprache vorzufinden seien. Um eine Summierung der Reglements zu vermeiden, werden bezüglich der Contrains Beschränkungen festgelegt, wie z.B. die un-Präferierungsregel, laut der das Präfix <un> nicht mit Verben kombiniert werden kann.
22. Juni 2007
Thema: Funktionale Kategorien
Referat: Lierath, Christina
Protokoll: Höhle, Mandy
-
Die Referentin Christina Lierath beschäftigte sich in ihrem Referat mit funktionalen Kategorien.
-
Zuerst wurde geklärt, warum es nötig ist, Wörter zu kategorisieren. Ein Wort erfüllt z.T. nur ein paar oder gar keine relevanten morphologischen Eigenschaften, um einer bestehenden Klasse wie etwa Verb, Substantiv, Adjektiv usw. zugeordnet werden zu können. Zudem können viele Morpheme mehr als eine Verwendung haben. Aus diesem Grund ist es nicht immer eindeutig, in welche Wortklasse bestimmte Wörter einzureihen sind.
-
Es wird in lexikalische und funktionale Kategorien unterschieden. Wörter werden in Funktions-, Inhalts- und Hilfswörter unterschieden. Die Funktionswörter stehen dabei nicht stellvertretend für eine Sache, stellen jedoch eine Relation zwischen Sachen her, d.h. sie tragen keine bzw. eine nur schwer erfassbare lexikalische Bedeutung und erfüllen rein strukturelle Funktionen, indem sie syntagmatische, syntaktische und textuelle Beziehungen herstellen. Dazu gehören Artikel, Pronomen, Modalverben, Hilfsverben, Konjunktionen und Partikeln. Inhaltswörter tragen lexikalische Bedeutung. Hilfswörter dagegen haben keine lexikalische Bedeutung [(keine Extension und Intension der Bedeutung) z.B. haben, sein, Artikel].
-
Zu den lexikalischen Kategorien gehören Substantiv, Adjektiv, Verb, Adverb und Präposition.
-
Zu den funktionalen Kategorien gehören Determinanten, Quantifizierer, Pronomen, Hilfsverben, Partikel und Konjunktionen, die sich dadurch von den nicht-funktionalen syntaktischen, den lexikalischen Kategorien, unterscheiden, dass sie spezifische syntaktisch relevante Informationen einer komplexen Phrase repräsentieren. Funktionale Kategorien weisen diverse Gemeinsamkeiten auf. Sie besitzen beispielsweise nur ein Komplement, sie weisen keine Theta-Rolle zu, sie sind in ihrer Semantik durch wenige Merkmale erfassbar und sie sind nicht durch produktive Wortbildungsregeln erweiterbar.
-
Die Referentin ging dann auf die funktionalen Kategorien Determinierer, Quantifizierer, Hilfsverben und Partikel näher ein.
-
Obwohl Determinierer und Quantifizierer die gleiche Position wie Adjektive vor Substantiven einnehmen und sie, wie auch das Adjektiv, das Nomen näher bestimmen, wurden sie von Radford in funktionale Kategorien eingeordnet. Der Grund hierfür liegt in der syntaktischen Unterscheidung zum Adjektiv. Ein Substantiv braucht eine bestimmte Determination oder ein bestimmtes Numeral um den Nominalausdruck zu komplettieren: Dem Adjektiv kommt lediglich die nähere Beschreibung des lexikalischen Inhaltes zu und kann daher den Nominalausdruck nicht vervollständigen, dies obliegt dem Determinierer. (z.B. Can you pass me a (Determinierer-funkt. Kategorie → NP vollständig) chair? vs. *Can you pass me wooden (Adj.-lex.Kat. → NP unvollständig) chair?)
-
Die Hilfs- und Modalverben im Englischen (z.B. do, can) ergänzen Verbausdrücke und haben die Funktion grammatikalische Eigenschaften (Tempus, Modus) des Hauptverbes sichtbar zu machen. Dem Hilfs- oder Modalverb kommt dabei zudem die Funktion zu, Fragen bilden zu können und die Verneinung auszudrücken.
-
Das Partikel to kann sowohl als lexikalische Kategorie als auch als funktionale Kategorie auftreten. (z.B. Do you want to [Infl: funktionale Kategorie] go to [Präp: lex. Kategorie] the cinema?)
-
Abschließend wurde bemerkt, dass ein Zusammenhang zwischen Funktionswörtern, Inhaltswörtern und Hilfswörtern besteht, sie sich aber nicht entsprechen.
29. Juni 2007
Thema: Leere Kategorien (Nullelemente)
Referat: Gallmann, Peter
Protokoll: Linsel, Ulrike
-
Die Sitzung hatte das Ziel einen Überblick über die Leerelemente zu geben. Auch wurde die Frage beantwortet, ob leere Kategorien überhaupt im Lexikon stehen müssen und was davon syntaktisch relevant ist. Folgende leere Kategorien wurden ausgeführt: leere Köpfe bei Interrogativnebensätzen, Adverbialnebensätzen und Relativnebensätzen. Auch das leere I° (T°), leere Präpositionen, sowie das Nullpronomen PRO.
-
Eine kernlose Struktur ist bei Interrogativnebensätzen möglich. Der Beispielsatz "Und dann fragt sich dieser noch, warum dass alle so reagieren!" (http://royal-ts.de/2001/06/23/bonsai-kitten/; 05.07.2007) ist nicht standardsprachig. Denn nach einem Interrogativpronomen folgt i.d.R. keine Konjunktion.
-
Ein leerer Kopf in Sätzen bedeutet aber nicht, dass nichts da ist. Im Lexikon ist auch eine unsichtbare Variante von "dass" vorhanden. D.h. das Deutsche hat im Lexikon die Möglichkeit in bestimmten Sätzen das 0-Element oder "dass" einzufügen. So kann der bisher kernlose Adverbialnebensatz "… bis der Tod euch scheidet" auch heißen: "… bis (dass) der Tod euch scheidet".
-
Relativnebensätze haben u.a. auch Konstruktionen mit einem leeren Kopf, wie z.B. "(Die Suche nach dem Baum mit der Rinde), die heilt." Im Umgangssprachlichen kommt es jedoch gerne vor, dass der leere Kopf in Relativnebensätzen, wie hier, mit einem Relativsubjunktion, und auch das leere I-Element mit dem Auxiliarverb "tun" gefüllt werden. Dann heißt es "… die (wo) heilen (tut)." Die Konstruktion mit "tun" als Füllelement der I° ist zwar einfacher, weil nicht flektiert werden muss, aber für das X-bar-Schema entsteht mehr Material. Hier erschließt sich die Frage, ob nun das leere I°-Element im Lexikon gespeichert werden muss. Hier ist ein lexikalisches Lernen nicht notwendig, da es im Standarddeutsch kein I°-Element gibt, und zudem lernt der Mensch nicht positiv. Wird I° dennoch mit einem Verb besetzt, so muss dies selbstverständlich gelernt werden. Aber auch hier gibt es Ausnahmen. Der Satz "Warten tut er ungern" enthält ein spezielles "tun", das ins Vorfeld gerückt wurde. Dieses "tun" muss im Lexikon durch Lernen gespeichert werden.
-
Leere Präpositionalphrasen sind nur auch möglich, wie "Er schickt den Brief [Dat der Firma].", neben: "Er schickt den Brief [an [Akk die Firma]]." In einigen regionalen Varietäten des Deutschen kann das Dativobjekt mit einer Hilfspräposition verstärkt werden. Zum Beispiel: "Si gliicht i miinere Fründin", was heißen soll: "Sie gleicht in meiner Freundin" dementsprechend: "Sie gleicht meiner Freundin."
-
In bestimmten Infinitivkonstruktionen wird eine leere Kategorie PRO angenommen. In der Kontrollkonstruktion verlangen Kontrollverben eine infinite CP als Komplement: CP → C´ → C° → [e]. Die infinite CP enthält dann aber ein logisches Subjekt PRO, das nach dem Prinzipien- und Parametermodell die Spezifikatorposition der IP einnimmt (IP → NP → PRO). Das Kontrollverb bestimmt, auf welches Argument (Subjekt, Akk-Objekt, Dat-Objekt) des Kontrollverbs sich PRO bezieht.
-
Das arbiträre PRO ist eine weitere Variante der Nullpronomen im Deutschen. Hier hat das PRO die Bedeutung "man".
-
Für das Lexikon muss PRO selber nicht gelernt werden. Es gibt jedoch einige Kontextbedingungen, die durch PRO auftreten und die gelernt werden müssen.
-
Abschließend lässt sich nun sagen, dass ein Teil der leeren Kategorien nicht syntaktisch ist und deshalb lexikalisch eingeprägt werden muss.
6. Juli 2007
Thema: Komposition und Dekomposition lexikalischer Bedeutungen
Referat: Schreiber, Dinah / Waldhelm, Martina
Protokoll: Dietrich, Katharina
13. Juli 2007
Thema: Vom Lexikon zum Satz
Referat: Hähnlein, Mario
Protokoll: Partetzke, Marc
-
Nach der kurzen Begrüßung durch die Dozenten, schloss sich sogleich – in Ermangelung des Protokolls zur vorherigen Stunde – ein kurzer Vortrag Herrn Gallmanns über die Optimalitätstheorie an. Dabei stellte er heraus, dass die OT eine Variante der GG ist, ihr aber andere Regeln, als die bisher aufgezeigten, zugrunde liegen. Prinzipiell gilt, dass die Regeln der OT uneingeschränkte Gültigkeit besitzen, aber an eine Hierarchisierung gebunden sind. So zeigt ein Vergleich des Deutschen mit dem Englischen folgendes Phänomen auf: Hat der lexikalische Eintrag /tag/ des Deutschen mehrere mögliche phonetische Realisierungen wie z.B. [ta:k] oder [ta:g] so wird im Englischen z.B. [tæ:g] geäußert. D.h. also, dass im Deutschen Auslautverhärtung herrscht. Die Frage, die sich daran anschließt, ist die der Erklärbarkeit dieses Phänomens. Die OT geht dabei von verschiedenen Regeln aus. Diese sind im genannten Beispiel 1. Bewahre Kontrast! vs. 2. Erleichtere die Aussprache im Silbenauslaut! Da unterschiedliche Prioritäten der Regeln existieren, kann nur ein der beiden o.g. Regeln realisiert werden, wobei im o.g. Bsp. für das Deutsche 2 >> 1 und für das Englische 1 >> 2 gilt. Es ist im Model der OT demnach nicht der Generator von allzu hoher Relevanz, sondern vielmehr der Evaluator, der eine Bewertung der einzelnen, denkbaren Möglichkeiten vornimmt. Anhand der angezeigten Überprüfungsmatrix wurde deutlich, dass [ta:k] gegenüber [ta:g] "gewinnt", da bei ersterer Variante die niedrigere der beiden Regeln verletzt wird. D.h. also, dass ein Teil des Sprachsystems von den inhärenten Regeln des Generators bestimmt wird und da, wo sich die Einzelsprachen unterscheiden, die Regeln des Evaluators mithilfe eines Regelrankings zum Zuge kommen. Diese Regeln können in Treue- und Markiertheitsbeschränkungen eingeteilt werden.
-
Nach diesem Exkurs schloss sich das Referat Vom Lexikon zum Satz an. Dem eigentlichen Thema wurde ein kurzes Resümee bezüglich der Verbvalenz vorangestellt. Als wichtig wurde dabei herausgearbeitet, dass die Theta-Rollen untereinander nicht gleichrangig, sondern vielmehr hierarchisch organisiert sind, was sich auch auf der Ebene der D-Struktur äußert. Der eigentliche Themenschwerpunkt wurde daran anschließend mit der Frage eröffnet, wie die NPs, die Träger dieser Theta-Rollen sind, eigentlich ihren Kasus bekommen und ob man dies begründen könne. Als ein Erklärungsansatz für diese Fragen wurde die lexikalische Dekompositionsgrammatik (LDG) vorgestellt, die die im Lexikoneintrag eines Verbs angelegten Rollen / Argumente und deren Hierarchisierung als Input betrachtet, der über bestimmte Regeln in einen morphosyntaktischen Output überführt wird. Ausgangspunkt ist dabei ebenso der Valenzrahmen eines Verbs und die jeweiligen Rollen / Argumente, wobei die Herleitung durch die so genannte λ-Abstraktion vorgenommen wird. Am Beispiel [Peter]x gibt [seiner Freundin]y [einen Kuss]z konnte verdeutlicht werden, dass – im Gegensatz zur D-Struktur – die semantisch höchste Rolle dabei ganz rechts, die tiefste ganz links steht. Dennoch sollen auch hier die Theta-Rollen bzw. Argumente eines Verbs anhand semantischer Aspekte in eine Rangordnung gebracht werden, was mittels der Merkmale [±hr] "es gibt eine / keine höhere Rolle" und [±lr] "es gibt eine/keine tiefere Rolle" geschieht. Die Zwischenfrage, was λs zu bedeuten habe und warum hier keine Merkmalsbindung vorhanden sei, konnte damit erklärt werden, dass λs das Ereignisargument des Satzes (i.d.R. die Tempusangabe) sei, Merkmale aber nur für NPs gelten. Als dritte Grundannahme der LDG gilt die Dekomposition der Kasus, die in morphologischer Sicht – im Gegensatz zu anderen Grammatiken – nur mit positiven Merkmalen besetzt sind. Demnach bieten auch nur positive Markierungen von Rollen / Argumenten den Input für eine Kasuszuweisung. Auf die Frage warum z.B. der Genitiv bei den referierten Kasus nicht auftauche, erklärte Gallmann, dass dieser – wie auch andere Kasus – aufgrund weiterer Merkmale vernachlässigt werde, aber durchaus integrierbar wäre. Da viele Sprachen nicht dieselben Kasus haben, eine universelle Grammatik wie die LDG aber universelle Erklärungsmuster bieten will, stellt die LDG zusätzliche, theoretische Überlegungen an. So geht sie von universellen, aber prinzipiell verletzbaren Regeln aus, die die Kasusvergabe an die Argument-NPs steuern. Da aber die Gewichtung dieser Regeln in den jeweiligen Einzelsprachen variieren kann, ergibt sich das für sie spezifische Kasusinventar. Die Regeln sind: 1. Lexikalische Valenzmerkmale müssen bewahrt werden; 2. Mindestens ein Argument sollte den Defaultfall aufweisen und 3. Jeder Kasus wird nur einmal an eine Rolle / Argument vergeben. Zusätzlich werden noch drei Treue- und zwei Merkmalsbeschränkungen angegeben. Anhand dieser Regeln und Beschränkungen wurden im Folgenden drei Bsp. des Deutschen exerziert, anhand derer verdeutlicht werden konnte, dass durch das System der LDG die verwendeten Kasus einer Einzelsprache "errechnet" werden können. Dabei viel auf, dass Sprachen Konflikte inhärent sind, da es immer zu Regelverletzungen kommt. Diese können aber durch das jeweilige Regelranking gelöst werden. Frau Römer erklärte – auf Nachfrage – dass dies auch plausibel wäre, da Sprachwandel sonst ausgeschlossen sei und eine "perfekte Sprache" existieren müsste. Anhand des letzten Bsp. [x D_Hund] gleicht [y d_Herrchen] wurde verdeutlicht, welche Rolle der lexikalische Kasus innehat. Dieser steht nämlich über allen formulierten Regeln und durch ihn wird deutlich, was bei Verben explizit gelernt werden muss (Theta-Rollen + Kasusmerkmale). Auf die Frage, warum der lexikalische Kasus überhaupt existiert, konnte die Kontrasterhöhung genannt werden. Dies wurde gut am Bsp. "Ich nahm mich des Falles an" vs. "Ich nahm mich dem Fall an" deutlich.
-
Als Fazit wurde formuliert, dass sich die LDG der Optimalitätstheorie bedient und letztlich eine Kombination verschiedener Theorien darstellt. Als ihr entscheidender Vorzug wurde herausgestellt, dass sie dazu in der Lage ist, die gesamte Satzkonstituentenstruktur zu erklären.