Einführung

Sehr geehrte Frau Professor Steinbeck, sehr geehrter Herr Professor Landwehr, sehr geehrte Frau Professor Kallmeyer!

Ich möchte mich ganz herzlich bei der Meyer-Struckmann-Stiftung, der Philosophischen Fakultät der Heinrich-Heine Universität und den zehn Mitgliedern der Jury dafür bedanken, dass sie mich als Preisträger ausgewählt haben.

Ich weiß es zu schätzen, dass die Stiftung und die Fakultät das Themenfeld »Sprache und Kognition« bestimmt haben, denn dieses wird in der geistes- und sozialwissenschaftlichen Forschung durchaus oft als randständig betrachtet – mit Methoden, Theorien und einer Fachkultur, die man sonst eher in der Psychologie, der Anthropologie, den Gehirnwissenschaften oder der Informatik findet.

Die Umstände der Preisverleihung sind, wie auch schon letztes Jahr, besondere – wir erleben gerade die vierte Corona-Welle. Ich habe meiner kleinen Dankesrede, von diesen besonderen Umständen ›angesteckt‹, den Titel »Wie wir uns mit Bedeutungen infizieren« gegeben. Und es kommen in ihr auch die mRNA, das Impfen und das Gesunden vor.

Sprachliche Bedeutungen

Die menschliche Sprache ist ein weites Feld. Ich selbst habe mich vorwiegend mit der Semantik, also der Lehre der Bedeutung sprachlicher Ausdrücke beschäftigt, und wie wir Bedeutungen kommunizieren – mit anderen Worten, wie wir uns mit ihnen infizieren. In der Art und Weise, wie das geschieht, unterscheidet sich die menschliche Sprache radikal von tierischen oder pflanzlichen Kommunikationssystemen.Was ist es denn, das die menschliche Sprache so besonders macht? Der Logiker und Sprachphilosoph Gottlob Frege hat es in seinem letzten Werk, dem 1923 publizierten Aufsatz Gedankengefüge, so ausgedrückt:

»Erstaunlich ist es, was die Sprache leistet, indem sie mit wenigen Silben unübersehbar viele Gedanken ausdrückt, dass sie sogar für einen Gedanken, den zum ersten Male ein Erdenbürger gefasst hat, eine Einkleidung findet, in der ihn ein an- derer erkennen kann, dem er ganz neu ist.«

Frege liefert auch gleich einen Schlüssel zur Erklärung dieses Wunders:

»Dies wäre nicht möglich, wenn wir in dem Gedanken nicht Teile unterscheiden könnten, denen Satzteile entsprechen, sodass der Aufbau des Satzes als Bild gelten könnte des Aufbaus des Gedankens.«
(Logische Untersuchungen, Gedankengefüge, 1923).

Man nennt dies Kompositionalität. Ich versuche, diese Eigenschaft losgelöst von einer bestimmten Sprache darzustellen. Wir haben hier eine Bedeutung – ich weiß, es sieht mysteriös aus, aber Bedeutungen sind mysteriös – von einer Laut- oder Buchstabenfolge ausgedrückt.

Grafik mit drei verbunden Elementen, Text darunter: GELKLAD OPEM XANAXPADU

Die Bedeutung eines komplexen Ausdrucks ergibt sich aus der Bedeutung der unmittelbaren Teile:

Grafik mit drei Elementen, zwei sind verbunden. Text unter dem einzelnen Element: GELKLAD. Text unter den verbundenen Elementen: OPEM XANAXPADU.

Deren Bedeutung ergibt sich wiederum aus deren Teilen:

Grafik mit zwei Elementen, jeweils mit Text darunter: OPEM, XANAXPADU

Am Ende gelangt man zu den Wörtern oder Morphemen als den kleinsten bedeutungstragenden Einheiten. So können wir mit wenigen tausend atomaren Bedeutungen, unserem mentalen Lexikon, beliebig viele – und neue – Bedeutungen konstruieren. Die einzelnen Wörter sind selbst ebenfalls zusammengesetzt, aus einer Abfolge von Sprachlauten, die selbst nichts mehr bedeuten:

Text: G E L K L A D O P E M X A N A X P A D U

Und genau diese Architektur erlaubt es uns, mit wenigen Dutzend Lauten Tausende von Wörtern zu bilden. So macht die Sprache, wie Wilhelm von Humboldt sagte, »mit endlichen Mitteln unendlichen Gebrauch«. Noam Chomsky hat die Einzigartigkeit der menschlichen Sprache als ein diskretes, unendliches System hervorgehoben. Tatsächlich hat kein tierisches Kommunikationssystem diese Eigenschaften. Allerdings hat das Leben das Prinzip der Kompositionalität schon einmal erfunden. Die menschliche Sprache ähnelt nämlich auf bemerkenswerte Weise dem genetischen Code. Denn auch da fügen sich vier »Buchstaben« der Chromosomen (Adenin, Cytosin, Guanin und Thymin) zu »Wörtern« zusammen,

Text: GAT, TGT, CGA, Triplets der Chromosomen

die zunächst in die Sprache der mRNA übersetzt werden

Text: CUA, ACA, GCU, Triplets der mRNA.

und jeweils eine Aminosäure »bedeuten«,

Strukturformeln der Aminosäuren Leucin, Threonin und Alanin. Daneben Text: kodierte Aminosäuren.

welche dann in der Reihenfolge der »Wörter« zu einem Peptid, einem Protein zusammengefügt werden:

Eine Strukturformel, daneben Text: Peptide (Proteine)

Von den Proteinen gibt es wiederum im Prinzip unendlich viele. Die Parallelität zur Kodierung von Information – ich habe darauf in meinem ersten wissenschaftlichen Vortrag am Institut für Genetik der Universität zu Köln im Jahre 1982 hingewiesen – ist verblüffend. Wie in der sprachlichen Kommunikation ist die ausgedrückte Bedeutung nur das Grundgerüst, aus dem die eigentliche Bedeutung abgeleitet wird – im Code des Lebens ist dies die Faltung der Proteine, welche erst zu einem funktionierenden Baustein in der Zelle führt.

Bedeutung, Wahrheit und ihre Modellierung

Die Sprachwissenschaft hat es in einer Hinsicht schwerer als die Genetik: Proteine kann man mit Röntgenspektroskop und Elektronenmikroskop analysieren. Bedeutungen sind viel flüchtiger und kaum greifbar. Sie mögen sich im Verhalten und in den Gehirnaktivitäten von Menschen zeigen, das tun sie aber nur auf indirekte und wenig vorhersagbare Weise.

Den Schlüssel zu ihrer Analyse hat wiederum Gottlob Frege entdeckt: Wer die Bedeutung eines Satzes kennt, kann angeben, unter welchen Umständen der Satz wahr ist. So wird die Bedeutung von Sätzen auf ihre Wahrheitsbedingungen zurückgeführt. Die Teile des Satzes tragen dann nach dem Kompositionalitätsprinzip zu seinen Wahrheitsbedingungen bei.

Es sollte einige Jahrzehnte dauern, bis diese Idee über Mittelspersonen wie dem Philosophen Rudolf Carnap und dem Logiker Richard Montague in den 70er Jahren die Sprachwissenschaft erreicht hatte. Ganz wesentlich hierfür war die Linguistin Barbara Partee, die dieses faszinie- rende Kapitel Geistesgeschichte heute auch historisch aufarbeitet.

Ich selbst hatte das große Glück, zu Beginn meines Studiums in München mit diesem neuen Forschungsprogramm bekannt zu werden, durch Godehard Link, der eben vom MIT zurückgekehrt war. Ich freue mich ganz besonders, dass mit Erwin Klöck jemand im Publikum sitzt, der sich mit mir, Ulrike Haas und Thomas Becker durch die äußerst sperrigen Artikel von Monta- gue durchgebissen hat. Übrigens ist das Werk von Montague noch früher in Düsseldorf angekommen, durch Sebastian Löbner, der bereits 1976 eine Einführung geschrieben und der ganz Wesentliches zu diesem Forschungsgebiet beigetragen hat. Der erste deutschsprachige Linguist, der die Bedeutung des Werkes von Montague erkannt hat, war aber Helmut Schnelle, der die wesentlichen Gedanken bereits 1972 übersetzt hat. Von ihm durfte ich zusammen mit Hans-Martin Gärtner die Herausgeberschaft der Zeitschrift Theoretical Linguistics überneh- men.

Ich habe es miterleben dürfen, wie die Semantik zu einem Kerngebiet der Linguistik geworden ist, zusammen mit der Syntax, der Lehre vom Satzbau, und der Pragmatik, der Lehre vom Sprachgebrauch. Zeitschriften wie Linguistics and Philosophy wurden begründet, die ich einige Jahre als Herausgeber begleitet habe, aber auch Natural Language Semantics, Journal of Semantics und Semantics and Pragmatics. Wichtige Lehrbücher wie Semantics in Generative Grammar von Irene Heim und Angelika Kratzer definierten das Feld, Konferenzen wie Semantics and Linguistic Theory in den USA und Sinn und Bedeutung in Europa, aber auch Schulen wie die European Summer School in Logic, Language and Information sorgten für den regelmäßigen Gedankenaustausch.

Im Gegensatz zu manchen anderen Forschungsprogrammen haben sich die Grundlagen der Semantik – das ist jedenfalls mein Eindruck – als erstaunlich tragfähig und erweiterbar erwiesen. Diese Erweiterungen sind zum einen methodischer Art. Die linguistische Feldforschung lehrt uns, wie stark die Sprachen der Welt voneinander in den zugrundeliegenden konzeptuellen Strukturen und in ihrer Kodierung abweichen können – und welchen gemeinsamen Prinzipien sie dennoch unterliegen. Ich möchte hier stellvertretend für viele das Werk von Lisa Matthewson von der University of British Columbia erwähnen, die neue Forschungstechniken mit Storyboards entwickelt und detailliert gezeigt hat, wie anders das Referenzsystem etwa der Salish-Sprachen im Nordwesten des nordamerikanischen Kontinents funktioniert. Eine an- dere methodische Erweiterung ist die Einbeziehung von systematischen Experimenten, wie sie sich zum Beispiel in dem DFG-Schwerpunktprogramm XPrag.de, New Pragmatic Theories based on Experimental Evidence, zeigt, das von meinem Kollegen Uli Sauerland und Petra Schumacher, Universität zu Köln, initiiert wurde. Die Erweiterungen sind aber auch theoretischer Art. So wurde hier in Düsseldorf – vor allem durch Sebastian Löbner – gezeigt, wie das Konzept der Frames eingesetzt werden kann, um die Rolle des Hintergrundwissen in der sprachlichen Kommunikation zu beschreiben.

Ich möchte nun einige Themen anreißen, zu denen ich selbst über die Jahre gearbeitet habe, um die Fragen, die sich in der Semantik stellen, und die Art der vorgeschlagenen Antworten beispielhaft vorzuführen.

Lexikalischer Aspekt

In meiner Dissertation an der Ludwig-Maximilians-Universität München habe ich mich mit dem sogenannten lexikalischen Aspekt beschäftigt. Ich hatte das Glück, dort Hana Filip kennenzulernen, die heute an der Universität Düsseldorf tätig ist und weit mehr zu diesem Thema beigetragen hat.

Um was geht es? Schon bei Aristoteles finden wir eine Einteilung von Handlungen in solche, die ein Ziel erreichen müssen, und solche, die bereits geschehen sind, sobald sie begonnen haben. Diese Einteilung haben Sprachphilosophen des 20. Jahrhunderts wie Zeno Vendler als Klassifikation von Verbbedeutungen aufgegriffen. Ein Verb wie gesunden ist telisch: Es braucht eine gewisse Zeit, bis man vom Zustand der Krankheit in den der Gesundheit eingetreten ist. Ein Verb wie trinken ist hingegen atelisch: Sobald man zu trinken begonnen hat, hat man auch schon getrunken (wir nehmen es jetzt nicht so genau damit, dass der erste Schluck Flüssigkeit den Magen erreicht haben muss). Die polnische Sprachwissenschaftlerin Anna Wierzbicka und der niederländische Sprachwissenschaftler Henk Verkuyl haben nun beobachtet, dass man dabei die Rolle des Objekts nicht vergessen darf. Der Verbalausdruck Wein trinken ist atelisch, der Verbalausdruck ein Glas Wein trinken hingegen telisch.

Wie kann man das erklären? Offensichtlich hat das etwas mit der Art und Weise zu tun, in der das Objekt, der Wein, gegeben ist. Wie der Sprachphilosoph Willard Van Orman Quine beschreibt, ist das Nomen Wein »kumulativ«. Das heißt, wenn man eine Quantität Wein hat, dann ist ein Teil davon wiederum Wein. Das Nomen ein Glas Wein hat diese Eigenschaft nicht. Ein Teil eines Glases Wein ist nicht mehr ein Glas Wein, sondern vielleicht nur ein halbes. Man nennt den Ausdruck ein Glas Wein daher »gequantelt«.

Was sagt das über die Ereignisse aus, die mit Wein trinken beziehungsweise ein Glas Wein trinken beschrieben werden? Die normale Art, zu trinken, ist, die Flüssigkeit nach und nach zu sich zu nehmen. Es gibt also eine inkrementelle Beziehung zwischen den Teilen des Objekts und den Teilen des Vorgangs. Man kann das wie folgt in einem Raum-Zeit-Diagramm darstellen. Ich beginne mit der Darstellung von Wein trinken auf der linken Seite der folgenden Abbildung.

Zwei Diagramme, mehr Informationen im Text.

Hier haben wir den Raum r, verkürzt auf eine Dimension, und die Zeit t. Mit solchen Raum-Zeit-Diagrammen hat Hermann Minkowski die Relativitätstheorie illustriert, man kann sie aber auch gut auf alltägliche Dinge wie das Weintrinken anwenden. Wir haben hier eine Quantität, die unter den Begriff Wein fällt; jeder Teil davon fällt ebenfalls unter Wein. Dieser Wein existiert in der Zeit, wird Schluck für Schluck getrunken – und verschwindet. Ein Ereignis der Art Wein trinken findet also in dem angegebenen Zeitintervall statt. Da aber jeder Teil dieses Weins wieder unter Wein fällt, gibt es wiederum Teile des Zeitinvervalls, in dem Win trinken stattfindet. Das macht diesen Ausdruck atelisch.

In dem Fall ein Glas Wein trinken, hier repräseniert auf der rechen Seite, ist das anders. Der Wein wird natürlich auf die gleiche Art getrunken, und es entsteht ein Ereignis, das man mit ein Glas Wein trinken beschreiben kann. Da nun aber ein Teil des Glases Weins selbst nicht unter ein Glas Wein fällt, fällt ein zeitlicher Teil von ein Glas Wein trinken auch nicht mehr unter ein Glas Wein trinken. Das macht diesen Ausdruck telisch.

Ich habe hier versucht, diese Erklärung mithilfe von Diagrammen zu veranschaulichen. Diagramme sind natürlich noch keine Theorie. Die Einzelheiten der Theorie will ich Ihnen heute Abend ersparen. Ganz wesentlich ist, dass sie auf dem Begriff von Objekten, Ereignissen und der Teilbeziehung beruht, der sogenannten Mereologie.

Man kann damit erstaunlich viel erklären. Zum Beispiel, warum man sagen kann: eine Stunde lang Wein trinken, aber eher nicht: eine Stunde lang ein Glas Wein trinken. Mit eine Stunde lang misst man die Dauer eines Ereignisses, und dafür muss dieses als ein amorpher, kumulativer Vorgang beschrieben sein. Es ist ein wenig wie in der Quantenphysik: Man kann ein Ereignis nicht in einem Ausdruck hinsichtlich zweier Dimensionen messen, indem man etwa sagt, das es eine Stunde lang dauert und sein Objekt ein Glas Wein umfasst.

Umgekehrt kann man sagen in einer Stunde ein Glas Wein trinken, aber kaum in einer Stunde Wein trinken, außer in der zukunftsbezogenen Interpretation. Warum? Wenn wir sagen, dass ein Ereignis innerhalb einer Stunde passiert ist, dann ist das nur dann informativ, wenn das Ereignis selbst eine gewisse Ausdehnung hat. Sonst könnte man ja auch sagen, es ist in einer halben Stunde, in einer Viertelstunde, in einer Minute passiert. Aus diesem Grund ist der Ausdruck in einer Stunde Wein trinken systematisch uninformativ und wird daher als ungrammatisch empfunden.

Die Effekte sind in anderen Sprachen oft noch erstaunlicher. Ein Beispiel: Die meisten slawischen Sprachen haben keinen definiten Artikel. Im Tschechischen kann víno sowohl ›Wein‹ als auch ›der Wein‹ heißen. Slawische Sprachen haben aber eine ausgeprägte Aspektmarkierung. Man muss bei jedem Satz angeben, ob der beschriebene Vorgang abgeschlossen ist oder nicht. Das hat wiederum eine Auswirkung auf die Interpretation der nominalen Ausdrücke, zum Beispiel auf das Objekt von trinken. Einen Satz im imperfektiven Aspekt wie Ota pil víno würde man als ›Ota trank Wein‹ übersetzen. Derselbe Satz im perfektiven Aspekt, Ota vypil víno aber als ›Ota trank den Wein‹ oder ›Ota trank den Wein aus‹.

Alternativen und Negative Polaritätselemente

Ein anderes Arbeitsgebiet von mir war, wie Betonung zur Bedeutung beiträgt. Ich meine nicht die Betonung von Wörtern wie umfáhren und úmfahren, oder modérn und módern, sondern den Satzakzent.

Ich kann mich noch gut erinnern, als ich als Student im Lesesaal der Staatsbibliothek München saß und dort das Schild sah: »Bitte leise SPRECHEN!«. Ich habe das plötzlich als Aufforderung gesehen, zu sprechen, und zwar leise – und musste laut lachen. Natürlich sollte es so betont werden: »Bitte LEISE sprechen!«. Die Betonung führt hier eine Alternative ein, nämlich »Bitte LAUT sprechen!«, und die Befehlsform drückt aus, dass man das explizit Ausgedrückte tun darf, die implizite Alternative aber lassen soll. Wenn man spricht, dann soll man das leise tun.

In einer Sentenz von Schiller über die Sprache heißt es:

Warum kann der lebendige Geist dem Geist nicht erscheinen? S p r i c h t die Seele, so spricht ach! schon die S e e l e nicht mehr.

Es kommt hier auf die Betonung an, die Schiller durch Sperrung verdeutlicht. Betonung auf spricht führt Alternativen ein, wie sich die Seele kundtun kann – etwa durch Gedankenübertragung. Betonung auf Seele führt Alternativen zur Seele ein – etwa die weniger innigen, mehr konventionellen Schalen der Persönlichkeit. Ohne diese Betonung ist der Satz sinnlos; mit Betonung drückt er einen tiefen Gedanken, übrigens auch für die Semantik, aus.

Sobald man einmal darauf zu achten beginnt, ist es ganz erstaunlich, wie viel wir mit der offensichtlichen Auswahl aus Alternativen kommunizieren, und zwar auch dann, wenn Betonung gar keine Rolle spielt. Wenn wir sagen: Goethe war zweimal in Düsseldorf, dann verstehen wir das so, dass er nicht dreimal in dieser schönen Stadt weilte. Aber genau genommen wäre dieser Satz ja auch wahr, wenn er drei-, vier- oder fünfmal in Düsseldorf vorbeigekommen wäre. Der Sprachphilosoph Herbert Paul Grice und der Linguist Lawrence Horn haben herausgearbeitet, wie es zu dieser verstärkten Bedeutung kommen kann. Zahlwörter wie zwei führen Alternati- ven wie ein oder drei ein. Und Hörer können davon ausgehen, dass Sprecher die informativste Variante unter den Alternativen wählen – dass sie gewissermaßen »die ganze Wahrheit« sagen. Da nicht gesagt wurde, dass Goethe dreimal in Düsseldorf war, kann man als Hörer schließen, dass dieser Satz offensichtlich nicht stimmt. Die Konstruktion von Alternativen und ihre Einbeziehung in der linguistischen Kommunikation war ein zentrales Forschungsfeld der linguistischen Semantik und Pragmatik der letzten Jahre, und ich freue mich, dass meine frühere Doktorandin Nicole Gotzner zu ihren experimentellen Untersuchungen auf diesem Gebiet den Heinz Maier-Leibnitz-Preis der DFG erhalten hat.

Ich möchte hier, wieder in aller Knappheit, einen besonders verblüffenden Bereich der Grammatik vorstellen, für den der Alternativenbezug wesentlich ist. Das sind die sogenannten »Negativen Polaritätsausdrücke« wie jemals oder einen Finger krumm machen. Sie kommen nur in bestimmten Kontexten wie zum Beispiel im Bereich der Negation vor – daher ihr Name. Wir können sagen: Es stimmt nicht, dass ich jemals im Jemen war. Nicht aber: Es stimmt, dass ich jemals im Jemen war. Wir können sagen: Du hast niemals einen Finger krumm gemacht. Wir können aber nicht sagen: Du hast mehrmals einen Finger krumm gemacht, jedenfalls nicht im idiomatischen Sinn.

Merkwürdig! Wie kann man das erklären? Den Ansatz dazu lieferte Bill Ladusaw in den 70er Jahren; Fred Landman, Nirit Kadmon und auch ich selbst haben ihn in den 90er Jahren weiter ausgebaut.

Die Grundidee ist die folgende: Ein Ausdruck wie jemals steht für eine maximal unbestimmte Zeit, und das ist einfach zu uninformativ, um darauf eine sinnvolle Aussage zu bauen. Unbestimmt ist der Ausdruck mal aber auch, man kann ja durchaus sagen: Es stimmt, dass ich mal im Jemen war. Der Ausdruck jemals ist aber nicht nur unbestimmt. Er führt im Gegensatz zumalauch Alternativen ein, und zwar näher bestimmte Zeiten, die beschrieben werden könnten mit in den 90ern, im Jahre 1998 oder im Februar 1998. Diese spezifischen Alternativen zu jemals wurden aber für die Aussage gerade nicht gewählt. Warum nicht? Sie wären doch informativer gewesen! Es gibt hier keinen guten Grund. Wenn der Sprecher die genaue Zeit nicht weiß oder diese für nicht relevant hält, dann hätte er doch einfach sagen können: Ich war mal im Jemen, ohne jede Alternativen einzuführen.

Stellen wir uns hier alle möglichen Sachverläufe durch die Punkte in diesem Rechteck vor. Die Bedeutung – oder genauer: der Wahrheitswert – des Satzes Eva war 1990 im Jemen ist dann die links angeführte Teilmenge, und die Bedeutung von Eva war 1990 oder 91 im Jemen die in der Mitte angeführte Teilmenge. Die Bedeutung von Eva war in den 90er Jahren im Jemen ist die rechts angeführte Bedeutung. Es ist klar, dass die schwarze Fläche der am wenigsten informativen Bedeutung am größten ist. Dies wäre die Bedeutung von Eva war in den 90er Jahren jemals im Jemen, die ist aber unangemessen, weil sie gegenüber den Alternativen so unspezifisch ist.

Grafik: Drei Rechtecke, die jeweils Jahreszahlen enthalten und eine Beschriftung haben. Mehr Informationen im Text.

Sehen wir uns nun aber die Negation des Satzes an. Der Satz Eva war 1990 nicht im Jemen hat die links angeführte Bedeutung. Das sind alle Sachverhalte, für die Eva war 1990 im Jemen nicht zutrifft. Der Satz Eva war 1990 oder 91 nicht im Jemen hat die in der Mitte angeführte Bedeutung, und Eva war in den 90er Jahren nicht im Jemen die rechts angeführte.

Grafik: Drei ausgefüllte Rechtecke, die jeweils Jahreszahlen enthalten und eine Beschriftung haben. Mehr Informationen im Text.

Die rechts angeführte Bedeutung ist nun unter all den Alternativen der Form Eva war bla‐bla‐ bla nicht im Jemen die informativste – die schwarze Fläche ist am kleinsten. Genau diese Bedeu- tung hat der Satz Es stimmt nicht, dass Eva in den 90er Jahren jemals im Jemen war, und ist damit spezifischer als alle Alternativen.

Sätze mit Negativen Polaritätsausdrücken sind also genau dann möglich, wenn sie im Vergleich mit ihren Alternativen am informativsten sind. Der Negative Polaritätsausdruck sagt gewissermaßen: Achtung! Ich bin hinsichtlich meiner Alternativen ein besonders informativer Satz! Diesen Effekt kann man übrigens auch im EEG von Versuchspersonen nachweisen, wie Heiner Drenhaus und Doug Saddy in Potsdam gezeigt haben. Und Negative Polaritätsausdrücke sind nicht auf die Negation beschränkt; wir können zum Beispiel auch sagen: Jeder, der jemals im Jemen war, will wieder dorthin. Auch hier markieren sie den Satz als besonders informativ.

Es ist plausibel, dass jemals eine besonders unspezifizierte Zeit ausdrückt: je plus mal, also jede Zeit gilt. Wie verhält es sich bei einen Finger krumm machen? Damit wird metonymisch die geringste Handlung bezeichnet, die jeder anderen Handlung innewohnt. Man kann das mit Infinitesimalzahlen vergleichen – Sie erinnern sich sicherlich noch an die Epsilons, die da verwendet wurden. Wie die Konstanzer Linguistin Regine Eckardt vorgeschlagen hat, steht einen Finger krumm machen für ein solches Epsilon von Handlungen. Aus diesem Grunde ist es uninformativ zu sagen, dass jemand einen Finger krumm gemacht hat – es ist einfach zu wenig.

Man kann Negative Polaritätsausdrücke übrigens auch in Fragen einsetzen – zum Beispiel in: Hast du jemals einen Finger krumm gemacht? Das ist eine rhetorische Frage – der Sprecher drückt die starke Vermutung aus, dass der Adressat niemals auch nur einen Finger krumm gemacht hat. Das kann man so erklären, dass der Sprecher es dem Adressaten im Prinzip so leicht wie möglich machen will, die Frage positiv zu beantworten, in der Erwartung, dass die Antwort auch dann negativ sein wird. So können Negative Polaritätsausdrücke verwendet werden, um im kommunikativen Spiel einen Stich zu machen.

Realitätsstatus

Ein weiteres Thema, das ich hier aufgreifen will, ist der Ausdruck des Realitätsstatus. In vielen Sprachen gibt es die Möglichkeit, anzuzeigen, ob ein Satz möglicherweise wahr ist oder nicht. Im Deutschen zum Beispiel kann man zwischen normalen und kontrafaktischen Konditionalsätzen durch die Form des Konjunktivs II unterscheiden. In dem Satz Wenn Pigor die Arie gesungen hat, dann haben die Leute sicher gelacht wird es als möglich dargestellt, dass Pigor die Arie gesungen hat. In dem Satz Wenn Pigor die Arie gesungen hätte, dann hätten die Leue sicher gelacht hingegen wird angedeutet, dass Pigor die Arie nicht gesungen hat.

Es ist bemerkenswert, dass wir über hypothetische Fälle Aussagen machen können und dafür eine eigene grammatische Markierung haben. Das hat sicher damit zu tun, dass das Durchdenken von Möglichkeiten essenziell ist für die Vorausplanung, aber auch für die nachträgliche Rechtfertigung von Handlungen.

Die Sprache kann hier interessante Volten schlagen. Zusammen mit Alex Grosu aus Tel Aviv habe ich an Fällen dieser Art gearbeitet:

Der begabte Mathematiker, der du zu sein behauptest, hätte dieses Problem gelöst.

Da wird über eine Person gesprochen, die es in der Wirklichkeit wohl gar nicht gibt: Über jemanden, der weitgehend identisch ist mit dem Adressaten, der aber auch ein begabter Mathematiker ist. Von dieser schattenhaften Person wird eine Aussage gemacht, und da ihre Existenz zweifelhaft ist, muss man hier im Konjunktiv sprechen.

Besonders interessant wird es bei Sprachen mit einer sogenannten Realis-Irrealis-Unterscheidung. Ich forsche seit dem Jahre 2008 an solchen Sprachen auf der Insel Ambrym in Vanuatu, großzügig gefördert durch die Volkswagenstiftung. Während meine ehemalige Doktorandin Kilu von Prince, heute Professorin für Allgemeine Sprachwissenschaft an Ihrer Universität, eine umfassende Grammatik der Sprache Daakaka geschrieben hat, habe ich mich auf die Nachbarsprache Daakie fokussiert. Beide Sprachen sind klein, sie werden von vielleicht zweitausend Menschen gesprochen. Auf Ambrym, mit etwa 9.000 Bewohnern, gibt es drei weitere Sprachen. In dem Staat Vanuatu, mit einer Bevölkerung von 300.000, werden etwa 130 Sprachen gesprochen. Sie gehören alle zu den Ozeanischen Sprachen, sind aber durchaus sehr verschieden. Wie schon erwähnt, hat die Erforschung der menschlichen Sprache gerade aus der Untersuchung von solchen kleinen Sprachen viel gewonnen. Für mich war die Arbeit in Vanuatu – ich leite jetzt noch ein Projekt zu der Kreolsprache Bislama dort – nicht nur wissenschaftlich von sehr hoher Bedeutung.

Aber es geht hier ja um den Ausdruck des Realitätsstatus. Im Daakie gibt es sechs modale Formen, darunter den »Realis« für Ereignisse, die in der Wirklichkeit stattfinden oder stattgefunden haben, den »Potentialis« für Ereignisse, die noch stattfinden können, und den »Distalis« für Ereignisse, die stattfinden könnten – aber auch für solche, die einen temporalen Anker setzen, vergleichbar zu deutschen Sätzen mit als. An dieser Stelle müssen drei Sätze zur Illustration genügen.

Das Verb kiibele heißt ›wissen‹ und setzt voraus, dass der Satz, auf den es sich bezieht, wahr ist. Deswegen wird dieser im Realis ausgedrückt, wie unser erstes Beispiel zeigt. (Wie in der Linguistik üblich steht in der ersten Zeile das Originalbeispiel, in der zweiten eine Glossierung, d.h. eine Angabe der Bedeutung der Wörter, und in der dritten eine Übersetzung; RE steht dabei für Realis, und PL für Plural).

Mwe kiibele ke. vanten mu‐syoo la‐m du okiye.
RE weiß dass.RE Person RE-einige PL-RE sich.befind dort
‘Er wusste, dass sich einige Personen dort befanden.’

Dasselbe Verb kiibele heißt aber auch ‘können’ und hat dann einen Nebensatz im Potentialis (POT). Aber auch der Komplementierer ‘dass’ hat jetzt eine andere Form, ka, die allgemein in nicht-Realis-Fällen, also im Irrealis (IRR) verwendet wird. Man kann das Verb wissen im Deutschen mit Infinitiv ähnlich einsetzen.

Ngale la‐m. kiibele ka la‐p kuo soo‐soo.
dann PL-RE weiß dass.IRR 3PL-POT renn ein-ein
‘Sie konnten einzeln davonlaufen.’, ‘Sie wussten einzeln davonzulaufen.’

Es gibt auch ein Verb deme ‘denken’; wenn der Inhalt des Gedachten falsch ist, erscheint der Nebensatz im sogenannten Distalis (DIST).

Temat ngyee la‐m deme ka te met.
Dämon PL. PL-RE denk dass.IRR DIST tot
‘Die Dämonen dachten, dass er tot sei.’ (er war es aber nicht)

Diese Möglichkeit, auszudrücken, dass ein Nebensatz falsch ist, gibt es in der deutschen Grammatik nicht – wir könnten uns allenfalls mit Wörtern wie fälschlicherweise behelfen. Interessanterweise hat Gottlob Frege das Wort wähnen als einen falschen Glauben beschrieben.

Wir – das sind Kilu von Prince, ihre Mitarbeiterin Ana Krajinović und ich – glauben, dass man diese Verhältnisse am besten in einem Modell der sich verzweigenden Zeit erfassen kann. Was ist damit gemeint? Es ist eine gängige Vorstellung, dass die Vergangenheit vielleicht nicht immer bekannt, aber doch eindeutig bestimmt ist. Was geschehen ist, ist geschehen. Die Zukunft hingegen ist offen. Das führt zu einem Modell der Zeit, in dem diese sich in der Zukunft verzweigt. Ich habe hier ein ganz einfaches Modell dieser Art grafisch auf der linken Seite wiedergegeben. Der Welt-Zeit-Punkt, an dem wir uns gerade befinden, sei dabei hervorgehoben, und wir machen die sehr vereinfachende Annahme, dass sich jeder Welt-Zeit-Punkt in zwei andere weiterentwickeln kann.

Zwei Grafiken, die sich jeweils von einem Punkt auffächern. In der zweiten Grafik ist ein bestimmter Pfad markiert und mit Text beschriftet: Realis, Distalis, Potentialis. Mehr Informationen im Text.

Rechts ist der Kodierungsbereich der zuvor beschriebenen Modale des Daakie wiedergegeben. Der Bereich des Realis schließt den aktuellen Welt-Zeit-Punkt und alle davor liegenden mit ein – die Welt, wie sie sich bis zum gegenwärtigen Zeitpunkt entwickelt hat. Im Daakie gibt es keine eigentliche Vergangenheitsform. Der Bereich des Potentialis umfasst die Welt-Zeit-Punkte, zu denen sich die Welt entwickeln kann. Und der Bereich des Distalis erstreckt sich über das schattenhafte Reich der unrealisierten und unrealisierbaren Möglichkeiten.

Das ist ein vereinfachtes Bild. Im Daakie wird zwischen zwei Potentialis-Formen unterschieden. Und auch die Negation ist Teil des Modalsystems. Es gibt dabei zwei Arten von Negation, für Realis und für Nicht-Realis. Durch die Art des Ausdrucks kann man aber doppelte Negation, wie sie Logiker lieben, nicht ausdrücken.

Wir verlassen jetzt aber den Ausdruck des Realitätsstatus und wenden uns einem letzten Aspekt zu, nämlich der Kommunikation selbst.

Kommunikation und Common Ground

Wir verwenden Sprache, um Gedanken zu fassen – obwohl es natürlich auch nicht-sprachliche Denkprozesse gibt – aber auch und vielleicht vor allem, um sie einander mitzuteilen. Dieser kommunikative Aspekt von Sprache hat die semantische Forschung ganz wesentlich bestimmt.

Ein herausragender Beitrag stammt dabei von dem Sprachphilosophen Robert Stalnaker, der in den 1970er Jahren die Vorstellung des »Common Ground« einführte. Darunter versteht man die Information, von welcher die Kommunikationspartner annehmen, dass sie sie teilen. Kommunikation kann man beschreiben als Anreicherung des Common Grounds. Die geteilte Information wird nach und nach erweitert. Das hat zu einer Neuorientierung in der Semantik geführt: Als Bedeutung von Ausdrücken werden nicht mehr deren Wahrheitsbedingungen gehandelt, sondern ihr Potenzial, einen Informationszustand zu verändern. Sprachwissenschaftler wie Hans Kamp und Irene Heim haben diese neue Perspektive eröffnet.

Allerdings sind auch dafür die Wahrheitsbedingungen wichtig. Das allereinfachste Modell des Common Grounds sind sogenannte Kontextmengen. Sie stehen für die möglichen Sachverhalte, die mit dem gemeinsamen Wissen kompatibel sind. Ich stelle Kontextmengen wieder als eine Punktmengen dar, wie in der linken Abbildung. Sie sind gewissermaßen der Input, der Hintergrund, vor dem eine Äußerung interpretiert wird.

Drei Grafiken mit Beschriftungen: Input-Kontextmenge c, Proposition

Nun wird ein Aussagesatz wie Lola rennt geäußert – ebenfalls eine Punktmenge, hier in der Mitte dargestellt. Damit wird die Kontextmenge eingeschränkt auf diejenigen Zustände, in de- nen der Aussagesatz wahr ist. Die Output-Kontextmenge, dargestellt auf der rechten Seite, ist damit der Schnitt der alten Kontextmenge mit der Proposition des Aussagesatzes, und diese Schnittmenge kann durch den nächsten Satz weiter eingeschränkt werden.

Ich selbst arbeite auch an der Modellierung der menschlichen Kommunikation, seit ein paar Jahren im Rahmen eines ERC-Projekts SPAGAD – Sprechakte in Grammatik und Diskurs. Ein Problem, das mich umtreibt, ist: Wie kommen eigentlich die Propositionen in den Common Ground? Wir stecken uns ja nicht wirklich mit den Bedeutungen gegenseitig an wie mit einem Virus. Wir können auch ganz einfach Nein sagen. Eine Proposition anzunehmen ist immer auch eine Sache der Verhandlung und der Überzeugung, also von Verhaltensweisen, wie sie etwa in der Rhetorik und Argumentationstheorie diskutiert werden.

Meine Vorstellung von Aussagesätzen oder Assertionen ist die folgende: Mit einem Satz wie Impfen ist sinnvoll verbürgt sich der Sprecher S gegenüber dem Adressaten A für die Wahrheit der Proposition, dass Impfen sinnvoll ist. Diese Bürgschaft, dieses Commitment, wird im ersten Schritt Teil des Common Grounds. Die Bürgschaft wiederum ist der Grund für den Adressaten, die Proposition anzunehmen. Stellt sich nämlich heraus, dass sie falsch ist, dann hat der Sprecher einen Preis zu zahlen – an sozialem Kapital, mindestens Gesichtsverlust und verlorenes Vertrauen. Das eröffnet eine Möglichkeit, den Beitrag von Ausdrücken wie im Ernst, wirklich oder echt zu behandeln: Sie belasten die Hypothek des Sprechers stärker, die sozialen Sanktionen wären noch härter, wenn sich die Proposition als falsch herausstellt.

Diese Commitment-Theorie der Assertion geht auf den amerikanischen Philosophen Charles Sanders Peirce zurück und erfreut sich heute wachsender Popularität. Ihr Potenzial für die semantische Forschung halte ich für außergewöhnlich hoch.

Ein Aspekt, den ich mit Berliner Kollegen wie Anton Benz, Stephanie Solt, Tue Trinh, Kazuko Yatsushiro und Marzena Zygis untersuche, ist der Beitrag von Ausdrücken wie sicherlich oder ich denke in Sätzen wie Impfen ist sicherlich sinnvoll oder Impfen ist sinnvoll, denke ich. Diese Ausdrücke dienen offensichtlich der Abschwächung von Aussagen. Wir haben in einer empirischen Untersuchung herausgefunden, dass Behauptungen mit dem Adverb sicherlich als »schwächer« verstanden werden als solche mit dem Adjektiv es ist sicher, die gewissermaßen objektiv verstanden werden.

Wie funktionieren solche abschwächenden Ausdrücke? Wir meinen: Damit verbürgt sich der Sprecher, dass er es für sicher hält, oder dass er es glaubt, dass Impfen sinnvoll ist. Das genügt in der Regel, um die Proposition, dass Impfen sinnvoll ist, in den Common Ground einzuführen. Zugleich entlastet es aber auch: Denn der Sprecher kann ja darauf pochen, dass man sich nur dafür verbürgt hat, dass man sich sicher war, oder dass man die Proposition geglaubt hat.

Damit kann man erklären, warum man sicherlich oder ich denke nicht negieren kann: *Impfen ist nicht sicherlich sinnvoll oder *Impfen ist sinnvoll, denke ich nicht sind unbrauchbare Sätze. Warum? Durch die Negation wird dem Hörer kein Grund gegeben, die Kernproposition, dass Impfen sinnvoll ist, in den Common Ground einzuführen. Und da dies die essenzielle Funktion dieser Ausdrücke ist, haben wir den Eindruck der Ungrammatikalität.

Ich selbst arbeite an einem Modell, das den Common Ground mit einer Zukunftsperspektive verbindet. Manche Sprechakte, wie zum Beispiel Assertionen, reichern den Common Ground mit Informationen an. Andere, wie zum Beispiel Fragen, schränken die mögliche Weiterentwicklung des Common Grounds ein. Mit Fragen, wie zum Beispiel Ist Impfen sinnvoll? oder Wer ist noch nicht geimpft?, will der Sprecher eine bestimmte Art von Antwort haben. Mit meinem Kollegen Ariel Cohen von der Ben-Gurion-Universität habe ich hierfür sogenannte Commitment Spaces vorgeschlagen – das ist ein Common Ground zusammen mit seinen möglichen Fortsetzungen.

Um hier die Idee ganz grundsätzlich vorzustellen: Wenn wir eine Kontextmenge haben, dann gibt es verschiedene Fortsetzungen, die wiederum auf bestimmte Weisen fortgesetzt werden können, und so weiter. In der Visualisierung wird dargestellt, wie eine solche Kontextmenge c durch vier Propositionen, p, q, die Negation von p, ¬p, und die Negation von q, ¬q, fortgesetzt werden kann. Die zugrundeliegende Struktur ist ähnlich wie bei der sich verzweigenden Zeit, hier haben wir es aber mit sich verzweigenden Informationszuständen zu tun. Es ist dabei zu beachten, dass in keinem Informationszustand eine Proposition p und ihre Negation ¬p bestehen darf, das wäre inkonsistent. In unserem Beispiel haben das Update mit p und das Update mit ¬p keinen gemeinsamen Nachfolger, das wäre ja die leere Kontextmenge.

Grafik mit Beschriftung: Kontextmenge c und mögliche Fortsetzungen durch p, nicht-p, q und r.

Die Assertion einer Proposition, hier zum Beispiel p, schränkt einen solchen Commitment Space ein auf diejenigen Informationszustände, für die diese Proposition wahr ist. Die Propo- sition p wird damit Teil des Common Grounds. Die Frage, ob p oder nicht p?, schränkt die Fort- setzungen des Commitment Spaces hingegen auf diejenigen Informationszustände ein, in de- nen p wahr ist oder in denen ¬p wahr ist. Anders als bei der Assertion wird dabei der ursprüngliche Common Ground c nicht verändert – es ist ja noch keine Information übermittelt worden, es wurde lediglich die Art eingeschränkt, wie der Common Ground sich entwickeln soll.

Zwei Grafiken mit Beschriftungen: Aussage p., Frage: p oder nicht p?

Mithilfe von solchen Commitment Spaces kann man verschiedene Arten von Fragen – Alternativfragen, Polaritätsfragen, Konstituentenfragen, tendenziöse Fragen, Frageanhängsel wie nicht wahr – modellieren. Mit Beste Kamali habe ich in diesem Rahmen dargestellt, wie im Türkischen komplexe Fragen im Zusammenspiel der Fragepartikel mi und der Prosodie entstehen.

Die Realität der Modelle

Wir kommen hiermit zum Ende der kleinen Revue von semantischen Fragestellungen, die ich im Laufe der letzten Jahrzehnte bearbeitet habe. Es sind bei weitem nicht alle, und natürlich hat die Semantik als Arbeitsgebiet sich einer unglaublich reichen Zahl von Phänomenen in vielen Sprachen gewidmet. Gerade heute weitet sich das Gebiet aus und bezieht Prosodie und Gesten ein – etwa in den Forschungen von Cornelia Ebert in Frankfurt – aber auch die Kommunikation mit Bildern, in tierischen Kommunikationssystemen und in der Musik – etwa im Werk von Philippe Schlenker in Paris. Ich konnte hier nur einen kleinen und hoffentlich anregenden Einblick geben.

Was ich heute vorgestellt habe, waren Modelle unseres Sprachverständnisses und unseres Sprachverhaltens. In meiner Arbeit verwende ich hierfür die formalen Methoden der Logik, Mengentheorie und Modelltheorie. Darauf bin ich heute Abend nicht eingegangen, um das Genre der Dankesrede nicht allzu sehr zu strapazieren. Ich habe lediglich versucht, einige Aspekte dieser Modelle zu illustrieren.

Aber sind diese Modelle eigentlich »real«? Führen wir wirklich Mengenschnitte, -vereinigungen und -komplementbildungen aus, wenn wir Bedeutungen konstruieren oder dekodieren? Was ist der Realitätsstatus dieser Modelle?

Es wäre gerechtfertigt, diese Frage einfach zurückzuweisen. Modelle beschreiben gewisse Aspekte der Realität; solang sie das gut tun, ist es okay; wenn Diskrepanzen auftreten, muss man sie eben verbessern.

Ich selbst sehe die Strukturen, welche unsere Modelle beschreiben, ähnlich wie die Mathematik, zum Beispiel die Arithmetik. Schon Tiere können kognitiv mit Quantitäten umgehen; in vielen Kulturen haben sich elementare oder auch avancierte Rechentechniken entwickelt. Mathematiker haben dann die dahinter liegenden Gesetze aufgedeckt – etwa, dass x mal (y plus z) gleich (x mal y) plus (x mal z) ist, also das Gesetz der Distributivität. Bedeutungen sind letztlich von der gleichen Natur wie Zahlen, und das Zusammenfügen von Bedeutungen entspricht mathematischen Operationen wie dem Addieren oder Wurzelziehen. Damit hätten Bedeutungen eine eigene, platonische Realität – auch das war bereits eine Einsicht des großen Gottlob Frege. Und damit gehörte die Sprachwissenschaft, zumindest die Semantik, doch zu den Geisteswissenschaften.