Im zweiten Teil unserer Themenwoche zum „Bericht zur Lage der deutschen Sprache“ soll es mir heute um den Beitrag von Peter Eisenberg um Anglizismen gehen, ((Eisenberg, Peter. 2013. Anglizismen im Deutschen. In Deutsche Akademie für Sprache und Dichtung und Union der deutschen Akademien der Wissenschaften (Hg.), Reichtum und Armut der deutschen Sprache. Erster Bericht zur Lage der deutschen Sprache, 57–119. Berlin: De Gruyter.)) nachdem Anatol gestern mit allgemeinen Einschätzungen zur Entwicklung des deutschen Wortschatzes begonnen hat.
Eisenberg beginnt seine Diskussion mit der Abarbeitung an zwei notwendigen, aber notorisch schwierigen Punkten. Der erste liegt darin, dass es alles andere als trivial ist, eine aus Laiensicht scheinbar klare Definition eines „Anglizismus“ zu finden und diese dann auf tatsächliche Beobachtungen anzuwenden: was zählt eigentlich als Anglizismus? Deshalb ist der Untersuchungsgegenstand zweitens auch nahezu unmöglich zu quantifizieren: welchen Anteil haben Anglizismen am deutschen Wortschatz denn nun tatsächlich?
Um keinen Anglizismus „zu verlieren“, wählt Eisenberg in seiner Analyse eine konservative Betrachtung: im Zweifel werden Wörter, die entweder nur in Teilen aus Lehngut zusammengesetzt sind oder bereits so weit integriert sind, dass sie nicht mehr als Lehnwörter wahrgenommen werden, zu den Anglizismen hinzugezählt. Wenn also selbst partnerschaftlich, touristisch oder Park dort auftauchen, kann man abschätzen, dass das Projekt sich nicht dem Vorwurf seitens der Sprachkritik aussetzen müsste, die Bedeutung und den Einfluss von Anglizismen herunterzuspielen.
Zentrales Ergebnis ist, dass sich die Anzahl der Anglizismen in der deutschen Standardsprache zwischen den beiden untersuchten Perioden 1905–1914 und 1995–2004 sowohl auf der Ebene der Wörter, als auch auf der Ebene der Verwendungsfrequenz erhöht hat. Das sollte niemanden überraschen, selbst dann nicht, wenn man sich vergegenwärtigt, dass sich in den 90 Jahren unsere Lebensrealitäten marginal verschoben haben. Die Zahlen aus Eisenbergs Untersuchung und Studien anderer Wissenschaftler/innen, die in den letzten Jahren dazu unternommen wurden, sind methodisch nicht vergleichbar (obgleich sie sich prozentual in einem ähnlichen niedrigen Bereich um etwa 3–6% der Lexikoneinträge bewegen) — aber es spricht nichts dafür, dass die Pegel der Anglizismusflut bedrohliche(re) Ausmaße angenommen hätten.
Das zentrale qualitative Ergebnis der Studie ist deshalb weitaus interessanter. Denn, so Eisenberg, bildete die Gruppe der englischen Lehnwörter früher „so etwas wie einen Worthaufen mit wenig Struktur“ (Eisenberg 2013: 114), lassen sich heute Muster im Anglizismeninventar erkennen, die deutlich darauf hindeuten, dass Entlehnungen den Strukturen und Regularitäten des Deutschen unterworfen sind bzw. werden. Ein Beispiel: das Derivationssuffix -ing hat nicht etwa das deutsche -ung verdrängt, sondern steht nur für Bildungen mit fremden Basen zur Verfügung, native -ung-Nomina bleiben davon unberührt. Wir haben Styling, aber nicht *Störing statt Störung.
Weitgehend analog zur Variation das Lesen/die Lesung ist das Muster das Stylen/das Styling für unterschiedliche Perspektiven auf den Vorgang und Resultat bzw. das Event in Gänze. Ergo: englisches Material zerstört nicht die Kerngrammatik des Deutschen, sondern hat es um das eine oder andere klar abgrenzbare, aber gut integrierte Paradigma ergänzt. Diagnose: das Deutsche ist gesund und es bedeutet eben genau nicht, dass wahllos alles entlehnt werden kann (oder wird). Was den Regularitäten des Deutschen unter phonologischen, morphologischen und syntaktischen Mustern nicht entspricht, wird diesen entweder angepasst — oder wird eben deutlich seltener entlehnt. Natürlich ist das ein bedeutender Einfluss des Englischen (der ja offenbar Resultat der erhöhten Entlehnungsaktivität ist), aber eben keiner, der nachhaltig die Integrationskraft des Deutschen stört.
Damit geht einher, dass die Anglizismen im heutigen Deutsch seltener „reine Anglizismen“ sind, sondern vermehrt Hybridbildungen (Partyschreck, handyfrei), sie setzen sich also aus entlehntem und nativem Material zusammen. Das führt uns wieder zurück zur Schwierigkeit, was zu Anglizismen gezählt werden kann — und wie man diese quantitativ erfasst. Aber am wenigsten spricht es dafür, dass Entlehnung eine Gefahr für das Inventar unserer Sprache darstellt.
Ich finde ja Eisenbergs Liste der jeweils 20 häufigsten Substantiven, Verben und Adjektiven aus dem Englischen interessant, die im Korpus des Projekts gezählt wurden: sie enthält nahezu ausnahmslos Begriffe, die im Fieberthermometer der Sprachnörglei, dem Anglizismen-Index des Verein Deutsche Sprache (VDS), entweder überhaupt nicht auftauchen oder als unproblematisch klassifiziert sind: 26 von 60 (43%) tauchen im Index nicht auf, 16 (27%) sind nach VDS-Klassifikation „ergänzend“ (=kein Fieber), acht (13%) „differenzierend“ (=mittleres Fieber) und ebenfalls nur acht (13%) entsprechen der Kategorie „verdrängend“ (=hohes Fieber). Das lässt darauf schließen, dass die Forscher/innengruppe Anglizismen in der Tat sehr inklusiv definiert und analysiert hat.
Diese Erkenntnis ist aber umgekehrt bemerkenswert, weil der VDS mit einer „Statistik“ zu seinem Index suggeriert, dass Deutsch völlig hilflos gegen die Fluten kämpft: immerhin macht die Klasse der höchst fieberauslösenden Wörter im Index 80%, die der gesundheitlich unbedenklichen aber nur 3% aus. Aber weil man mit Statistik ganz gut lügen kann, kommt hier eine Erklärung: im Anglizismenindex sind in erdrückender Mehrheit Einträge verzeichnet, die so selten (und: so absurd) sind, dass man bei gesundem Menschenverstand nur als Gelegenheitsbildung ansehen kann.
Der Umkehrschluss klingt deshalb beinahe trivial: je frequenter ein Anglizismus ist, desto wahrscheinlicher ist er stärker im Deutschen integriert — und desto wahrscheinlicher wird er nie auf dem Index landen. Ergo: erneut ein Indiz dafür, dass die Vorgehensweise der Studie sogar sehr wohlwollend und sensibel mit den Befürchtungen der Anglizismenkritikern umgeht. Denn würde man die frequenten und gut integrierten Begriffe rausnehmen, die in die 3–6%-Rechnung der Studien einfließen, würde die Quelle der Panikmache deutlich schneller versiegen, als manchem lieb sein dürfte. Ich werde darauf noch mal zurückkommen.
Theoretisch ist noch hervorzuheben, dass Eisenberg den Begriff des „Pseudoanglizismus“ explizit anspricht — und aus guten Gründen ablehnt. Und das begründet er so: die Tatsache, dass wir keinen Anglizismus formal und semantisch so verwenden, wie Sprecher/innen der Gebersprache, macht die Klassifizierung von Begriffen als „Pseudoanglizismus“ entweder überflüssig — oder aber man müsste aus diesen Gründen alle Anglizismen als „Pseudoanglizismen“ bezeichnen (denn, so Eisenberg, wir sprechen ja auch nicht von „Pseudofremdwörtern“). Diese Beobachtung entspricht auch ziemlich gut unserer Motivation, in nächster Zeit ausgewählte „Pseudoanglizismen“ etwas genauer unter die Lupe zu nehmen (was derzeit aus den vielen aktuellen Anlässen etwas unterbrochen werden muss). Für den Moment bietet Eisenbergs Studie durchaus ein paar spannende Gedanken für Anglizismusbetrachtung und eine öffentliche Auseinandersetzung.
Statt PS: Das Pressebarometer zum Lagebericht (eher unveränderlich).