heute wurde ich in einem meiner Deutschkurse mit einer Frage konfrontiert, auf die ich keine befriedigende Antwort wusste:
Wir besprachen Nationalitäten und die dazugehörigen Adjektive, als mich ein Amerikaner fragte, warum Deutschland eigentlich Deutschland heißt? Hintergrund der Frage war natürlich der englische Begriff für Deutschland: Germany…
Da es ja nun auch „Germanien“ als Begriff gibt, wollte er nun wissen, seit wann Deutschland nicht mehr Germanien heißt…
Und das würde ich jetzt auch gerne wissen: Wieso wurde aus dem (von den Römern???) geprägten Begriff „germania“ Deutschland und wann war das ungefähr?
Ich hoffe, ihr haltet mich jetzt nicht für total ungebildet und doof, sondern helft mir, dass ich diesem Amerikaner die Frage in der nächsten Unterrichtsstunde (abgesichert) beantworten kann.
warum Deutschland eigentlich Deutschland heißt?
seit wann Deutschland nicht mehr Germanien heißt…
hallo Uschi
meine erste Portugiesischlehrerin (geborene Italienerin) hat mir mal folgende - plausible - Erklärung geliefert:
jedes Volk hat uns (d.h. den Deutschen) den Namen desjenigen Volksstammes verpaßt, mit dem der erste Kontakt stattgefunden hat.
die Teutonen haben uns zu Teutschen (dedesci) gemacht;
aus den Allemannen wurden (franz., span., port., usw.) Alemand oder was ähnliches;
naja - die Germanen waren halt diejenigen, die der englischsprechenden Welt unseren Namen gegeben hat
Vielen, vielen Dank.
Du hast mir wirklich sehr geholfen.
Da andere offensichtlich auch interessiert sind, bin ich am Überlegen, ob ich den von Werner eingescannten Text nicht abtippen soll und hier reinstelle…