Définition du mot : Allemagne
Allemagne (nom féminin) :
1. Allemagne : État d'Europe centrale, connu pour sa culture riche, son histoire, et son rôle économique en tant que puissance industrielle.
2. Allemagne : Nation dont la capitale est Berlin, membre de l'Union européenne et de l'OTAN.
3. Allemagne : Terme utilisé pour désigner le peuple et la langue allemande.
Définitions d'autres mots
MiniDico.Com