Définition du mot : Santé
Santé (nom féminin) :
1. État de complet bien-être physique, mental et social, et ne consiste pas seulement en une absence de maladies ou d'infirmités.
2. Capacité d'un organisme à résister aux maladies et à maintenir un bon fonctionnement.
Santé se rapporte donc à l'état général de bien-être d'un individu.
Définitions d'autres mots
MiniDico.Com