Définition du mot : Carie
Carie (nom féminin)
1. Carie : Infection dentaire causée par la déminéralisation de l'émail, entraînant la formation de cavités dans les dents.
2. Carie : Terme désignant des lésions similaires sur d'autres tissus, comme dans le cas d'affections fongiques ou bactériennes.
Définitions d'autres mots
MiniDico.Com