MiniDico MiniDico.Com

Définition du mot : Carie

Carie (nom féminin)

1. Carie : Infection dentaire causée par la déminéralisation de l'émail, entraînant la formation de cavités dans les dents.
2. Carie : Terme désignant des lésions similaires sur d'autres tissus, comme dans le cas d'affections fongiques ou bactériennes.

Recherchez la définition d'un autre mot français

Retour à l'accueil