Définition du mot : Plantaire
Plantaire (adjectif, masculin et féminin)
1. Relatif à la plante du pied : Le terme plantaire désigne tout ce qui concerne la surface inférieure du pied.
2. Relatif à une plante : Dans un contexte botanique, plantaire peut aussi désigner quelque chose qui provient ou est en rapport avec une plante.
Définitions d'autres mots
MiniDico.Com