Définition du mot : Dégermer
Dégermer (verbe) :
1. Dégermer signifie enlever les germes ou les éléments indésirables d'un aliment, notamment d'une gousse d'ail.
2. En botanique, dégermer se réfère à l'action de retirer les germes d'une plante ou d'un tubercule pour favoriser son développement ou sa conservation.
Définitions d'autres mots
MiniDico.Com