Définition du mot : Directif
Directif (adjectif, masculin) :
1. Qui donne des instructions ou des indications précises pour orienter ou diriger une action ou un comportement.
2. Qui manifeste une tendance à imposer autoritairement ses points de vue ou ses décisions.
Directif (nom, masculin) :
1. Instruction ou ensemble d'instructions données dans le but orienter une action ou un processus.
Définitions d'autres mots
MiniDico.Com