- Définition :
« Le droit du travail est l’ensemble des règles juridiques applicables aux relations
individuelles et collectives qui naissent à l’occasion du travail entre les employeurs privés ou
assimilés et ceux qui travaillent sous leur autorité.
Aucun commentaire:
Enregistrer un commentaire