jeudi 27 août 2015

Définition LE DROIT DE TRAVAIL

- Définition : « Le droit du travail est l’ensemble des règles juridiques applicables aux relations individuelles et collectives qui naissent à l’occasion du travail entre les employeurs privés ou assimilés et ceux qui travaillent sous leur autorité. 

Aucun commentaire:

Enregistrer un commentaire