Contrat de travail

 

Contrats
Le contrat de travail désigne une convention par laquelle une personne, le salarié, s'engage à travailler pour le compte et sous la direction d'une autre, l'employeur, contre rémunération.