Droit du travail en France — Wikipédia

Le droit du travail est une branche du droit social qui régit les relations entre les employeurs et les salariés sous la forme du contrat de travail . En France , ces relations sont caractérisées par l'existence d'un lien de subordination juridique des salariés à leurs employeurs. Dès lors, le droit du travail a pour objet d'encadrer cette subordination et de limiter le déséquilibre...

Lire la suite

Date: 2018-04-22 12:42:50
Site : https://fr.wikipedia.org