Significado de: Derecho del trabajo | Definición, Concepto y Qué es: Derecho del trabajo


Significados, Definiciones, Conceptos de uso diario

El Derecho del trabajo que rigen las relaciones que tienen lugar a través del trabajo humano es el derecho laboral. Este es el conjunto de normas jurídicas que garantizan el respeto de las obligaciones de las partes a una relación laboral.
La legislación laboral considera el trabajo como actividad que una persona hace para cambiar el mundo exterior y a través del cual logra obtener los medios materiales o bienes económicos para sobrevivir.
Como un hecho social, el trabajo incluye el establecimiento de relaciones que no son absolutamente simétricas. El empleador (aquel que contrata al trabajador) tiene una fuerza importante contra el empleado. Es por ello que la legislación laboral pretende limitar un poco la libertad de la empresa para proteger la relación desequilibrada atribuida.
Para ello, el derecho al trabajo está basado en el principio de protección, a diferencia del derecho privado, de la cual el principio es que la igualdad legal. Dicho esto, el derecho al trabajo debe aplicar, respecto de las normas de la competencia, que es más favorable al trabajador.
Las relaciones laborales se rigen por un contrato de derecho del trabajo y varias jurisdicciones adicionales. Sin embargo, cada área de producción tiene sus propias reglas para gobernar las relaciones para no violar la ley de contrato de trabajo.
Además, existen los convenios colectivos de trabajo que se aplican a diferentes grupos profesionales. Estos acuerdos, que están de acuerdo entre las partes (empleadores y empleados) deben ser debe ser aprobado por el estado.
Observación: Esta traducción se proporciona con fines educativos y puede contener errores o ser imprecisa.

Contenidos Recomendados