domingo, 30 de setembro de 2012

Definição de Direito do Trabalho


Definição de Direito do Trabalho 

Direito do trabalho é uma ciência autônoma com fundamentos, métodos, institutos e meios, que aplica princípios e regras jurídicas para alcançar uma relação de equilíbrio no mundo do trabalho, tanto na relação individual quanto na relação coletiva, entre empregados e empregadores em paralelo com uma relação estatal que permeia o mundo do trabalho, sendo a relação de trabalho gênero e relação de emprego espécie.

Paulo César Garcia