Definição de Direito do Trabalho
Direito do trabalho é uma ciência
autônoma com fundamentos, métodos, institutos e meios, que aplica princípios e
regras jurídicas para alcançar uma relação de equilíbrio no mundo do trabalho,
tanto na relação individual quanto na relação coletiva, entre empregados e empregadores
em paralelo com uma relação estatal que permeia o mundo do trabalho, sendo a
relação de trabalho gênero e relação de emprego espécie.
Paulo César Garcia