Kategorie Lexikon

Grundlagen erklärt: Was regelt das Arbeitsrecht in Deutschland?

Was regelt das Arbeitsrecht

Das Arbeitsrecht in Deutschland regelt die Rechtsbeziehungen zwischen Arbeitnehmern und Arbeitgebern sowie die Interessenvertretung der Arbeitnehmer. Es umfasst verschiedene Gesetze, Verordnungen und Tarifverträge und schützt die Rechte der Arbeitnehmer. Das Arbeitsrecht regelt Themen wie Arbeitsverträge, Arbeitszeiten, Kündigungsschutz, Entgeltfortzahlung und Mutterschutz.…