Das Tarifrecht

Definition

Der Tarifvertrag in Deutschland ist ein Vertrag zwischen den Tarifvertragsparteien.
Nach deutschem Recht enthält der Tarifvertrag Rechtsnormen, die den Inhalt, den Abschluss und die Beendigung von Arbeitsverhältnissen sowie betriebliche und betriebsverfassungsrechtliche Fragen (normativer Teil) regeln und die Rechte und Pflichten der Tarifvertragsparteien (schuldrechtlicher Teil) festlegen. Zu den Tarifvertragsparteien zählen einzelne Arbeitgeber oder Arbeitgeberverbände einerseits und für die Arbeitnehmer andererseits.
Wikipedia, Tarifrecht

Wichtige Fristen für Arbeitnehmer

Zauner weist auf für Arbeitnehmer wichtige Fristen hin.