Was bedeutet Fuß fassen?
Ich bin ja Arzthelferin arbeite zurzeit in einer Praxis werde aber im Gesundheitsamt anfangen zu arbeiten und ne Kollegin meinte zu mir ja man muss sich halt ausprobieren vielleicht ist es besser im Gesundheitsamt weil in einer Praxis ist es schwer Fuß zu fassen weil viele andere Arzthelferinnen Missgunst und Neid haben usw, meint sie damit es ist schwer zu bleiben in einer Praxis ?
4 Antworten
Wer "Fuß gefasst hat", der ist "etabliert" bzw. "gut angekommen" und anerkannt, egal ob im Berufsleben oder etwa in seinem Wohnort - jedenfalls in einem sozialen Gefüge und einer Gemeinschaft.
Bezüglich sozialer Berufe oder Berufe mit hohem Frauenanteil und entsprechend - ich meine das neutral - viel Futterneid-Gezickel hier und da ist es ansonsten in der Tat extrem schwer, Fuß zu fassen bzw. das emotional auszuhalten. Da ist eine Behörde, in der auch Männer arbeiten und eventuell Entscheidungsträger sind, wohl die geruhsamere bzw. ausgleichendere Art zu arbeiten.
Fuß fassen, bedeutet eigentlich kurz gesagt "Halt finden" also sich gut einleben.
Fuß fassen bedeutet, dass man sich gut einfügt/einlebt und sein Standing hat und dieses anerkannt wird.
Das ist aber überall in der Arbeitswelt so ... es kann überall komische Kollegen usw. geben ... das hat weder etwas mit dem Jobnoch der Arbeitsstelle an sich zu tun.
mit dilara wird das nichts werden - die kann sich nicht der arbeit anpassen .