Ich war schon bei vielen Ärzten und bei manchen wird man neuerdings immer gefragt welchen Job man hat und muss das sogar auf einem Fragebogen aufschreiben. Ist das für etwas gut oder machen die das aus Neugier? Und können die an der Krankenkarte sehen ob man gesetzlich oder familienversichert ist?
Verwandte Themen
Ist es normal beim Arzt nach seinem Beruf gefragt zu werden?
Medizin,
Gesundheit,
Wissen,
Krankenversicherung,
Arzt,
Gesundheit und Medizin,
Krankenkasse