Hey, ich habe eine komplett ernstgemeinte Frage.

Also, so gut wie jeder würde gerne reich sein, viel Geld haben, aber ich denke uns allen ist ziemlich Klar, das du bei den meisten Jobs (Wo du als Angestellter arbeitest) nicht wirklich ,,reich" wirst. Klar kann man als Angestellter noch extrem viel Geld verdienen, aber richtiger Millionär usw. wird man dadurch auch nicht.

Da frage ich mich, wieso hat jeder das Bild, das man unbedingt ein gutes Abi braucht um an einer Job Stelle angenommen zu werden?

Um wirklich Geld zu verdienen eröffnet man lieber eine eigene Firma, Unternehmen und arbeitet nicht im Büro oder sonst was. Aber trotzdem will jeder unbedingt ein gutes Abi, oder sieht Abi halt als sehr wichtig. Meine Eltern auch, ich bin selber auf einem Gymnasium und mache Abi, und klar mit einem Abi hat man Absicherung wenn's mal nicht klappt, aber warum arbeitet (Im Sinne von in der Schule lernen, für z.B. gute Noten in arbeiten) jeder unbedingt dafür um quasi ,,normal" zu verdienen? Ist es wirklich nur damit man eine ,,Absicherung" hat?

Vielen dank.