Hey Leute!
Ich habe mich letztens mal gefragt, warum an unseren Schulen eigentlich nicht Medizin unterrichtet wird? Denn krank werden wir alle mal, und dann weiß man besser was in einem vorgeht, und auch, wie man sich (selbst) heilen (lassen) kann. Das Problem ist natürlich, dass sich dann viele für super Mediziner halten und dann versuchen würden, sich komplett selbst zu heilen, ja, aber dennoch ist die Medizin etwas, was uns alle betrifft, so wie die Mathematik oder Sprachen, oder Chemie.
Warum also gibt es das Fach Medizin nicht an den Schulen?
Danke schon mal für die Antworten! :) JTR