Ich habe oft mitbekommen, wie Leute so tun, als würden sie sich vegan oder vegetarisch ernähren, bzw nur für die Öffentlichkeit - ODER sie tun es tatsächlich, aber nicht aus Überzeugung, sondern weil sie es als Trend betrachten.
Habe mitbekommen wie viele sich wieder omnivor ernähren, also Tierprodukte wieder zu sich nehmen. Ich find es auch nicht schlimm,wenn jemand Fleisch isst oder so. Ich find es nur schlimm wenn etwas, was eigendlich ernst ist, als Trend dargestellt wird.
Ich ernähre mich seit 4 Jahren vegan und es ist ein Teil meiner Persönlichkeit.
Klar, soll jeder machen was er will. Aber wieso verkaufen Leute es als Trend oder Spaß ? Das triggert mich dezent. Ich meine entweder ganz oder gar nicht ?...