Haben meine Eltern das Recht mich zu zwingen Fleisch zu essen?
Meine Eltern halten nicht besonders viel davon das ich jetzt Vegetarier bin und wollen deswegen unbedingt das ich Fleisch esse, aber ich will das nicht, also können sie mich dazu zwingen?! Danke schonmal :)
Essen,
Gesundheit,
Ernährung,
Kinder,
Familie,
Fleisch,
Erziehung,
Jugendliche,
Eltern,
Ethik,
Vegetarismus