Ich mach nächstes Jahr mein Abi und dann will ich vllt danach in die USA gehen, für immer. Allerdings höre ich immer wieder, dass es furchtbar sein soll und Deutschland viel besser ist. Manche sagen aber auch das Gegenteil, nämlich dass es in den USA besser ist?

Würdet ihr in die USA gehen oder in Deutschland leben? Warum? Ich brauch mal ne neutrale Meinung.

Danke