Ist Deutschland eher an Westeuropa oder Osteuropa orientiert?

7 Antworten

Politisch und auch geographisch ist Deutschland westlich orientiert.

West.

Auch nach dem Mauerfall und der "Osterweiterung" ist das immer noch so. Aber Deutschland liegt ja reichlich in der Mitte Europas, da kann sich noch viel ändern.

eher an Zentraleuropa