Ist Deutschland noch offiziell besetzt von den USA?
Ich habe heute mal gelesen, dass das Besatzungsrecht der USA von bzw. Gegen Deutschland immer noch steht, stimmt das?
Deutsch,
Geschichte,
Politik