Hey, ich würde mich gerne mehr mit der Geschichte Deutschlands (von Anfang an) beschäftigen. Meine Frage ist jetzt, ob ihr mir gute Bücher und für den Anfang evtl. auch 1 gutes Buch empfehlen könntet?
1 Buch, welches ich Heute im Osiander gesehen habe ist zum Beispiel "Deutsche Geschichte" vom Duden - Allgemeinbildung (vom 12.09.2022), hier der Link :
(https://www.osiander.de/shop/home/artikeldetails/A1063188953)
Das ist aber nur eine Idee, bitte schreibt einfach die eurer / deiner Meinung nach Besten Bücher über die Deutsche Geschichte rein:). Ich bin auch noch kein Geschichtsexperte, das heisst dass es gut wäre wenn im Buch auch die Begriffe z. T. erklärt werden, falls es nötig ist und man nicht unbedingt Vorwissen zum Lesen benötigt.
Danke im Voraus.