Sollte ich ein Buch (Roman) auf Deutsch oder Englisch lesen? Was für Bücher könnt ihr empfehlen?

Hallo,

ich bin 18/männlich und suche zur Zeit nach guten Romanen, die einen möglichst bedeutungsvollen Einfluss im Leben haben können. Also halt keine Bücher die man mal zwischendurch liest und wieder schnell vergisst, sondern welche, die einem im Leben prägen und bei der Weiterentwicklung helfen können.

Deshalb möchte ich also nichts dem Zufall überlassen, damit sich die Bücher bestmöglich positiv auf mich auswirken.

Ich stehe jetzt vor der Frage, ob ich einen deutschen oder englischen Roman lesen soll, weil ich denke mir auf der einen Seite, dass es auf englisch bestimmt bessere Bücher gibt, da es aufgrund des internationalen Einflusses eine größere Auswahl gibt und deutsche Bücher bloß einen geringen Teil ansprechen. Zudem denke ich mir, dass ich mein Englisch damit gut verbessern und mein Niveau steigern könnte. Auf der anderen Seite könnte es aber auch angenehmer/persönlicher sein, auf Deutsch zu lesen, da es meine Muttersprache ist und die deutsche Sprache ja eigentlich auch ziemlich schön und besonders ist.

Da ich aber schon sagen würde, dass mein Englisch bereits relativ fortgeschritten ist und ich mit der Sprache recht gut vertraut bin, geht es mir eher darum, auf welcher Sprache solche Romane die ich suche allgemein besser sind, völlig unabhängig davon, wie gut man die Sprachen beherrscht. Also ob ich eher einen original deutschen Roman oder einen original englischen Roman lesen sollte.

Es wäre also toll, wenn mir jemand der Ahnung in diesem Bereich hat einen Rat geben kann. Zudem würde ich mich auch sehr über Buchempfehlungen freuen.

Beides 60%
Auf Englisch 24%
Auf Deutsch 16%
Englisch, Buch, Deutsch, lesen, Teenager, Jugendliche, Psychologie, Entwicklung, Ferien, Jugend, Literatur, Roman, Weisheiten, Buchsuche, Novel, Erfahrungen
Wieso haben manche Amerikaner einen so coolen/perfekten Lifestyle und Deutsche nicht?

Hallo,

ich frage mich, wieso die USA im Vergleich zu allen anderen Ländern der Welt (z.B. Deutschland) so viel mehr fortgeschritten sind, was die Lebensweise bei manchen und das soziale Miteinander angeht.

Es kommt mir so vor, als ob die USA der Mittelpunkt der Welt ist, wo alles besser ist und einen höheren Standard hat.

Wenn ich mir nämlich amerikanische Medien angucke, bin ich einfach fassungslos, wie alles einfach so viel mehr fortgeschritten ist. Deutschland wirkt dagegen z.B. peinlich und ist ein Witz dagegen.

Hier mal ein paar Beispiele:

Amerikanische Filme:

https://youtu.be/YoHD9XEInc0

Deutsche Filme (gibt gefühlt nur Krimis und Komödien hier):

https://youtu.be/AIua9c869y4

Amerikanische Late-Night-Show:

https://youtu.be/ss9ygQqqL2Q

Deutsche Late-Night-Show:

https://youtu.be/g2_ttOiDIEA

Amerikanische Rapper:

https://youtu.be/yUif6C_uJgk

Deutsche Rapper:

https://youtu.be/FxrgHrpDbX0

Zuhause bei amerikanischen Prominenten:

https://youtu.be/yjhibJ-OqxE

Zuhause bei deutschen Prominenten:

https://youtu.be/otJBvewb1o8

Amerikanischer Humor:

https://youtu.be/gbxSpLDQehg

Deutscher Humor (hust hust):

https://youtu.be/fNfUZhTiDBQ

Amerikanische Landschaft:

Deutsche Landschaft:

New York City:

Berlin:

Deutsche Kassiererin:

Amerikanische Kassiererin:

Hier nochmal was zum gucken:

https://youtu.be/YKGSgPSZ-4k

https://youtu.be/Y0ZzB53-ukw

Und das könnte ich jetzt noch unendlich lange so weiter führen!

Warum ist das so???

Natürlich ist mir auch bewusst, dass viele Dinge in den USA auch schlimmer als in anderen Ländern sind, da es oft stärkere Extrema gibt (z.B. mehr Reiche und größere Armut usw.)

Bild zum Beitrag
Bier, Teenager, Amerika, USA, Ausland, Deutschland, Politik, Jugendliche, Bratwurst, Lederhose, Medien, Meinung, American Dream, Lifestyle, Umfrage