Ich habe The Walking Dead gesehen und war sehr angetan (alle Staffeln) jedoch sind mit jetzt die Folgen ausgegangen welche anderen Horror Serien sind sonst noch empfehlenswert dachte jetzt z.B. an American Horror Story ist die Serie brutaler als The Walking Dead?
Und habt ihr noch andere Empfehlungen?
Würde mich über eine Antwort freuen :)