Man sagt ja, dass mit steigender Auflösung die CPU-Leistung immer mehr in den Hintergrund tritt. Ist eine Grafikkarte also zu 100% ausgelastet, so sind die FPS bei einer stärkeren und schwächeren CPU diesselben, sofern beide eigentlich mehr FPS liefern könnten, als die GPU gerade schafft.
Dies ist auch meistens so, aber nicht immer, wenn ich mir Spiele-Benchmarks ansehe.
Ein Beispiel, um das zu veranschaulichen:
Angenommen der stärkere Prozessor A schafft in der Auflösung 1080p durchschnittlich 100 FPS und der schwächere Prozessor B 80 FPS.
Und bei 1440p schafft Prozessor A durchschnittlich 70 FPS und Prozessor B 60 FPS. Wie kann das sein?
Wenn der schwächere Prozessor B in 1080p 80 FPS schafft, dann sollte dieser in 1440p zumindest genauso viel FPS (70) wie der stärkere Prozessor A schaffen, oder nicht?
Immerhin besteht offensichtlich ein GPU-Limit und die FPS im GPU-Limit liegen in diesem Beispiel doch tiefer, als das was die schwächere CPU außerhalb des GPU-Limits schafft.
Könnt ihr mir folgen? Was führt dazu, dass in einigen Szenarien/Spiele die Auflösung die CPU-Leistung beeinflusst? Ist das nicht eigentlich ausschließlich Sache der Graka?