Solange du die Spiele beim 24"-Bildschirm in nativer Auflösung spielen willst, d.h. in der Auflösung, in der das Bild besonders scharf ist, wird die Grafikkarte tatsächlich auch mehr beansprucht.
Ich möchte mich nicht als Experte ausgeben, aber ich fände es nur logisch wenn der Mehranspruch der GPU abhängig ist von der Anzahl der Pixel, die bei einem größeren Bildschirm hinzukommen.
Eine Beispielrechnung: die typische Auflösung bei 19"-Bildschirmen ist 1280x1024. Das sind dann 1.310.720 Pixel, also 1,3 Megapixel für die Grafikkarte zu berechnen (bei jedem einzelnen Bild, wohlgemerkt). Die volle Auflösung für einen 24"-Breitbild-Bildschirm beträgt 1920x1200. Das wären 2.304.000 Pixel, also 2,3 Megapixel – eine Steigerung um 76 %! Bei einer Auflösung von 1680x1050 merkt man, was die Qualität des Bildes angeht, kaum einen Unterschied, die Pixelanzahl sinkt jedoch auf 1.732.500, also auf 1,7 Megapixel – der Unterschied beträgt hier nur noch 32 %, weniger als die Hälfte Unterschied im Vergleich mit zur vollen Auflösung. Zur Not tut's auch noch die Auflösung von 1440x900, sie hat mit 1.296.000 Pixel sogar einen Tick (1,1 %) weniger zu berechnen als mit dem 19-Zoller.
Zwar ist bei der Leistung keine richtig lineare Entwicklung zu erwarten, aber als grobe Orientierung kann man die Werte schon nehmen, denke ich.
Wenn du jetzt noch beachtest, dass man sagt, dass ein Spiel bei einer durchschnittlichen Framerate von 30 Frames pro Sekunde (fps) als flüssig wahrgenommen wird, solltest du nach einem Messen der Framerate in deinem Wunschspiel (geht z.B. mit FRAPS) leicht ausrechnen können, bei welcher Auflösung deine Grafikkarte noch ein flüssiges Bild liefert.
Läuft dein Wunschspiel etwa mit durchschnittlich 40 fps, so reicht deine Grafikkarte für eine Auflösung von 1680x1050. Ab 53 fps sollte sogar Full-HD mit 1920x1200 möglich sein!
Hier der Download-Link zu FRAPS:
http://www.fraps.com/download.php