Wozu 144hz +?

6 Antworten

Und schon geht's los^^ 90% haben keine Ahnung und die Gemüter kochen über...

Also ersteinmal nimmt das Auge keine Hz sondern nur Fps war.

Die 144hz bedeuten also keine 144fps Bildrate sondern geben nur Auskunft über die Bildwiederholungsfrequenz...

Das Auge kann je nach Individuum zwischen 50-70Fps wahrnehmen

Im Prinzip sind die Fps das Auschlaggebende Kriterium für eine flüssige Wahrnehmung. 

24 Fps erzeugen bereits bei Bildern mit technisch bedingter Unschärfe (wie bei normalen Kinofilmen) einen flüssigen Bildeindruck. 

Animierte Filme und Pc Spiele besitzen allerdings keine Bilder mit Unschärfen und benötigen für einen flüssigen Eindruck daher etwas mehr Fps. 

...Das in diesem Thread hier irgendwo gepostete YoutubeVideo ist übrigens totaler Schwachsinn, da einer der Monitore mit nur 15Fps lief...

Besitzt man nun einen Monitor mit einer Bildwiederholungsfrequenz von 60Hz und nutzt eine Bildrate von 30Fps, so werden die einzelnen Bilder doppelt als Vollbild gezeigt (also 30Fps x 2 = 60Hz) oder technische Tricks wie Interlacing und Co genutzt, um aus 30Fps 60Hz zu machen.

Nutzt man am gleichen Monitor nun nur noch 15 Fps, muss mehr getrickst werden, um die Bildwiederholungsrate wieder auf 60Hz hochzupeppeln, was für das Auge nicht mehr sehr schmeichelhaft aussieht.

Bei einem Monitor, auf dem 60Fps dargestellt werden, ist das Limit für das menschlicheAuge fast erreicht. Wird die Bildwiederholungsfrequenz nun auf 100Hz, 120Hz oder noch höher gemogelt, ist das dem Auge herzlich egal.

Wichtig ist also nicht vorrangig wieviel Hz ein Monitor besitzt(100Hz sind bei 60Fps völlig ausreichend), sondern auf wieviel Fps die Grafikkarte das Bild auf ihm ausgibt.

Würde man ein Spiel oder Film mit 100Fps auf einem Monitor ausgeben ohne die Bildwiederholungsfrequenz zu verändern (also auf 100Hz lassen) könnte niemand einen Unterschied zu einem Monitor mit 100Fps und 800Hz feststellen.


Agentpony  21.03.2017, 09:22

Da kannst du dich ja gerne in die Reihen der 90% einordnen :-) der Mensch sieht weder in FPS noch in Hertz. Unterschiedliche Elemente des Sehens haben unterschiedlich schnelle Ansprechzeiten. Einiges davon, wie zum Beispiel das Flimmerempfinden, kann auch bei hohen Bildwechselrate noch Unterschiede feststellen. Auf jeden Fall jenseits der 100Hz. Denn es gibt keine harte Grenze, ab wann sich das Bildempfinden nicht mehr verbessert. Mit einer entsprechenden Datenquelle (Höhe FPS mit ausreichender Bewegung) kann jeder auch den Unterschied zwischen 60und 90oder mehr wahrnehmen. Über 100 Stellen sich langsam weniger deutliche Ergebnisse ein, trotzdem ist ein Unterschied feststellbar.

1
Novolit  21.03.2017, 10:57
@Agentpony

Na du bist ja lustig^^ 

Natürlich sieht man nur Fps...vor allem wenn man einen Monitor betrachtet...denn der kann ja bekanntermaßen nur Fps wiedergeben (setzt dich in einen abgedunkelten Raum in dem nur der Monitor steht...Was siehst du..? Selbst wenn dein Auge unendlich viele Bilder pro Sekunde wahrnehmen könnte, würdest du nur immer wieder den selben Frame betrachten )

Auch wenn es unterschiedliche Ansprechzeiten gibt, so bildet die feinste Auflösung die maximal wahrnehmbare Bildrate. Also sieht man definitiv in Fps.

...Hz sind ja maximal noch was für die Ohren...

Die 90% sind darauf bezogen, dass die meisten keine Ahnung vom Zusammenhang und Unterschied zwischen Bildrate und Bildwiederholungsfrequenz haben. So wie du anscheinend auch...

Ich habe nie behauptet, dass es eine "harte" Grenze zur Bildempfindung gibt...sondern das man je nach Veranlagung 50-70Fps an unterschiedlichen Vollbildern wahrnehmen kann.

Wenn eine Filmquelle mit 24 oder 48 Fps auf ein vielfaches hochgetrickst wird, ist es doch klar, das beispielsweise Flimmereffekte entstehen können. Hatte ich oben beim Bsp. mit den 15Fps bereits angespielt. 

Natürlich sieht man bei wenigen Fps der Quelle auch eine Verbesserung bei steigender Bildwiederholungsfrequenz...Denn die gleichbleibenden Zwischen-und Halbbilder helfen dem Gehirn aus den wenigen unterschiedlichen Vollbildern einen flüssigen Bewegungsablauf zu empfinden.

Dies ist aber nicht mehr so, wenn die Quelle bereits 100Fps (also 100 unterschiedliche Vollbilder pro Sekunde)besitzt. Dadurch, dass wir etwa nur 50-70 unterschiedliche Vollbilder pro Sekunde verarbeiten können, sehen wir ca.1/4 vom gezeigten gar nicht mehr und eine Anhebung der Bildwiederholungsfrequenz durch Interlacing und Co macht keinen Sinn mehr. Warum sollte man auch ein sich vom Vorgänger unterscheidendes Vollbild durch ein gleichbleibendes Halbbild oder anderen Quatsch ersetzen..?

0
pokefan29  21.03.2017, 13:13
@Novolit

Der Monitor in besagtem Video lief übrigens nicht mit 15Hz und das Video ist daher auch kein Schwachsinn, dein englisch reicht nur anscheinend nicht aus. Das ganze wird nur mit einem Viertel der Geschwindigkeit (60/4=tada, 15) abgespielt, damit der Effekt verdeutlicht wird und auch für diejenigen erkennbar ist die 24Fps für völlig ausreichend halten.

Ich hab sowohl einen Bildschirm mit 120hz als auch einen 60hz- Monitor hier auf meinem Schreibtisch stehen, der Unterschied ist mehr als deutlich und auch außerhalb von Spielen sehr gut zu erkennen. Auch Leute die normalerweise nicht spielen und denen ich beide Monitore vorgesetzt habe haben bei mir fast immer bestätigt dass das 120hz-Modell ein sehr viel flüssigeres Bild hat.

0
Novolit  22.03.2017, 04:44
@pokefan29

Och Mensch Poke.., hast du überhaupt mal ne Sekunde drüber nachgedacht, was ich oben alles geschrieben habe???

Bin mit meinen Englischkenntnissen vollkommen zufrieden, danke der Nachfrage. Ich habe nie behauptet, dass der Monitor mit 15Hz läuft! Im Video vergleicht er das Spielen auf einem 60Hz Monitor gegenüber einem 120Hz Monitor...Was ja noch Sinn macht, insofern seine Grafikkarte auf dem 60Hz Monitor 60Fps und auf dem 120Hz Monitor 120Fps ausgibt. Sein Fehler ist allerdings die Slowmotionwiedergabe!!! Denn für den Zuschauer läuft der linke Monitor dann optisch nur noch auf 15Fps und ich hatte ausführlich erklärt, warum sowas ungünstig ist und dass animierte Filme und Pc Spiele mehr als 24 Fps brauchen, um einen flüssigen Eindruck zu erzeugen. 

Natürlich sieht man einen Unterschied zwischen 15Fps und 30Fps...um das zu zeigen, braucht man keinen 120Hz Monitor! Wenn ich 120Fps 8mal langsamer abspiele, hab ich auch nur noch 15Fps und der Bildverlauf ist dann natürlich genauso schlecht... Wenn er etwas vergleichen möchte, müsste er theoretisch beide auf 15Fps oder beide auf 30Fps laufen lassen... Deswegen ist das Video völlig sinnfrei...Würde er das Video in voller Geschwindigkeit laufen lassen, könnte nämlich so gut wie niemand einen Unterschied feststellen...

Nehmen wir mal an, der Typ hat gute Hardware und spielt auf dem 60Hz Monitor mit 60Fps und auf dem 120Hz Monitor mit 120Fps. Bei 60Fps, also 60 Vollbildern pro Sekunde, wird auf dem Monitor folglich alle 0.017Sekunden ein neues Bild ausgegeben. Ist wie bei Egoshootern üblich viel Bewegung im Spiel, muss das Gehirn die Menge an Daten aber auch verarbeiten können. Alle 0.017Sekunden ein neues Bild, welches im Vergleich zum Vorgängerbild neue Informationen enthält, geistig zu verarbeiten, ist eine enorme Leistung unseres Gehirns. Die physikalische Grenze dafür liegt laut derzeitiger Forschung bei 50-70 Vollbildern pro Sekunde...also 50-70Fps. Daher nützen 120Fps und Co auch nichts, da das Hirn gar nicht die Kapazität hat so viele Informationen zu verarbeiten. 144Fps beuten ja 1 neues Bild alle 0.007 Sekunden. Das ist schlichtweg zu viel an Dateninput und das Hirn fängt an auszublenden und nimmt nur noch ca. jeden zweiten Frame war. Dieser Effekt ist dir sicherlich schon selber begegnet...fährt ein Auto langsam oder steht, kannst du die Felgenspeichen sehr gut erkennen...Ab einer bestimmen Geschwindigkeit verschwimmt jedoch alles zu einem Brei, da sich die Bildinformation an der Stelle, wo sich die Felge befindet, zu schnell und zu häufig ändert.

Anders verhält es sich zum Bsp bei 30Fps auf auf einem 120Hz Monitor...Dann hast du 30 Vollbilder pro Sekunde, die die eigentlichen Informationen enthalten. Der Monitor trickst die 30Fps nun auf 120Hz hoch, indem er einfach ab und zu ein identisches Bild mehrmals hintereinander zeigt und mittels Interlacing und Co "schummelt". Denn er muss ja gezwungenermaßen zwischen jedem neuen Vollbild mit 3 zusätzlichen Bildern auffüllen, um aus 30 Bildern 120 zu zaubern. Daher der Unterschied zwischen Bildrate(Fps) und Bildwiederholungsfrequenz(Hz) eines Monitors. Weil unser Gehirn aber auf die Wahrnehmung von Bewegungen konditioniert ist, blendet es die künstlich zugefügten doppelten Bilder/Halbbilder, in denen ja keine neuen Informationen stecken, mittels Unschärfe aus. Dadurch bekommt man letztendlich aber dennoch einen flüssigereren Bildeindruck (obwohl nur 30Fps als Quelle dienen), da man ja bis zu 70Fps wahrnehmen könnte.

Hat eine Quelle (in diesem Fall die Grafikkarte) also nur wenig Leistung und gibt infolge dessen weniger als 70Fps auf dem Monitor aus, bringt ein Monitor mit einer Bildwiederholungsfrequenz größer 70Hz Vorteile. 

Hat die Grafikkarte viel Power, ist es egal ob sie mehr als 70Fps ausgibt...

Die Bildwiederholungsfrequenz hat also nur bedingt Aussagekraft. Es kommt drauf an, wieviel Fps deine Grafikkarte schafft! Spiele mal auf dem 60Hz Monitor mit 60Fps und zum Vergleich mit ner alten Grafikkarte auf dem 120Hz Monitor mit nur 15Fps...

Das ist auch der Grund, warum Profigamer so auf Fps fixiert sind. Von denen nutzt ja auch keiner einen TV mit 200Hz Panel, das auf 1000Hz hochgepusht wurde als Monitor...

Also immer schön Bildrate (Fps von der Graka) und maximale Bildwiederholungsfrequenz (Hz vom Monitor) unterscheiden.

《Bei 3d Inhalten mittels Shuttertechnik halbiert sich die Bildwiederholungsfrequenz und somit auch die Bildrate...In diesem speziellen Fall lohnt sich also eine Wiedergabe von 140Fps...》

Ich hoffe das war jetzt verständlich genug. Lg🖖

0

Am besten du probierst es mal selber aus und bestellst dir einen und wenn du der Meinung bist das du so etwas nicht brauchst, kannst du es ja wieder zurückschicken. Ich hab auch einen 144Hz Monitor und möchte ihn nicht mehr her geben, im gegensatz zu einem Kollegen der den selben nach 4 Tagen wieder zurückschickte, da ihm der Unterschied für den Preis zu gering war.

Also ich gehe mal nicht auf den ganzen dein Auge sieht nur so und so viel FPS Bullshit ein das ist nämlich Schwachsinn wer das glaubt kann auch auf den Weihnachtsmann warten.

144HZ bei einem Monitor bedeutet technisch gesehen das der Monitor alle 6.9ms ein neues Bild von deinem Rechner anfordert und wenn dein Rechner mehr als 144fps generiert bekommt er dieses auch. (Bei 60HZ sind es 16.7ms)

Je mehr fps dein Rechner generiert desto aktueller ist auch das Bild das der Monitor dann bekommt unabhängig davon wieviel HZ der Monitor hat. Zudem ist bei mehr FPS die Steuerung wesentlich direkter. Man merkt einen Unterschied von 100fps und 200fps bei 60hz also in der Steuerung (Maus)

Ob sich 144HZ (Oder mehr) für dich lohnt kommt auf die Spiele an die du spielst Bei schnellen shootern macht es mehr Sinn als bei Strategiespielen.

Ich selbst habe einen 144HZ Monitor und kann sagen das ich den Unterschied von 60 zu 144 sofort merke. Gespielt wird hauptsächlich Counter Strike.

Wenn dein Rechner die 144fps mal nicht packt und er den Monitor nicht mit Bildern versorgen kann kommt es zu Tearing (Bildzerreißen)

LG


lucha1  27.03.2017, 00:35

also ich habe kein tearing obwohl ich nicht immer 144fps habe

0
xGeTReKtx  27.03.2017, 05:59

Ja das ist bei manchen mehr bei manchen weniger evtl bemerkst du es auch gar nicht so wirklich.

0

Bei schnellen Bewegungen ist das Bild viel klarer. Außerdem wirkt alles viel flüssiger. Ob es den Aufpreis wert ist, musst du entscheiden. Vielleicht hat ein Bekannter solch ein Display zum ausprobieren?

Ansonsten bleibe bei 60hz, solange du noch daran gewöhnt bist :)

An den Antworten auf diese Frage sieht man schon den Irrglaube, der entsteht.

Die meisten Menschen erkennen einen dramatischen Unterschied zwischen 30hz und 60hz. Auch sind deutliche Unterschiede von 60hz aufwärts auf 144hz erkennbar. Voraussetzung dafür ist, dass schnellere Bewegungen in der Anwendung stattfinden. Für Office Anwendungen ergibt das also keinen Sinn. Es ist mehr eine Sache für Spieler und für industrielle Zwecke.

Fraglich und umstritten ist, wie sehr die Reaktion des Spielers bei einer Steigerung der hz verbessert wird. Da sind sich Studien und Ärzte, so viel ich weiss, nicht einig. Es hängt sehr stark vom beobachteten Bild ab. Ausserdem gibt es je nach Person Unterschiede.

Je nach Person und Anwendung können 144hz ein Segen sein, der dann nicht gerne wieder hergegeben wird. Es kann aber auch sein, dass es für den Anwender keinen Unterschied macht. Es ist also von Vorteil, sich einzulesen und letzlich die verschiedenen Monitore auszuprobieren.