Kann meinen Bildschirm nicht mehr auf 144Hz stellen?

3 Antworten

mehr Hz heißt nicht besseres Bild. das ist bei alten röhren Monitoren früher gewesen die hatten diese Halogen ähnliche Röhren Lampen Licht. das hatte Eelektromagnetisches zeug drin, und UV lichter das Flimmerte. weil UV licht unsere Augen dazu bringt die Pupille zu verkleindern.

Bildwiederholrate war auch nicht so hoch. 

je weniger Hz. umso besser für unsere augen. LED hat bei Full HD oft nur 24Hz so viele Bilder die Sekunde. bei 4K dann 60Hz. das hat was mit Framrate zu tun. 

Bei LED flimmtert es nicht. wenn da 24 Bilder pro sekunde laufen. 

oder 30 Bilder. für 4K ist Full HD kein Problem. bei 60 bilder 4K Ruckelt es schon bisschen. 

24 hz sind für uns von 30 hz nicht zu unterscheiden. nur bei Aktion Szenen da wo alles schnell abläuft. aber bei Ruhigen Filme ist es Ruckelfrei. 60Hz heißt da Maximal 

dein Monitor arbeitet nicht die ganze zeit in dieser Hz bereich sondern kann sogar 1hz sein. das spart strom. das wäre 1 Bild pro sekunde. 

Rechne mal 4K bild mit 8 millionen Farben mal 144 das schafft kein Monitor. 


KolnFC  05.10.2017, 05:44

Was? Was bitte schreibst du da für einen Unsinn???

CRT Monitor nutzten eine Brownsche Röhre, das hat wirklich gar nichts mit Halogen Lampen zu tun. Nichts.

Blabla, den Unsinn mit "Eelektromagnetisches zeug drin [...]" lasse ich mal unkommentiert. Das ist falsch, einfach falsch.

"je weniger Hz. umso besser für unsere augen.",

nein. Wirklich gar nicht. Zum einen scheinst du nicht zu verstehen was z.B. ein Selbstleuchter ist (CRT, OLED usw.) und das die meisten TFTs mit PWM Hintergrundlicht betrieben werden und zum anderen stimmt das einfach nicht. Menschen tendieren z.B. dazu bei niedrigen Bildwiederholungen Kopfschmerzen zu bekommen, es ist auch anstrengender für die Augen usw.

"Bildwiederholrate war auch nicht so hoch.",

doch. Die Wiederholungsrate bei CRTs war deutlich höher als bei heutigen TFTs, bei guten Monitoren konnte man bei geringer Auflösung auch gerne mal auf 240Hz gehen.

"Bei LED flimmtert es nicht. wenn da 24 Bilder pro sekunde laufen.",

LEDs sind die Hintergrundbeleuchtung, das ist nicht die eigentlich Paneltechnologie, ist dir das klar? "Flimmern" tut gar nichts, das flimmern ist ein Effekt der durch die Aufnahme eines solchen Monitors entsteht mit einer Kamera, die mit einer anderen Frequenz Bilder aufnimmt.

"oder 30 Bilder. für 4K ist Full HD kein Problem. bei 60 bilder 4K Ruckelt es schon bisschen.",

was soll das heißen, eine gleichmäßig Bilderfolge ruckelt weder bei 30 noch bei 60 fps. 60 fps sieht für den Betrachter allerdings geschmeidiger aus. Für 4k ist FullHD kein Problem. Da kann ich dir nur zustimmen, 4k macht FullHD problemlos, sogar viermal, Riesending.

"24 hz sind für uns von 30 hz nicht zu unterscheiden. nur bei Aktion Szenen da wo alles schnell abläuft. aber bei Ruhigen Filme ist es Ruckelfrei. 60Hz heißt da Maximal",

für die meisten Menschen sind 24Hz nicht von 30Hz zu unterscheiden, das stimmt (übrigens, wir sind keine Computer, jeder Mensch empfindet anders). Was das mit irgendwas zu tun haben soll weiß ich nicht.

24Hz bzw besser 24p (progressive) ist ein Videostandard für 24 Vollbilder in der Sekunde, 30fps sind überhaupt kein Standard. Der Rest ist nicht verständlich - zumindest nicht für mich.

"dein Monitor arbeitet nicht die ganze zeit in dieser Hz bereich sondern kann sogar 1hz sein. das spart strom. das wäre 1 Bild pro sekunde. 

Rechne mal 4K bild mit 8 millionen Farben mal 144 das schafft kein Monitor.",

doch, tut er. Es gibt tatsächlich VESA Standards für Stromsparmechanismen bei Laptops (daraus ist AMDs FreeSync entstanden), hier regelt das Panel auf die tatsächlich Framerate herunter, allerdings nur in 3D Anwendungen und auch nur in einem gewissen Hertzbereich, kein Monitor arbeitet mit einem Hz, keiner, nie. Naja, vielleicht eine Leuchtreklame.

Wie kommst du auf 8 Millionen Farben? bei einer Farbtiefe von 24bit (8bit je Farbe bei RGB) haben wir 2^24 farben (knapp 16 Millionen), manche Monitor haben auch 10bit Kanal pro Farbe also bis circa eine Milliarde Farben. Was hat das mit irgendetwas zu tun???

Schwer ist es so etwas zu berechnen und anschließend die Datenmenge an das Panel zu liefern, für das Panel hingegen ist das überhaupt kein Problem.

Bitte informier dich nochmal, was du hier schreibst ist mit "wirr" noch sehr gutmütig bezeichnet.

0

Naja wer Treiber für nen Bildschirm braucht , da sollte man sich schon Gedanken darüber machen. Bei HDMI gibt es im Kabel diverse Qualitäts Unterschiede und diverse Standards wie z.B HDMI 1.4 und HDMI 2.0a bzw. b .Je nach Standard müssen dies auch die Komponenten abkönnen Grafikkarte,  Monitor und Kabel. kann eines der genannten Komponenten das nicht, so wird nur der maximal  Mögliche Standard genommen und dieser Aktiviert. Diesen hast dann zu Verfügung. Daher solltest auch mal hergehen und diverse HDMI Kabel testen ,oftmals gibts davon Unterschiede. Ich hab selbst mal mir mehre HDMI Kabel bei MM und SH gekauft diese waren alle für die Mülltonne gewesen. 125 Euro für 5 Kabel, Stolzer Preis ! . Da wundert es keinen warum da Leute immer vorsichtig mit dem Käufen sind. Von Vergoldet über doppelt abgeschirmt , Spezielle  Beschaltungen ,etc. Alles hat nichts gebracht. Bei aliexpress.com hab ich für 6 Euro nur ein einziges Kabel Bestellt (War sogar noch Versandkosten Frei aus China !)  .Dieses angeschlossen und BOING ! ,alles so wie ich es wollte. Und das mit meiner AMD RX 480 von XFX die HDMI 2.0b Unterstützt unter Linux (Linux Mint) . Manchmal steckt der Teufel im Detail. Es muss nicht zwangsweise  auch bei dir der Fall sein ,aber auch hier solltest mal Genau Kontrollieren. Lieber 50 mal genau hingesehen als einen Fehlkauf gemacht.


KolnFC  05.10.2017, 06:20

Das ärgerliche ist ja, dass es fast nie Informationen zu den verbauten Anschlüssen des Monitors gibt.

Bei der Grafikkarte ist das ein Verkaufsgrund und wird immer angegeben, Kabel kann man sich entsprechend ausgeschriebene holen aber beim Monitor... Ich habe mal bei prad.de geschaut, dort wurde er umfangreich getestet und selbst hier ist keine Angabe zu der HDMI Version.

Ich nehme übrigens an mit Treiber meint er seine Grafikkarte, ich wüsste nicht dass Benq eigene Treiber für seine Monitor veröffentlicht.

Aber wenn der Monitor bereits über DP und DVI-D verfügt, würde ich einfach mal davon ausgehen, dass die HDMI Anschlüsse nicht für den PC gedacht wurden und dementsprechend ältere verbaut wurden.

0
Silberfan  05.10.2017, 06:47
@KolnFC

Die Informationen zum Monitor kriegt man am besten beim Hersteller direkt. E-Mail Anfrage reicht. Es kann sein das die HDMI Anschlüsse nur HDMI 1.4 oder Älter Unterstützen keine 2.0a oder b wie bei deiner Grafikkarte vorgegeben. Möglich wäre das aber kann man nicht genau wissen oder erahnen ohne die technischen Daten des Monitores die man beim Hersteller bekommt.Mein HDMI Monitor ist ein 7 Jahre alter Fujitzu Siemens dem das Netzteil durchgebrannt ist . Ich hab das Netzteil getauscht (17 Euro inkl. Versand aus China) und seit dem läuft er wieder. Beim Hersteller kriege ich keine Infos mehr ,da muss ich in unzähligen Foren und Testberichten mir alle Daten mühsam zusammensuchen. auch ich hab ein BenQ Modell bei mir in Benutzung aber ein noch älteren 19 Zoll 4:3 der noch VGA und DVI Verbindung hat ,kein HDMI .Der hat noch klares und sauberes Bild den ich für meine arbeiten Nutze.


0

Wenn dein Kabel, der Anschluss deines Monitors oder Output deiner Grafikarte nicht HDMI >2.0 sind kannst du auch nicht 1920x1080 @144Hz einstellen.

Die deutlich weiter verbreiteten HDMI 1.4/ 1.4a/ 1.4b schaffen höchsten 120Hz in dieser Auflösung.

Ja, schließ das DVI Kabel wieder an, warum hast du es überhaupt gewechselt?


chengloke  05.10.2017, 05:07

DVI ist nicht so gut wie HDMI das kann man leichter anschlißen und wieder entfernen. DVI hat keinen Sound das muss man mit kabel extra anschließen. an den Kopfhöhrer anschlüsse. 

ein HDMI Premium kabel. besser als jedes DVI von 1990 zeit

0
KolnFC  05.10.2017, 05:18
@chengloke

Inwiefern ist "DVI nicht so gut wie HDMI", das ist ein digitales Signal ebenso wie HDMI, der einzige Unterschied besteht darin, dass bei HDMI noch ein DRM Kopierschutz  (HDCP) integriert ist.

Man kann auch Ton via DVI übertragen, über DVI-I (dafür sind die anlog Pins bei der Masse vorgesehen), das klappt jedoch nicht mit diesem Monitor, der hat nur einen DVI-D.

"das kann leichter anschlißen und wieder entfernen", Häh?

"ein HDMI Premium kabel. besser als jedes DVI von 1990 zeit", Mal abgesehen davon das diese "Sätze" orthographisch und semantisch keinen wirklichen Sinn ergeben wurde die Spezifikationen von dem Konsortium für den DVI 1.0 Standard 1999 veröffentlicht...

Tut mir leid, aber was du schreibst ist ziemlicher Unsinn.

1