Zusammenhang "fps" und Bildwiederholfrequenz

Mandarine

treuer Stammgast
Hallo,

kann mir jemand mal erklären in wie weit "fps" (also "frames per second") und Bildwiederholfrequenz zusammen hängen? Konkreter:

Wenn mein TFT mit einer Frequenz von 60 Hz refresht wird, bringt eine "fps" Rate größer als 60 überhaupt noch was (bessers Bild)?

Sascha
 
fps ist das, was ein Programm auf einem Rechner erzeugen kann, um Abläufe flüssig
anzuzeigen. 20fps sind Diashow, 50 sind flüssig, je mehr, desto besser. Gerade bei
schnellen Bewegungen ist mehr immer besser.
Die BWH ist nur das technische Frontend. Stimmen fps und BWH nicht überein,
bekommen die Bilder auf dem Monitor Schnittkanten, d.h. es werden uU mehrere
Bilder gleichzeitig angezeigt. Sieht manchmal komisch aus und irrtiert je nach Szene.
Daher spielen Online-Zocker wie wir immer noch auf CRT (Röhre), da sind mindestens
85 Hertz angesagt, da flimmert nix.
 
Der Monitor stellt 60 Frames per Second (= Rahmen = Bilder pro Sekunde) dar. Das Spiel kann aber, je nach Rechenleistung und Komplexität mehr oder weniger fps berechnen. Wenn das Spiel mehr liefert, als der Bildschirm kann, dann werden die überzähligen auf das Teilbild aufgeteilt (edit: Schnittkanten, siehe Brummelchens Erklärung), in dem sie geliefert werden oder oder einfach ignoriert, das hängt von der Treibersoftware ab. Mehr fps als der Bildschirm kann, bringt nichts für die Anzeige. Wichtiger als eine hohe fps Rate ist eher eine konstante Rate, aber zu tief sollte sie natürlich auch nicht sein, ab ca <20fps fängt man an, ein deutliches Ruckeln wahrzunehmen. Kinofilme haben übrigens 24fps ;)

BTW: Wenn die Framerate wirklich sooo wichtig wäre, wie immer behauptet wird, würden alle Egoshooter Spieler mit Röhrenmonitoren, 640*480px und 250fps spielen. Ist sie aber nicht und LCDs flimmern dank der Trägheit der Flüssigkristalle eh weniger als CRT Computer Monitore mit den "schnellen" Phosphorsorten mit geringer Nachleuchtdauer ;)
 
Zuletzt bearbeitet:
Ich spiele mit 85fps bzw Hertz BWH, dann muss sich mein Moni nicht immer umstellen.
Da flimmert nichts, es leuchtet auch nichts nach, scheint also optimal. TFT sind immer
langsamer, die teuren sind aber besser und mit dem Overdrive dabei (wie das auch
immer sonst heissen mag) wird nochmal gepushed, damit die Pixel schneller umspringen.
Bei der Auflösung ist aber 1024 Minimum, je höher, desto detaillierter. Obwohl ich
1600*x für sinnfrei erachte, dann lieber AF oder AA rein für mehr Quali statt Quanti.
Ich kenne zufällig jemanden, der die das lieber auf CRT spielt, obwohl der TFT richtig
teuer war und eine gute Marke darstellt. Ich würde dem nicht widersprechen :D
 
Laser, sag ich! Laser :D

4*2.25m an die Wand projeziert und dann kommt auch das richtige "Umweltfeeling" auf :D

Die sind auch schnell, hell und verzerrungsfrei genug.

Hat nur 2 Nachteile: Man braucht eine freie Wand in der Größe und viel Geld ;)

PS: Wenn man nicht gerade rasante Actionteile spielt, reicht der TFT aber lang und dreckig aus. S.T.A.L.K.E.R. z.B. sieht in 16:10 auf meinem TFT richtig klasse aus :D
 
Zusammengefasst:

Röhrenmonitor: Spätestens ab 90 Hz flimmert nichts mehr.
Mehr fps ist immer gut, sollte nicht unter 25 Bilder/Sek. sinken. - Das Menschliche Auge verarbeitet ~25 Bilder in der Sekunde.

150 frames an einem TFT ist Verschwendung von Rechenleistung.
 
Oben