Um es noch technischer zu machen...
Mehr als 24-30 Bilder/Sekunde kann unser Auge eh nicht Wahrnehmen.
Der Grund, warum wir dennoch einen Unterschied zwischen 30, 60 und mehr FPS wahrnehmen, liegt daran, das sich die Bilder von Frame zu Frame "plötzlich" verändern, was gegen die Natur unseres Sehvermögens ist.
Weiterhin haben die Bildwiederholraten von Grafikkarten den technischen Nachteil, das sie nicht immer "gleichmäßig" sind.
Denn 60 FPS, sagt nur, das 60 Bilder pro (in einer einzigen) Sekunde ausgegeben werden... nicht aber wie gleichmäßig.
Werden also zb. die ersten 50 Bilder in der ersten halben Sekunde ausgegeben, bleiben für die restliche halbe Sekunde nur noch 10 Bilder... was technisch als ruckeln wahrgenommen werden könnte, da zwar rechnerisch alle 60 Bilder in einer Sekunde ausgegeben wurden, man effektiv aber nur 20 Bilder pro Sekunde hat/hatte.
Das wird ohne "Framelimiter" unter Umständen sogar so auffällig, das es selbst bei 80-120 FPS zu starken schwankungen (Je nach Rechenaufwand der 3D-Scene zb.) kommen kann, und ggf. Ruckler auf Grund der Schwankungen entstehen können.
Der Monitor dagegen baut mit 60 Hz die 60 Bilder pro Sekunde konstant gleichmäßig auf.
Technisch gesehen dürfte es also bei 60 FPS NIE ruckeln, wenn der Monitor nur 60 Hz wieder gibt.
Und genau hier kommt der V-Sync zum Einsatz.
1. Wird damit verhindert, das es zum bekannten Tearing kommt.
2. Werden die Grakas leistungstechnisch (Wenn sie mehr könnten) entlastet, was einer gleich bleibenden Bildausgabe zugute kommt.
Fazit: Weniger ist manchmal mehr!
PS: Und damit ist auch der Grund erklärt, warum bei Monitoren Ihre Bildwiederholrate in Hertz und nicht FPS angegeben werden.
Denn Hertz (Hz) beschreibt eine konstante gleichmäßige "feste Frequenz".
Die Bildwiederholrate der Grafikkarten schwankt je nach Rechenleistung/Aufwand des Bildinhaltes, und wird deshalb "grob" als Bilder pro Sekunde (FPS = Frames Per Second) angegeben.