NVIDIA G-Sync, CRT's bald unnötig im Arcadekasten?

  • Sali zusammen,
    jemand schon was über NVIDIA G-Sync gelesen?
    Wir wissen, ein CRT ist immer noch ungeschlagen im Arcadekasten,
    TFT's sind leicht aber schmieren, fahren mit fest eingestellten Hz usw.
    Mit NVIDIA's G-Sync könnte das aber bald der Vergangenheit angehören,
    kein Schmieren mehr, absolut kein Tearing, das alles sogar mit variierenden Frames per second (FPS).
    Hier Demo anschauen:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Also ich finds irre, auf das habe ich irgendwie immer gehofft! :D


    greets
    Nedo

  • man kann auch aus nem schimmel kein zebra machen .. so nur mit paar aufgemalten streifen . ich meine so in 50 jahren etwa , wenn die letzten röhrenkisten plattgekloppt sind , würde ich auch in jubel ausbrechen .. aber so verzweifelt simmer doch noch nicht ..

  • .. aber so verzweifelt simmer doch noch nicht ..


    Gottseidank!
    Aber irgendwann isses soweit, wenigstens arbeiten sie daran.
    Was mir noch sehr gefällt, ist aber nur für PC User interessant, das Spiele
    die unter 20 FPS laufen immer noch flüssig dargestellt werden.
    Ruckler werden ein Relikt aus der Vergangenheit sein ! ;)


    Moin!

  • Bisher muss mich das ganze noch überzeugen.
    Genau der selbe Schwachsinn wie "Adaptive V-Sync".


    Vorallem bringt "uns" das leider garnichts :)
    Ist auch nicht besser als TrippleBuffer mit Software Throttle und ohne VSync.


    Ich glaube du verkennst diese Technik ziemlich stark. Nicht umsonst gibt es schon einige (die auch ein Cab besitzen) die diese Technik getestet haben und für gut befunden haben. Hab leider keinen 120Hz Monitor mit Lightstrobe und kann nicht selber berichten, aber es klingt "einleuchtend", warum es kein Tearing gibt, mit dieser Technik.
    Ist auf jeden Fall, der erste Schritt in die Richtung und mit Sicherheit besser als Tripplebuffer Gedöhns ;).

  • Wie gesagt, überzeugt hat mich das ganze noch nicht, zumal ich glaube das da viel reingedichtet wird.


    Sicher, der Stroboskop-Effekt ist prima um das schlieren von LCDs zu vermeiden (und im extremfall für ein minimales CRT Flimmern zu sorgen).
    (Stichwort 120Hz).


    Und bzgl. Tearing - Nun, was genau macht TrippleBuffering?
    Es gibt 3 Puffer, einer der angezeigt wird, einer der "vorgehalten wird", und ein dritter in dem gerendert wird.
    Eine 3D Anwendung rotiert die hinteren beiden, sprich wenn ein neuer Frame fertig ist, wird dieser "zur Anzeige" vorgemerkt und der "alte" wird gelöscht.
    Die Grafikkarte rotiert die vorderen beiden, wenn ein VSync Impuls kommt, wird der angezeigte nach hinten geschoben und der vorgehaltene an den Monitor geschickt.
    Problematisch wird das ganze, wenn zeitgleich noch VSync aktiv ist, da die 3D Anwendung dann auch nicht "schneller" oder "langsamer" kann als es die Grafikkarte zuläst.


    NVidias erste (zugegeben nicht ganz dumme) Idee war "Adaptive V-Sync" - Wenn du an einem 60 Hz Display sitzt, deine Grafikkarte aber grade keine 60 FPS schafft wird VSync still und heimlich deaktiviert, bis die Graka wieder auf 60 FPS kommt.
    Das Ergebnis ist flüssiger, kann aber tearen.


    G-Sync geht hier nun einen Schritt weiter und kombiniert das oben beschriebene TrippleBuffering mit adaptiven VSync.
    Wenn ich das richtig verstanden habe, wird zudem das Display mit der optimalen Frequenz (z.B. 120Hz) angefahren, und der Anwendung ein "gefälschtes" 60Hz VSync geliefert, wenn die Anwendung das möchte.


    Wie gesagt, muss mich noch überzeugen.

  • Nachtrag:
    Man könnte auch einfach MAME mit 144Hz laufen lassen, DoubleBuffering und Throttle sorgen für tearing-freies Spiel in "Orginalgeschwindigkeit".
    Das Problem das entsteht wenn man versucht ein 53Hz Mortal Kombat auf einem 60Hz, 120Hz oder 144Hz Display zu spielen - Es ruckt - wirst du auch mit G-SYNC nicht loswerden :)


    Ich lasse mich aber gerne (am lebenden Objekt) eines besseren belehren.

  • Theoretisch könnte man auch das Problem bei vielen Games beseitigen.
    Guter Artikel über die Materie, ab Seite 7-9 wird es interessant, das Thema hier betreffend:


    http://easymamecab.mameworld.info/html/monitor1.htm


    Mit der richtigen Formel müsste auch ein Mortal Kombat flüssig auf einem 60Hz LCD laufen. Indem man (so wie ich das verstanden habe), Pixel (bzw. Lines) hinzudichtet oder weg nimmt... je nachdem was für eine Frequenz erreicht werden soll.


    Hatte auch mal ein viel besseren Link, aber ich bin in Hamburg und komm nicht an die Links die ich in Frankfurt habe. Ich denke aber du weisst worauf ich hinaus will SailorSat ;).

  • Da muss ich dich enttäuschen, der Trick dabei ist ja die Horiztontal-Frequenz identisch zu halten, und durch mehr oder weniger Zeilen die Vertikal-Frequenz zu verändern.


    Die TFT-Elektronik geht aber fix von 60Hz aus (zumindest die meisten). Da hilft dann alles hin und her rechnen nicht :)
    (Deswegen kosten die Industrie-TFTs mit 24 bis 200Hz) auch gleich vierstellig für einen 19 Zoller ^^