PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G-SYNC - Mark Rein: "most amazing thing made by Nvidia"


Seiten : 1 2 [3] 4 5

Tesseract
2013-10-19, 21:01:51
Die Sache mit G-Sync, bzw. Displays bzw. Displayansteuerung mit variabler refresh rate ist ja an sich super, aber... mal ernsthaft... seit wann ist eine variable Framerate bei Spielen gut :tongue:?
die frage ob sie gut ist der nicht stellt sich nicht weil man sich das in modernen spielen nicht aussuchen kann. wenn du dich frei drehen, unterschiedlich viele objekte im blickfeld haben und relativ frei mit der spielwelt interagieren kannst schwanken die fps nunmal, ob man will oder nicht.

aufkrawall
2013-10-19, 21:04:01
So lange die fps hoch genug sind, ist der Einbruch nicht so schlimm.
Etwa ein Einbruch von 90fps auf 70 oder so etwas, das wär mit G-Sync schon eine enorme Verbesserung gegenüber Status Quo.

wn612953
2013-10-19, 21:07:13
die frage ob sie gut ist der nicht stellt sich nicht weil man sich das in modernen spielen nicht aussuchen kann.


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514042

;)

Schaffe89
2013-10-19, 21:08:21
G-Sync bewirkt, dass der Monitor eben keine fixe "Hertz Rate" (Refresh rate / Bildwiederholrate) mehr hat...


Ach was?..

Ich meinte ja was ganz anderes. Angenommen du bewegst dich mit den Frames sogut wie immer über 60 Hertz und kann Adaptives V-sync aktivieren.

Welchen Vorteil habe ich dann noch von G-sync?

aufkrawall
2013-10-19, 21:08:54
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514042

;)
Ein fps-Limit ist ein wesentlich schlechterer Kompromiss, weil dadurch die GPU ausgebremst wird, man Tearing hat und es wesentlich weniger flüssig läuft.
Außerdem wird es immer Szenen geben, in denen man unter die festgelegten fps rutscht, sofern die nicht absurd niedrig angesetzt sind.

Edit: @Schaffe: Wurd hier schon zig mal erklärt oder angedeutet.

dargo
2013-10-19, 21:16:16
die frage ob sie gut ist der nicht stellt sich nicht weil man sich das in modernen spielen nicht aussuchen kann. wenn du dich frei drehen, unterschiedlich viele objekte im blickfeld haben und relativ frei mit der spielwelt interagieren kannst schwanken die fps nunmal, ob man will oder nicht.
:confused:

Aus dem Grund nutze ich schon lange einen Framelimiter. Beispiel... in BF3 setze ich 70fps als Limit an. Die gleichmäßige Framerate fühlt sich einfach besser an als ständig schwankend. Wenn da mal für 1-2 Sekunden die Framerate knapp unter 70fps fällt (zb. 62fps) dann stört mich das nicht. Eine stark schwankende Framerate bsw. zwischen 62 und 130fps dagegen schon.

Schaffe89
2013-10-19, 21:17:05
Edit: @Schaffe: Wurd hier schon zig mal erklärt oder angedeutet.

Na was jetzt, angedeutet oder erklärt? Selbst wenn das Bild mal 1 oder 2 FPS unter die 60 FPS Marke fällt, ist das doch nicht der Rede Wert, oder doch?

Mir gefällt ja die Grundidee dahinter, der wirkliche Sinn erschließt sich mir aber nicht, vor allem nicht wegem dem horrenden Aufpreis, der Herstellergebundenheit und der Tatsache dass die Probleme die damit gelöst werden sollen grad ziemlich aufgebauscht werden.

Schlimmes Tearing, starker Inputlag... was für ein Blödsinn.

Das "most amazing thing done by Nvidia " scheint in der Form wirklich mal ein Störfeuer zu sein. ;)

Tesseract
2013-10-19, 21:23:57
Aus dem Grund nutze ich schon lange einen Framelimiter. Beispiel... in BF3 setze ich 70fps als Limit an. Die gleichmäßige Framerate fühlt sich einfach besser an als ständig schwankend. Wenn da mal für 1-2 Sekunden die Framerate knapp unter 70fps fällt (zb. 62fps) dann stört mich das nicht. Eine stark schwankende Framerate bsw. zwischen 62 und 130fps dagegen schon.
das ist ja auch ein monitor mit einer festen refreshrate. frameschwankungen haben da direkten einfluß auf das tearing und damit auch welche teile des bildes wie alt sind. auch wenn du das tearing vielleicht nicht immer siehst wirst du es wohl unterbewusst trotzdem wahrnehmen bzw. die dadurch entstehenden kontinuitätsschwankungen.

Ich meinte ja was ganz anderes. Angenommen du bewegst dich mit den Frames sogut wie immer über 60 Hertz und kann Adaptives V-sync aktivieren.

wenn die fps meistens zwischen 60 und 120 liegen hast du mit einem 120Hz gsync gegenüber einem klassischen 120Hzer das bessere frameverhalten und gegenüber dem klasssichen 60Hzer eine bessere bewegungsdarstellung und (wahrscheinlich) in beiden fällen weniger weniger inputlag.
mit einem 60Hz gsync hättest du kaum einen vorteil aber in dem fall könnte man sagen die restliche hardware ist eigentlich überdimensioniert.

dargo
2013-10-19, 21:31:42
Ein fps-Limit ist ein wesentlich schlechterer Kompromiss, weil dadurch die GPU ausgebremst wird, man Tearing hat und es wesentlich weniger flüssig läuft.

Hä?

1. Wen juckt das ob die GPU bei einem Framelimit ausgebremst wird wenn die Framerate schon höher ist als die Refreshrate vom Bildschirm? Die Ökos wirds sogar freuen.

2. Ich frage mich immer wieder was ihr mit eurem Tearing habt? Was spielt ihr wo dieses Tearing so störend auffallen soll? Eine ernst gemeinte Frage damit ich das eventuell nachstellen kann. Mit welcher Framerate? Wenn ich einen Framelimit von 70fps setze dann ist Tearing quasi nicht existent solange die Framerate gehalten wird. Je nach Spiel/Szene ist mir Tearing nur kurzeitig negativ aufgefallen wenn die Framerate knapp unter der Bildschirmrate (bsw. 58fps) oder knapp drüber (62fps) gelegen hat. Was habt ihr alle für Bildschirme, dass es dermaßen teared?

3. Weniger flüssig? lol... siehe 1.


Außerdem wird es immer Szenen geben, in denen man unter die festgelegten fps rutscht, sofern die nicht absurd niedrig angesetzt sind.

Und deswegen brauche ich jetzt G-Sync weil in einer Stunde Spielzeit ich für wenige Sekunden unter meinem festgelegten Framelimit bin? tsss


mit einem 60Hz gsync hättest du kaum einen vorteil aber in dem fall könnte man sagen die restliche hardware ist eigentlich überdimensioniert.
Spiele haben viel zu unterschiedliche Lastzustände, überdimensioniert gibts da nicht. Hat man beim Spiel XY noch viel Luft investiert man halt weiter in Bildqualität wie zb. SSAA/DS.

Tesseract
2013-10-19, 21:39:29
Was habt ihr alle für Bildschirme, dass es dermaßen teared?
das hat nicht direkt mit dem bildschirm zu tun sondern mit dem verhältnis framerate zu refreshrate.

Was spielt ihr wo dieses Tearing so störend auffallen soll? Eine ernst gemeinte Frage damit ich das eventuell nachstellen kann.
überall und das ist eine ernst gemeinte antwort. tearing ist genau so störend wie flimmern, aliasing usw. und mindestens genau so häufig sichtbar. ich weiß echt nicht wo da der unterschied sein soll.

Spiele haben viel zu unterschiedliche Lastzustände, überdimensioniert gibts da nicht. Hat man beim Spiel XY noch viel Luft investiert man halt weiter in Bildqualität wie zb. SSAA/DS.
und genau deswegen ist es wichtig, dass der monitor damit gut umgehen kann. "konstant über 60" sind vielleicht nur noch "gerade so 60" in einem anderen spiel und schon hat man probleme.

Sven77
2013-10-19, 21:39:56
Also Tearing ist eigentlich immer präsent ohne Vsync, manche sehen es eben mehr als andere.. mich stört es schon sehr z.B. bei BF3

Gipsel
2013-10-19, 21:41:14
Wenns so einfach ist wie du sagst, wieso hat das dann bisher noch keiner gemacht und wieso lizensieren die Hersteller nen teures Modul von Nvidia, statt das billig selber zu entwickeln und für paar cent zu verbaun? Ich hab keine Ahnung wie schwer oder einfach das ist, aber es wundert mich einfach. Patentschwierigkeiten kann man meist irgendwie durch ne andere Implementierung umschiffen. Bei Asus als Nv Partner kann ichs auch noch verstehen, aber Viewsonic und Philips? Da sollte das doch kein Problem sein sowas dann selber zu machen.Die Ideen dazu schwirren eigentlich schon länger rum. Aber zum einen geht es eben erst mit Displayport (und wie lange gibt es entsprechende Monitore mit halbwegs Stückzahl?) und zum anderen würde ich erstmal abwarten, was Viewsonic und Philips denn genau machen werden. Ich bin mir nicht so sicher, daß die das Modul einbauen, was nV da vorgezeigt hat ;).
Und daran, daß das am Ende auch mit AMD-Karten funktioniert (wie Lightboost), will ich noch gar nicht denken.

dargo
2013-10-19, 21:43:57
das hat nicht direkt mit dem bildschirm zu tun sondern mit dem verhältnis framerate zu refreshrate.

Dann kann es nur noch daran liegen, dass deine Hardware zu schwach ist und du sehr oft mit weniger fps unterwegs bist als die Refreshrate von deinem Bildschirm.


und genau deswegen ist es wichtig, dass der monitor damit gut umgehen kann. "konstant über 60" sind vielleicht nur noch "gerade so 60" in einem anderen spiel und schon hat man probleme.
Nein... hat man nicht. Am PC gibt es immer noch Grafikoptionen. Erst wenn die nicht mehr helfen hat man ein Problem. Dann ist aber schon lange schnellere Hardware fällig.

Tesseract
2013-10-19, 21:47:08
Dann kann es nur noch daran liegen, dass deine Hardware zu schwach ist und du sehr oft mit weniger fps unterwegs bist als die Refreshrate von deinem Bildschirm.

tearing hast du oberhalb der refreshrate genauso. deswegen versuche ich auch seit jahren hardwaremäßig zu aufgestellt zu sein, dass ich mit aktivem vsync konstant die refreshrate des monitors halten kann. notfalls werden halt die ingamesettings etwas runtergeschraubt. der frameverlauf ist bei mir fast immer eine absolut gerade linie, die momentan halt bei 60 liegt.

Nein... hat man nicht. Am PC gibt es immer noch Grafikoptionen. Erst wenn die nicht mehr helfen hat man ein Problem. Dann ist aber schon lange schnellere Hardware fällig.

es geht um die varianz. um bei einer konstanten refreshrate die fps konstant halten zu können müssen die einstellungen so gewählt sein, dass die durchschnitts-fps deutlich darüber liegen und das ist eigentlich verschwendetes potenzial.

AffenJack
2013-10-19, 21:48:30
2. Ich frage mich immer wieder was ihr mit eurem Tearing habt? Was spielt ihr wo dieses Tearing so störend auffallen soll? Eine ernst gemeinte Frage damit ich das eventuell nachstellen kann. Mit welcher Framerate? Wenn ich einen Framelimit von 70fps setze dann ist Tearing quasi nicht existent solange die Framerate gehalten wird. Je nach Spiel/Szene ist mir Tearing nur kurzeitig negativ aufgefallen wenn die Framerate knapp unter der Bildschirmrate (bsw. 58fps) oder knapp drüber (62fps) gelegen hat. Was habt ihr alle für Bildschirme, dass es dermaßen teared?

Spiele haben viel zu unterschiedliche Lastzustände, überdimensioniert gibts da nicht. Hat man beim Spiel XY noch viel Luft investiert man halt weiter in Bildqualität wie zb. SSAA/DS.

Ich habe Tearing glaube auf jedem 60Hz Bildschirm gesehen, den ich bei Spielen gesehen hab. Wann genau bzw bei welchen FPS kann ich so schlecht sagen, aber ich finde es deutlich schlimmer als ein paar Kanten die ich mit SSAA/DS wegbügeln kann. An die Kanten gewöhn ich mich im Spiel und es ist ok, aber das Tearing bei schnellen Drehungen reißt mich immer eher aus dem Spielgeschehen raus.

aufkrawall
2013-10-19, 21:57:57
Schlimmes Tearing, starker Inputlag... was für ein Blödsinn.

Das "most amazing thing done by Nvidia " scheint in der Form wirklich mal ein Störfeuer zu sein. ;)
Wieso ist so was bei dir eigentlich immer vorhersehbar, wenns um NV geht?


1. Wen juckt das ob die GPU bei einem Framelimit ausgebremst wird wenn die Framerate schon höher ist als die Refreshrate vom Bildschirm? Die Ökos wirds sogar freuen.

Du hast ein weniger flüssiges Bild als es möglich wäre.


2. Ich frage mich immer wieder was ihr mit eurem Tearing habt? Was spielt ihr wo dieses Tearing so störend auffallen soll? Eine ernst gemeinte Frage damit ich das eventuell nachstellen kann. Mit welcher Framerate? Wenn ich einen Framelimit von 70fps setze dann ist Tearing quasi nicht existent solange die Framerate gehalten wird. Je nach Spiel/Szene ist mir Tearing nur kurzeitig negativ aufgefallen wenn die Framerate knapp unter der Bildschirmrate (bsw. 58fps) oder knapp drüber (62fps) gelegen hat. Was habt ihr alle für Bildschirme, dass es dermaßen teared?

Es ist nicht nur das wahrnehmbare Tearing (auch wenn mich das persönlich bisweilen ziemlich nervt, wenn auch mit 144Hz bei hohen fps eher weniger). Weil es ohne Vsync eben keine echten z.B. 70fps sind, sondern durch die Zerstückelung weniger. Deshalb laufen gesyncte 60fps ja auch flüssiger als ungesyncte 70 (jetzt mal den Lag außen vor gelassen, darum gehts gerade nicht).



3. Weniger flüssig? lol... siehe 1.

Weniger flüssig als G-Sync natürlich, da gibts gar nichts zu diskutieren.


Und deswegen brauche ich jetzt G-Sync weil in einer Stunde Spielzeit ich für wenige Sekunden unter meinem festgelegten Framelimit bin? tsss

Dann verschwendet dein fps-Limit zu viele fps.

wn612953
2013-10-19, 22:35:05
Ein fps-Limit ist ein wesentlich schlechterer Kompromiss, weil dadurch die GPU ausgebremst wird, man Tearing hat und es wesentlich weniger flüssig läuft.
Außerdem wird es immer Szenen geben, in denen man unter die festgelegten fps rutscht, sofern die nicht absurd niedrig angesetzt sind.


Man hat mit einem Frameratelimit kein Tearing. Zumindest wenn man zusätzlich V-Sync nutzt.

Der Frameratelimiter wird durch G-Sync aber IMHO erst so richtig interessant.

Denn:

Mal angenommen man hat ein 120 Hz Display ohne G-Sync und außerdem ein Spiel bei welchem die Minimalframerate bei beispielsweise 53 fps liegt.

Nun müsste man, um keine Framerateeinbrüche, kein Tearing und keinen Pulldown zu haben, die Framerate auf 40 fps limitieren.

Das ist natürlich schlecht, da sich 40 fps IMHO wesentlich weniger flüssig anfühlen als 53 fps.

Wenn man aber nun ein Display mit G-Sync hat, könnte man die Framerate einfach auf 53 fps limitieren :).

aufkrawall
2013-10-19, 22:38:23
Man hat mit einem Frameratelimit kein Tearing. Zumindest wenn man zusätzlich V-Sync nutzt.

Das gibt wieder Judder, sollte dir eigentlich klar sein.


Der Frameratelimiter wird durch G-Sync IMHO erst so richtig interessant.

Denn:

Mal angenommen man hat ein 120 Hz Display ohne G-Sync und außerdem ein Spiel bei welchem die Minimalframerate bei beispielsweise 53 fps liegt.

Nun müsste man, um keine Framerateeinbrüche, kein Tearing und keinen Pulldown zu haben, die Framerate auf 40 fps limitieren.

Das ist natürlich schlecht, da sich 40 fps IMHO wesentlich weniger flüssig anfühlen als 53 fps.

Wenn man aber nun ein Display mit G-Sync hat, könnte man die Framerate einfach auf 53 fps limitieren :).
Oh wow, wie revolutionär.
Und warum erstell ich nicht einfach ne Custom Resolution mit 53Hz und mach Vsync an?

Tesseract
2013-10-19, 22:42:25
Man hat mit einem Frameratelimit kein Tearing. Zumindest wenn man zusätzlich V-Sync nutzt.

ein framelimiter oberhalb von vsync macht garnix und unterhalb vom vsync führt er nur zu hängern (doppelframes) alle paar frames. das ist das sinnloseste was man überhaupt einstellen kann.

wn612953
2013-10-19, 22:43:30
Oh wow, wie revolutionär.
Und warum erstell ich nicht einfach ne Custom Resolution mit 53Hz und mach Vsync an?


Weil die wenigsten Displays, AFAIK, 53 Hz überhaupt als Input akzeptieren.

Und, nur weil ein Display 53 Hz als Input akzeptiert, heißt das noch lange nicht, dass der Output auch nativ mit 53 Hz erfolgt.

53 fps waren eh nur ein Beispiel.

53 Hz wird vielleicht noch von dem ein oder anderen Display als Input akzeptiert (weil es noch relativ nah an 60 Hz liegt).

Bei noch geringeren Bildwiederholraten, wie beispielsweise 42 Hz oder 36 Hz usw. sieht es dann schon schlechter aus AFAIK.

aufkrawall
2013-10-19, 22:48:09
Die ganzen Gamer-TNs (um welche es ja vorerst bei G-Sync gehen wird) können alle recht tief gehen und einige IPS, die an die 120Hz erreichen, womöglich auch.
Mein XL2411T macht btw. bis einschließlich 23Hz mit.

Skysnake
2013-10-19, 22:50:47
davon kommt ja auch das tearing: der refresh ist z.B. in zeile 534, dann swappt die graka auf den aktuelleren framebuffer, zeile 535 wird aus dem aktuelleren refresht und da sich das bild im neueren framebuffer schon etwas weiterbewegt hat gibt es an der stelle einen tear.
Tearing fällt aber auch nur auf, wenn die Veränderung im Content groß genug ist, um man irgendwelche Symmetrien hat, die man dann auseinanderhalten kann. Und dann muss der Versatz eben auch noch im mittleren Bildbereich sein. In Zeile 10 oder 1075 wirst du das eigentlich nie sehen, also aktiv wahrnehmen.

Typisch sind sehr! schnelle Drehbewegungen, schnele Fahren nach vorne, wobei man da wirklich sich sehr schnell bewegen muss, oder halt Explosionen usw die halt nach oben Aufsteigen, wobei da oft so chaotische Strukturen vorhanden sind, das man es eigentlich nur am Durchmesser erkennt.

Es ist halt wie beim Flimmern. Es gibt Content und Spiele, die sehr anfällig sind, und welche bei denen es überhaupt nicht auffällt.

Wenn du in Shootern z.B. dich einfach nicht schnell genug drehen kannst, damit man mehr als ein paar Pixel breite Verschiebung hat, dann siehste halt auch nichts.

Tearing ist halt nicht gleich. Die Auffälligkeit nimmt mit zunehmender Bildwiederholungsrate extrem ab.

Klar, weil das Bild kürzer angezeigt wird UND! dazu auch noch die Varianz zwischen den Bildern immer kleiner wird. Wenns bei ~30 FPS 40 Pixel in der Breite Verschiebung sind, sind es halt bei ~60 FPS nur noch 20 Pixel usw.


Der Inhalt ist auch entscheidend. Bei einem Standbild sieht man null und mit steigender Geschwindigkeit der Objekte nimmt es zu. Rennspiele sind gut wenn du etwas bemerken willst.

Wobei gerade bei Rennspielen finde ich es eher schwierig das zu sehen, vielleicht sind die FPS bei mir da aber auch immer zu hoch.

Ich glaub Doom3/Rage war es, da ist mir das Tearing EXTREM! aufgefallen. Überhaupt bei Shootern kann man sich halt sehr schnell drehen, und da ist die GEfahr schon größer das man dann Tearing sieht. Gerade auch wenn man in engen Räumen ist.

das ist eine von diesen aussagen, die ich schon oft gehört aber noch nie nachvollziehen habe können: wie kann man "manchmal" tearing haben außer mit adaptivem vsync? entweder das tearing ist eher gleichmäßig verteilt oder es ist lokaler (z.B. mit framelimiter), manchmal ist es scheinbar periodisch, manchmal scheinbar chaotisch aber es ist IMMER vorhanden. damit das tearing de facto unsichtbar wird muss das spiel schon mit 400+ fps laufen oder einen vollkommen kontrastlosen content haben.

Schwachsinn.

Die Differenz muss nur gering genug sein...

Wenn sich der Bildinhalt nicht ändert kannste z.B. auch mit 31 FPS kein Tearing sehen...

Es kommt immer darauf an, wie der Content genau aussieht zwischen den Bildern, und auhc WO genau der Übergang zwischen den Bildern ist.


dann bin ich wohl einfach empfindlicher auf solche dinge als andere.
Möblich, du wirst aber auch genug nicht sehen.

Es gibt Unmengen an Displays mit continuous Backlight. Darunter fallen die meisten mit Kaltkathoden-Hintergrundbeleuchtung, die lassen sich nicht so gerne schalten. Und es funktioniert auch. Gibt halt nur ein paar Schlieren bei Bewegungen. Genau das ist der Grund, warum man als Gamer traditionell meist auf TN-Displays setzt (schnellere Schaltzeiten, deswegen weniger Schlieren auch ohne Backlight Blinking/Flashing/Strobing).
Bei denen sollte aber eigentlich nen Polarisator nach dem Backlight kommen, und eben nochmal nen Filter, der dann quasi das Licht kurz ausknipst, bevor man die Pixel anders ausrichtet.

Aber wie gesagt, das ist wahrscheinlich heutzutage alles wegrationalisiert...

So lange die fps hoch genug sind, ist der Einbruch nicht so schlimm.
Etwa ein Einbruch von 90fps auf 70 oder so etwas, das wär mit G-Sync schon eine enorme Verbesserung gegenüber Status Quo.
Aber nur, wenn das Display überhaupt mehr als 60 Hz darstellen kann.


überall und das ist eine ernst gemeinte antwort. tearing ist genau so störend wie flimmern, aliasing usw. und mindestens genau so häufig sichtbar. ich weiß echt nicht wo da der unterschied sein soll.

Naja, bei vielen Spielen sind halt die Grundvoraussetzungen, also irgendwelche durchgehenden Linien usw usw halt nicht vorhanden, oder man hat halt hoch genuge FPS, damit man VSync anmachen kann usw usw.

Gibt halt Spiele, wo Tearing die reinste Seuche ist, aber auch Games wos praktisch gar nicht auffällt. Irgendwelche Aufbauspiele z.B.


und genau deswegen ist es wichtig, dass der monitor damit gut umgehen kann. "konstant über 60" sind vielleicht nur noch "gerade so 60" in einem anderen spiel und schon hat man probleme.
Wie gesagt, hängt vom Content und von der genauen Position des Tearings ab. Tearing in den ersten/letzten 10+x Zeilen wird man nicht wahrnehmen. Zumindest kann mir keiner erzählen, das er das sieht, wenn er nicht aktiv darauf achtet, also NICHT normal zockt, sich also auf das eigentliche Spiel konzentiert.

dargo
2013-10-19, 22:51:04
Also Tearing ist eigentlich immer präsent ohne Vsync, manche sehen es eben mehr als andere.. mich stört es schon sehr z.B. bei BF3
Ich habe mir jetzt mal die Mühe gemacht danach in BF3 bei Ziba-Tower zu suchen. Ja... tatsächlich habe ich es stellenweise gesehen. Bei zwei Durchgängen ist mir das aufgefallen, trotz 70fps Limit. Im MP habe ich gar keine Zeit mich darauf zu konzentrieren, wahrscheinlich ist mir deshalb das nie negativ aufgefallen.

wn612953
2013-10-19, 22:53:03
Mein XL2411T macht btw. bis einschließlich 23Hz mit.


"Bis einschließlich" bedeutet, dass er auch alles dazwischen, wie beispielsweise 27 Hz oder 39 Hz usw., als Input akzeptiert?

Aber wie schon gesagt: wie sicher bist du dir, dass er diese Bildwiederholraten auch nativ darstellt ;)?

Vielleicht refreshed er auch einfach weiterhin mit seiner nativen Bildwiederholrate und die interne Elektronik wandelt den Input halt entsprechend um...

aufkrawall
2013-10-19, 22:55:46
Aber nur, wenn das Display überhaupt mehr als 60 Hz darstellen kann.

Das war nur ein Beispiel. 60 auf 50 wird auch viel besser sein mit G-Sync.
Btw. wirds G-Sync eh zuerst nur in TNs mit 120Hz und mehr geben, da ist deine Anmerkung überflüssig.

Skysnake
2013-10-19, 22:56:23
Ich habe mir jetzt mal die Mühe gemacht danach in BF3 bei Ziba-Tower zu suchen. Ja... tatsächlich habe ich es stellenweise gesehen. Bei zwei Durchgängen ist mir das aufgefallen, trotz 70fps Limit. Im MP habe ich gar keine Zeit mich darauf zu konzentrieren, wahrscheinlich ist mir deshalb das nie negativ aufgefallen.
Das ist ein verdammt wichtiger Punkt.

Also ich weiß echt nicht wie manche Zocken. Voll auf den Bildschirm und den Bildaufbau konzentrieren, aber nicht auf den Inhalt, um ja jeden "Mangel" in der Wiedergabe/Darstellung zu sehen. :freak:

Vielleicht werde ich auch alt, aber wenn ich zock, hab ich eigentlich meistens was anders im Kopf als Grafik. Da wollen mich irgendwelche Leuts killen, und ich muss schnell entscheidungen treffen usw usw.

Iruwen
2013-10-19, 23:05:48
Das ist ein verdammt wichtiger Punkt.

Also ich weiß echt nicht wie manche Zocken. Voll auf den Bildschirm und den Bildaufbau konzentrieren, aber nicht auf den Inhalt, um ja jeden "Mangel" in der Wiedergabe/Darstellung zu sehen. :freak:

Vielleicht werde ich auch alt, aber wenn ich zock, hab ich eigentlich meistens was anders im Kopf als Grafik. Da wollen mich irgendwelche Leuts killen, und ich muss schnell entscheidungen treffen usw usw.

Wissen wir, du siehst ja auch keine Unterschiede beim AF :rolleyes:
Mit der Logik können wir dann ja auch gleich AA, 4K und alles andere in die Tonne treten und ungestört mit >200FPS zocken. Wie lächerlich. Wie die ganze Diskussion eigentlich: die Leute die bei der Präsentation waren sind sich ziemlich einig dass das gut funktioniert und cool ist, und jemandem wie Andersson kann man schwerlich unterstellen da momentan nicht objektiv zu sein, und du saugst dir wieder über x Seiten irgendwelche theoretischen Gründe aus den Fingern warum es nichts taugt und der Aufwand nicht gerechtfertigt ist. Wird mit der Zeit echt langweilig. Und ich hätte nebenbei die Technik nicht nur in irgendwelchen MP-Shootern gerne sondern generell.

Tesseract
2013-10-19, 23:15:11
Tearing fällt aber auch nur auf, wenn die Veränderung im Content groß genug ist, um man irgendwelche Symmetrien hat, die man dann auseinanderhalten kann. Und dann muss der Versatz eben auch noch im mittleren Bildbereich sein. In Zeile 10 oder 1075 wirst du das eigentlich nie sehen, also aktiv wahrnehmen.
wenn sich die blickrichtung ändert sind die unterschiede groß genug und in bildmitte muss es auch nicht sein. wenn ein tear einen halben centimeter am bildschirmrand klebt ist er vielleicht mal zu übersehen aber über weite teile des bildschirms sind sie (leider) absolut problemlos sichtbar.

Typisch sind sehr! schnelle Drehbewegungen, schnele Fahren nach vorne, wobei man da wirklich sich sehr schnell bewegen muss
bewegungen erzeugen fast immer sichtbares tearing, auch langsame.

Es ist halt wie beim Flimmern. Es gibt Content und Spiele, die sehr anfällig sind, und welche bei denen es überhaupt nicht auffällt.
nein, es ist viel schlimmer als beim flimmern. flimmern kann man durch entsprechenden content weitgehend vermeiden, beim tearing ist das de facto unmöglich.

Wenn du in Shootern z.B. dich einfach nicht schnell genug drehen kannst, damit man mehr als ein paar Pixel breite Verschiebung hat, dann siehste halt auch nichts.
erzähl mir nicht was ich sehe und was nicht. "ein paar pixel" sind eine ganze menge und selbst bei langsamen kameraschwenks ist man da schnell mal drüber.

Ich glaub Doom3/Rage war es, da ist mir das Tearing EXTREM! aufgefallen. Überhaupt bei Shootern kann man sich halt sehr schnell drehen, und da ist die GEfahr schon größer das man dann Tearing sieht. Gerade auch wenn man in engen Räumen ist.
bei doom3 liegt das vor allem an der beleuchtung. am aller schlimmsten ist es z.B. bei kaputten leuchstoffröhren, wie es sie in dead space gibt. ohne vsync kann so eine blinkende lichtquelle mal eben den halben bildschirm anders einfärben als den rest. obere hälfte fast weiß, untere fast schwarz. augenkrebs pur.

Wenn sich der Bildinhalt nicht ändert kannste z.B. auch mit 31 FPS kein Tearing sehen...
nenn mir bitte ein einziges spiel, bei dem sich der bildschirminhalt nicht ändert. :rolleyes:

Gibt halt Spiele, wo Tearing die reinste Seuche ist, aber auch Games wos praktisch gar nicht auffällt. Irgendwelche Aufbauspiele z.B.
selbst bei isometrischen spielen teart dir ein scroll über die karte das bild kaputt.

Nazar
2013-10-19, 23:18:00
Hier muss man die Funktionstests in echten FPS abwarten.
Ich kann mir beim besten Willen nicht vorstellen, wie das bei schnellen Shootern mit extremen FPS Schwankungen (+-20 FPS) funktionieren soll.
Die Pendeldemo war natürlich ideal, weil es dort eine gleichmäßige Frame Amplitude gab. Interessanter wäre eine Explosion gewesen.
Wie wirkt sich das auf die Eingabe in einem FPS aus (Mauslag?)?
Wenn ich es richtig verstanden habe, wird der Monitor gezwungen mit der GPU zu synchronisieren.... und das ohne Zeitverlust/Buffer gerade beiden extremen FPS Schwankungen in Shootern?
Wie soll das gehen?
Ich bin mal auf die ersten Berichte gespannt.

Schaffe89
2013-10-19, 23:22:08
Wieso ist so was bei dir eigentlich immer vorhersehbar, wenns um NV geht?

Wieder mal verstehst du den Punkt nicht um den es mir hier geht.
Ich kaufe doch nicht Monitor mit extra Gedöns und zwingend eine NV GRaka nur damit ich geringfügige Vorteile habe, wenn die Frames unter 60 FPS fallen, oder halt je nach dem wenn ich nen 144 Hertz Monitor habe, unter 144FPS, wobei es bei diesen FPS Raten eh schon lange wurscht ist, da kann man genausogut nen Framelimiter reinhauen und hat dann mal nen kleinen Nachteil wenn die Frames zu wenig sind und dann dank Vsync off auch nur Tearing, was aber je nach Spiel, Geschindigkeit unterschiedlich ist, vor allem auch je nach Monitor.

Und weil vorher die Diskussion aufkam 4K hätte keine Relevanz, dann trifft das wohl genausogut auf diese Nvidia Entwicklung zu.

Solange das kein Industriestandard wird fristet das einen extremes Nischendasein und wenn ich es einsetzte habe ich wenn ich die Softwaremöglichkeiten ausnutze fast Null Vorteil dadurch.

Nvidia sollte sowas bundeln. Titan + Monitor+ Extra Hardware für 1000 Euro, dann könnte es für Profi Gamer was bringen.

Wie lange wurde diskutiert dass man so perfekt spielen kann mit Framelimiter oder V-sanc oder Adaptiv V-sync und jetzt braucht man extra Hardware und nen teuren Displayportmonitor?

Sry dass ich da etwas sarkastisch werde, aber ich finde die Lösung zwar gut, kann mir aber nicht vorstellen dass das signifikant eingesetzt wird.

Weniger flüssig als G-Sync natürlich, da gibts gar nichts zu diskutieren.

Jetzt hast du wieder ein neues Thema, wo du drauf rumreiten kannst und alle die was dagegen sagen, sind Fanboys.

Hier muss man die Funktionstests in echten FPS abwarten.
Ich kann mir beim besten Willen nicht vorstellen, wie das bei schnellen Shootern mit extremen FPS Schwankungen (+-20 FPS) funktionieren soll.
Die Pendeldemo war natürlich ideal, weil es dort eine gleichmäßige Frame Amplitude gab. Interessanter wäre eine Explosion gewesen.
Wie wirkt sich das auf die Eingabe in einem FPS aus (Mauslag?)?
Wenn ich es richtig verstanden habe, wird der Monitor gezwungen mit der GPU zu synchronisieren.... und das ohne Zeitverlust/Buffer gerade beiden extremen FPS Schwankungen in Shootern?

Ich kann mir auch nicht vorstellen, dass dads adequat funktionieren soll. Wenn es bei der Vorführung klappt, ist das natürlich kein Wunder.
Aber lasst und abwarten.

aufkrawall
2013-10-19, 23:36:30
"Bis einschließlich" bedeutet, dass er auch alles dazwischen, wie beispielsweise 27 Hz oder 39 Hz usw., als Input akzeptiert?

Hab verschiedene zufällige Werte durchprobiert und alles hat er gefressen.


Aber wie schon gesagt: wie sicher bist du dir, dass er diese Bildwiederholraten auch nativ darstellt ;)?

Mir fallen keine Framedrops auf, es läuft völlig gleichmäßig ungeschmeidig. Also wohl normal für die getesteten 25fps.

@Schaffe: Ja, richtig. Wer den G-Sync Grundansatz nicht gut findet, macht sich in meinen Augen lächerlich. Besonders, wenn die Argumentation einfach technisch inkorrekt ist. Dieser ganze Blödsinn hier schon wieder mit Tearing und Judder. So viel Unwissen und so viele dicke Fressen...

Godmode
2013-10-19, 23:40:56
wenn sich die blickrichtung ändert sind die unterschiede groß genug und in bildmitte muss es auch nicht sein. wenn ein tear einen halben centimeter am bildschirmrand klebt ist er vielleicht mal zu übersehen aber über weite teile des bildschirms sind sie (leider) absolut problemlos sichtbar.


bewegungen erzeugen fast immer sichtbares tearing, auch langsame.


nein, es ist viel schlimmer als beim flimmern. flimmern kann man durch entsprechenden content weitgehend vermeiden, beim tearing ist das de facto unmöglich.


erzähl mir nicht was ich sehe und was nicht. "ein paar pixel" sind eine ganze menge und selbst bei langsamen kameraschwenks ist man da schnell mal drüber.


bei doom3 liegt das vor allem an der beleuchtung. am aller schlimmsten ist es z.B. bei kaputten leuchstoffröhren, wie es sie in dead space gibt. ohne vsync kann so eine blinkende lichtquelle mal eben den halben bildschirm anders einfärben als den rest. obere hälfte fast weiß, untere fast schwarz. augenkrebs pur.


nenn mir bitte ein einziges spiel, bei dem sich der bildschirminhalt nicht ändert. :rolleyes:


selbst bei isometrischen spielen teart dir ein scroll über die karte das bild kaputt.

Anscheinend sieht er kein Tearing, also verschwende nicht deine kostbare Zeit mit ihm darüber zu streiten. Es wird in nächster Zeit genug unabhängige Tests von den üblichen Hardware Seiten geben und die werden schon zeigen was GSync bringt, aber selbst dann wird's hier genau so weitergehen wie bisher.

Wenn Leute wie Andersson, Carmack und Sweeny hinter sowas stehen, dann hat das für mich einen deutlich höheren Stellenwert, also die Meinungen von irgendwelchen Membern aus einem Forum.

GSync macht genau das was wir immer haben wollten, Tearing freie Grafik ohne Inputlag. Das einzige was man hier ankreiden kann ist, dass es eben nur von Nvidia angeboten wird.

Godmode
2013-10-19, 23:43:58
Hab verschiedene zufällige Werte durchprobiert und alles hat er gefressen.


Mir fallen keine Framedrops auf, es läuft völlig gleichmäßig ungeschmeidig. Also wohl normal für die getesteten 25fps.

@Schaffe: Ja, richtig. Wer den G-Sync Grundansatz nicht gut findet, macht sich in meinen Augen lächerlich. Besonders, wenn die Argumentation einfach technisch inkorrekt ist. Dieser ganze Blödsinn hier schon wieder mit Tearing und Judder. So viel Unwissen und so viele dicke Fressen...

Die meisten haben ja überhaupt nicht verstanden wie das eigentlich funktioniert. Der Monitor hat mit GSync überhaupt keinen Refresh Cycle mehr. Wenn die GPU sagt jetzt zeigst du Bild1, dann macht der das und zeigt das solange an, bis die GPU sagt, jetzt Bild2. Es könnte also ein Frame theoretisch auch mehrere Sekunden lang angezeigt werden. Es gibt kein Framedroping mehr und der Monitor Zeigt genau das was die GPU rendert. Wenn natürlich die Engine scheisse ausspuckt, also die Frames sehr unregelmäßig ausgibt, dann hilft natürlich GSync auch nichts, aber das müsste eh klar sein. GSync = Teringfreies spielen ohne Inputlag, Framedropping, etc.

Wenn ich den Stuss - der hier und im Luxx geschrieben wird - lesen muss, dann weiß ich wieder warum ich nicht mehr so oft in den Foren unterwegs bin.

wn612953
2013-10-19, 23:47:03
Wer den G-Sync Grundansatz nicht gut findet
GSync macht genau das was wir immer haben wollten, Tearing freie Grafik ohne Inputlag. Das einzige was man hier ankreiden kann ist, dass es eben nur von Nvidia angeboten wird.


Also IMHO ist G-Sync TOP und bringt AFAICT nur Vorteile und überhaupt keine Nachteile.

Allerdings ist es vielleicht etwas fraglich ob die Bezeichnung "most amazing thing", wie im Threadtitel, nicht etwas übertrieben ist... ;)

Godmode
2013-10-19, 23:50:15
Also IMHO ist G-Sync TOP und bringt AFAICT nur Vorteile und überhaupt keine Nachteile.

Allerdings ist es vielleicht etwas fraglich ob die Bezeichnung "most amazing thing", wie im Threadtitel, nicht etwas übertrieben ist... ;)

IMO hat er das eben gesagt, weil ein Problem gelöst wurde, was seit Anbeginn der 3D-Grafik vorhanden war.

MarcWessels
2013-10-19, 23:56:46
Also ich weiß echt nicht wie manche Zocken. Voll auf den Bildschirm und den Bildaufbau konzentrieren, aber nicht auf den Inhalt, um ja jeden "Mangel" in der Wiedergabe/Darstellung zu sehen. :freak:

Vielleicht werde ich auch alt, aber wenn ich zock, hab ich eigentlich meistens was anders im Kopf als Grafik. Da wollen mich irgendwelche Leuts killen, und ich muss schnell entscheidungen treffen usw usw.Also sorry, Du musst blind sein. Sowohl Tearing, als auch unscharfes Scrolling fallen einem geradezu ins Gesicht, weshalb ich selbst MP immer mit VSync gespielt habe (Q3A, UT, UT2003, MoH: AA...)

LadyWhirlwind
2013-10-20, 00:07:43
Also sorry, Du musst blind sein. Sowohl Tearing, als auch unscharfes Scrolling fallen einem geradezu ins Gesicht, weshalb ich selbst MP immer mit VSync gespielt habe (Q3A, UT, UT2003, MoH: AA...)

Ich glaub hier die Wahrnehmung einfach unterschiedlich. Ich kann mich jetzt nicht daran erinnern das mir in den letzten Jahren an der Grafik je was aufgefallen wäre, was mich gestört hat. Mal abgesehen davon wenn die FPS unter 30 vielen... Vielleicht liegt das aber auch an meinem Monitor (Dell 27" U2711) und den Grafikkarten im 450-500 Euro bereich.

Schaffe89
2013-10-20, 00:15:16
Ja, richtig. Wer den G-Sync Grundansatz nicht gut findet, macht sich in meinen Augen lächerlich. Besonders, wenn die Argumentation einfach technisch inkorrekt ist. Dieser ganze Blödsinn hier schon wieder mit Tearing und Judder. So viel Unwissen und so viele dicke Fressen...

Ich finde es eine klasse Idee wenn beim Monitor der Refresh Cycle komplett wegfällt und die Grafikkarte bestimmt, was letztendlich angezeigt wird und die Hertz des Monitor komplett syncron mit den FPS der Karte laufen, das bezweifelt hier wirklich niemand.

Aber sag mir bitte mal ganz konkret was an meinen Beiträgen technisch inkorrekt ist und sag mir vor allem wo der Denkfehler liegt, lieber kein Geld auszugeben und mit bis jetzt nicht nachprüfbaren Nachteilen mit V-sync zu zocken?

Warum habe ich immer das Gefühl das bei dir das Gehirn sofort ausschaltet, wenn es um Nvidia geht. Ich habe kein Wort von schlecht oder sowas gesagt.

Aber so wie das hier dargestellt wird " Most Amazing Thing made by Nvidia" ist das was am Ende übrig bleibt sogut wie nichts, vor allem aufgrund der Mehrkosten und des Aufwands dafür.

Da muss sich ein genereller Industriestandard daraus entwickeln, ansonsten werden die Kosten dafür nicht weniger werden.

So viel Unwissen und so viele dicke Fressen...

Da ist jemand schon wieder bei 5 vor 12, wie unterhaltsam.

aufkrawall
2013-10-20, 00:18:23
Das wird mit OLED sich eh irgendwann breitflächiger durchsetzen.
Da muss man jetzt keine Panik schieben, NV würde durch proprietäre Lösungen irgendwas blockieren...

Ich hab den leisen Verdacht, einige hier sind angepisst, dass NV nicht den Samariter für ihre Radeons spielt.

wn612953
2013-10-20, 00:19:43
Das wird mit OLED sich eh irgendwann breitflächiger durchsetzen.
Da muss man jetzt keine Panik schieben, NV würde durch proprietäre Lösungen irgendwas blockieren...


Was hat das jetzt mit OLED zu tun?

Tesseract
2013-10-20, 00:22:38
Ich hab den leisen Verdacht, einige hier sind angepisst, dass NV nicht den Samariter für ihre Radeons spielt.

neben dem vielen unsinn der hier steht ist das allerdings tatsächlich ein berechtigter kritikpunkt. sowas gehört eigentlich standardisiert und zwar nicht nur für PC-monitore sondern TVs, smartphonedisplays usw. auch.

AffenJack
2013-10-20, 00:24:45
Die Ideen dazu schwirren eigentlich schon länger rum. Aber zum einen geht es eben erst mit Displayport (und wie lange gibt es entsprechende Monitore mit halbwegs Stückzahl?) und zum anderen würde ich erstmal abwarten, was Viewsonic und Philips denn genau machen werden. Ich bin mir nicht so sicher, daß die das Modul einbauen, was nV da vorgezeigt hat ;).
Und daran, daß das am Ende auch mit AMD-Karten funktioniert (wie Lightboost), will ich noch gar nicht denken.

Ja das muss man sehen, aber zumindest so zeitnah wie die Monitore kommen sollen zweifle ich erstmal an einer eigenen Lösung, aber mal schauen.

Nv hat ne Amd Kompatibilität nicht explizit verneint, aber könnten die das überhaupt mit deren jetzigen Karten unterstützen?

Laut Skymtl bei Xtremesystems gibts ja auch Grafikkartenvorraussetzungen:

Because the Kepler architecture integrates an output clock generator for the monitor, something Fermi didn't.

G-Sync will only be compatible with G-Sync enabled monitors. At this point though, pretty much every major gaming monitor manufacturer is behind it.

http://www.xtremesystems.org/forums/showthread.php?287535-NVIDIA-announces-GeForce-GTX-Holiday-Bundle&p=5211777&viewfull=1#post5211777

Hat Amd sowas? Und wenn nicht, wäre es möglich das schnell zu implementieren, wenn man annimmt, dass die 20nm Generation in einigen Monaten ihr Tapeput haben würde? Oder müsste man sowieso auf die übernächste Generation warten. (Alles für den Fall Amd und Nv könnten sich einigen)

aufkrawall
2013-10-20, 00:28:22
neben dem vielen unsinn der hier steht ist das allerdings tatsächlich ein berechtigter kritikpunkt. sowas gehört eigentlich standardisiert und zwar nicht nur für PC-monitore sondern TVs, smartphonedisplays usw. auch.
Auf jeden Fall. Aber man kann nicht von NV als einzelnem Unternehmen so etwas erwarten, die wollen schließlich Kohle machen. Und wenn man dabei der Konkurrenz eins auswischen kann, um so besser.
Es scheint irgendwie sonst kaum jemanden zu interessieren bis jetzt, sonst hätte sich da doch schon längst z.B. im TV-Bereich was tun müssen. Die neuen Konsolen wären ne gute Gelegenheit gewesen, aber da scheint wohl niemand nen Finger für gerührt zu haben.
AMD hätte sich doch gut mit so etwas einbringen können.

Nazar
2013-10-20, 00:45:27
Die meisten haben ja überhaupt nicht verstanden wie das eigentlich funktioniert. Der Monitor hat mit GSync überhaupt keinen Refresh Cycle mehr. Wenn die GPU sagt jetzt zeigst du Bild1, dann macht der das und zeigt das solange an, bis die GPU sagt, jetzt Bild2. Es könnte also ein Frame theoretisch auch mehrere Sekunden lang angezeigt werden. Es gibt kein Framedroping mehr und der Monitor Zeigt genau das was die GPU rendert. Wenn natürlich die Engine scheisse ausspuckt, also die Frames sehr unregelmäßig ausgibt, dann hilft natürlich GSync auch nichts, aber das müsste eh klar sein. GSync = Teringfreies spielen ohne Inputlag, Framedropping, etc.

Wenn ich den Stuss - der hier und im Luxx geschrieben wird - lesen muss, dann weiß ich wieder warum ich nicht mehr so oft in den Foren unterwegs bin.

Und genau was Du beschreibst, hilft bei den eigentlichen Problemen im Spiel, nämliche immer eine möglichst gleiche und hohe Anzahl von Frames zu haben, überhaupt nicht.
Dauerhaft 30 Frames sind dauerhaft 30 Frames und machen das Spiel nicht ebenso flüssig wie dauerhafte 60 Frames.
Deshalb verstehe ich den ganzen Hype nicht!
Genau das haben 90% der "I Like" Leute wohl noch nicht begriffen.
Viele versprechen sich den "Heiligen Gral" für Shooter und das sie mit 30 FPS nun ebenso super flüssig spielen können wie mit 60 FPS und das wird eben nicht passieren! Man wird damit ein wenig flüssiger spielen können als ohne G-Sync, das ist logisch aber ich habe den Eindruck, dass irgendwie bei den Spielern ein falscher Eindruck der Geschichte erweckt werden soll.
Stark schwankende Frames sollten sogar noch stärker auffallen als es jetzt der Fall ist, da die Bilder ja 1 zu 1 Auf dem Monitor erscheinen. Weniger Lag, weniger Tearing aber mehr "Stottern" bei extremen Framedrops?

Guest83
2013-10-20, 00:55:12
Stark schwankende Frames sollten sogar noch stärker auffallen als es jetzt der Fall ist, da die Bilder ja 1 zu 1 Auf dem Monitor erscheinen. Weniger Lag, weniger Tearing aber mehr "Stottern" bei extremen Framedrops?
Warum sollte es mehr stottern? Aktuell hat der Monitor doch auch nicht mehr Frames zur Verfügung, wenn es Framedrops gibt. Worst Case kann also nicht schlechter sein als der Ist-Zustand, soweit ich das Verstanden habe.

Und es geht nicht darum, dass 30 FPS flüssiger sind, sondern dass man den spürbaren (Input-)Lag verhindert, der entsteht, wenn der Bildschirm Frames unregelmäßig anzeigt. Bei 60 FPS und 60 Hertz kann man das perfekt synchronisieren. Bei 55 FPS und 60 Hertz, müssen fünf Frames doppelt angezeigt werden, wenn man kein Tearing möchte. Und das wirkt dann einfach unrund.

Wie gesagt, habe mich auch nicht groß damit beschäftigt, aber so habe ich es zumindest verstanden.

Sven77
2013-10-20, 01:02:25
Stark schwankende Frames sollten sogar noch stärker auffallen als es jetzt der Fall ist, da die Bilder ja 1 zu 1 Auf dem Monitor erscheinen. Weniger Lag, weniger Tearing aber mehr "Stottern" bei extremen Framedrops?

Da wird von einem Lager schon wieder wirklich viel Dünnsch verbreitet... mal ne Frage, spielt hier wirklich jemand Shooter mit VSync? Kann man so schmerzbefreit sein? Ich krieg bei Tearing Touretteanfälle trotzdem würde ich bei einem FPS (schon gar nicht wenn es MP ist) VSync anschalten.. wenn ich 90 Frames habe will ich 90 Frames haben und keine 60.. und wenn sie mal unter 60 fallen so es mir nicht direkt das Bild zerreissen. Wer redet denn da von zocken mit 30 Bildern? Eigentlich niemand..

Schade nur das es bis jetzt nur für TN möglich ist, dagegen würde ich mein PVA nicht eintauschen...

Nazar
2013-10-20, 01:06:47
AMD hätte sich doch gut mit so etwas einbringen können.

Ein David Goliath Vergleich.
Hey Goliath hat einen 1 Tonnen Stein gehoben, hätte doch David auch machen können.
Wieso hat er es nicht?
Weil er es nicht konnte?!
Und darum sollte man bei AMD und deren Forschungen mal die Kirche im Dorfe lassen.
Die Mittel die Nvidia für Forschung zur Verfügung hat, sind doch Welten höher.
AMD kann froh sein, wenn sie wieder mit dem Arsch an die Wand kommen.

Alleinstellungsmerkmale in dieser Branche schaden vor allem den Spielern/Käufern!
Der PC Markt hat es schon schwer genug, da benötigen wir nicht noch zwei "Riesen", die mit Ihren Alleingängen die Entwicklung der Spiele mehr einbremsen als diese voranzutreiben.
Mantle, PhysX oder jetzt G-Sync wären alles zusammen tolle Sachen für den Spieler, nur leider muss sich der Spieler dann entscheiden, welche GPU zu welchem Spiel benötigt wird, um all die Pracht des Spiels genießen zu können.
Wir können doch schon froh sein, dass wir noch 2 große Spiele GPU Hersteller haben.
Was mit den Preisen erst mal passiert, wenn einer der Hersteller konkurrenzlos ist, haben wir doch bei der neuen Nvidia Produktserie gesehen. Die Preise sind bei der 700 Serie von Nvidia doch jenseits von Gut und Böse. Welcher Käufer möchte ernsthaft unrealistische Preise zahlen?

Nazar
2013-10-20, 01:10:33
Da wird von einem Lager schon wieder wirklich viel Dünnsch verbreitet... mal ne Frage, spielt hier wirklich jemand Shooter mit VSync? Kann man so schmerzbefreit sein? Ich krieg bei Tearing Touretteanfälle trotzdem würde ich bei einem FPS (schon gar nicht wenn es MP ist) VSync anschalten.. wenn ich 90 Frames habe will ich 90 Frames haben und keine 60.. und wenn sie mal unter 60 fallen so es mir nicht direkt das Bild zerreissen. Wer redet denn da von zocken mit 30 Bildern? Eigentlich niemand..

Schade nur das es bis jetzt nur für TN möglich ist, dagegen würde ich mein PVA nicht eintauschen...

Ehrlich gesagt verstehe ich nicht weshalb Du mich für Deine Aussage zitiert hast!?
Das hat so gar nichts miteinander zu tun!

Gipsel
2013-10-20, 01:16:03
Laut Skymtl bei Xtremesystems gibts ja auch Grafikkartenvorraussetzungen:

http://www.xtremesystems.org/forums/showthread.php?287535-NVIDIA-announces-GeForce-GTX-Holiday-Bundle&p=5211777&viewfull=1#post5211777

Hat Amd sowas? Und wenn nicht, wäre es möglich das schnell zu implementieren, wenn man annimmt, dass die 20nm Generation in einigen Monaten ihr Tapeput haben würde? Oder müsste man sowieso auf die übernächste Generation warten. (Alles für den Fall Amd und Nv könnten sich einigen)Sorry für den SKYMTL, aber das ist purer Schwachsinn (der verbricht öfter mal sowas) mit dem "output clock generator for the monitor", den Kepler-GPUs angeblich haben. Daß Fermi das nicht kann, liegt schlicht daran, daß Fermi keinen nativen Displayport-Support hat. ;)

Wie ich schon weiter vorne im Thread geschrieben habe, hängt es davon ab, wie flexibel die Display-Pipelines in der GPU sind. Das kann im Moment nur AMD sagen. So schwierig ist das aber eigentlich auch nicht und wäre mit relativ kleineren Änderungen machbar (falls überhaupt welche erforderlich sind).

Displayport (nur damit funktioniert es) schickt die Bilddaten ja nicht wie früher mit einem bestimmten Pixeltakt passend zur Auflösung und Bildwiederholrate raus (so daß die Übertragung synchronisiert erfolgt) sondern es werden wie bei jeder anderen seriellen Verbindung (PCIe, USB) kleine Pakete mit den Nutzdaten verschickt, die dann im Display wieder zusammengesetzt werden. Also im Prinzip ist damit die Übertragung von der Darstellung entkoppelt. So kann man über eine Verbindung auch die Daten für mehrere Displays rausschicken, wo die Pakete dann von einem Switch/Hub auf die einzelnen Displays verteilt werden. Die Mobilvariante eDP unterstützt z.B. bereits auch den Self-Refresh des Displays, was bedeutet, daß wenn sich nichts ändert, einfach nichts übertragen wird (spart Strom). Oder in der neuesten Variante werden nur die geänderten Bildbereiche übertragen, also gar nicht komplette Frames.
Hat man das vor Augen, erscheint die Übertragung eines Frames immer nur dann, wenn eins fertig ist, nicht soo kompliziert zu sein. Im Prinzip ist es einfach nur triple buffering, wo der Transfer des Frames vom Bufferflip getriggert (mit der Zusatzbedingung, daß mindestens soviel Zeit, wie die Maximalrefreshrate des Displays vorgibt, vergangen sein muß) wird und nicht stur von einem programmierbaren Timerinterrupt (der bisher auf die eingestellte Refreshrate programmiert wird). Das ist im Prinzip schon alles, was an Änderungen nötig ist (der Monitor muß natürlich damit klarkommen, wie das gehen kann, habe ich ja auch schon geschrieben).

gnahr
2013-10-20, 01:16:51
Die Preise sind bei der 700 Serie von Nvidia doch jenseits von Gut und Böse. Welcher Käufer möchte ernsthaft unrealistische Preise zahlen?
es funktioniert ab einer gt650ti aufwärts. wo ist das problem?
wer ne 650ti zu teuer findet... muss in der disskusion gar nicht erst den finger heben.

Nazar
2013-10-20, 01:25:44
Warum sollte es mehr stottern? Aktuell hat der Monitor doch auch nicht mehr Frames zur Verfügung, wenn es Framedrops gibt. Worst Case kann also nicht schlechter sein als der Ist-Zustand, soweit ich das Verstanden habe.

Und es geht nicht darum, dass 30 FPS flüssiger sind, sondern dass man den spürbaren (Input-)Lag verhindert, der entsteht, wenn der Bildschirm Frames unregelmäßig anzeigt. Bei 60 FPS und 60 Herz kann man das perfekt synchronisieren. Bei 55 FPS und 60 Herz, müssen fünf Frames doppelt angezeigt werden, wenn man kein Tearing möchte. Und das wirkt dann einfach unrund.

Wie gesagt, habe mich auch nicht groß damit beschäftigt, aber so habe ich es zumindest verstanden.

Dann ist G-Sync also nur etwas für Personen die das Tearing nervt und mit Vsync spielen und dem damit verbundenen Input-Lag?
G-Sync hebt die Probleme von Vsync auf und bringt Spieler auf das Level von Spielern die ohne Vsync zocken aber ohne das Tearing? Das ist alles? So viel Wind um eine "No Tearing/Lag Hardware"?

Guest83
2013-10-20, 01:26:27
Alleinstellungsmerkmale in dieser Branche schaden vor allem den Spielern/Käufern!
Der PC Markt hat es schon schwer genug, da benötigen wir nicht noch zwei "Riesen", die mit Ihren Alleingängen die Entwicklung der Spiele mehr einbremsen als diese voranzutreiben.
Man kann es auch anders sehen: Hätte Nvidia die Forschungsarbeit geleistet, wenn es anschließend nicht davon profitieren kann, weil es ein offener Standard wird? Nicht dass ich jetzt allgemein sage, dass das gut ist, aber man muss schon immer beide Seiten sehen.

Nazar
2013-10-20, 01:31:22
es funktioniert ab einer gt650ti aufwärts. wo ist das problem?
wer ne 650ti zu teuer findet... muss in der disskusion gar nicht erst den finger heben.

In Afrika haben Kinder nichts zu essen, weshalb der Erwerb von so teuren Grafikkarten durch nichts zu vertreten ist! :freak:
Oder
Sämtlicher Kunststoffmüll der Europäer landet in 3. Welt Ländern, weshalb es unverantwortlich ist überhaupt einen PC zu besitzen!
"Totschlagargumentation" ist schon was feines, gell? :rolleyes:
Aber selbst mein "Argument", hat immer noch mehr mit dem Thema zu tun, als Deine Aussage zu meinem Posting!
Hast Du mein Posting überhaupt verstanden?

Nazar
2013-10-20, 01:43:08
Man kann es auch anders sehen: Hätte Nvidia die Forschungsarbeit geleistet, wenn es anschließend nicht [ALLEINE (Edit by Nazar)] davon profitieren kann, weil es ein offener Standard wird? Nicht dass ich jetzt allgemein sage, dass das gut ist, aber man muss schon immer beide Seiten sehen.

Du verwechselt da etwas!
Profit würde NV auf jeden Fall machen, da es ja relativ neue Grafikkarten benötigt und die müssen immer noch genügend Leistung für die Spiele haben.
Es geht genau um das was ich geschrieben habe. Der Spieler ist letztendlich bei diesen "Spielchen" der Dumme, da er zu viel für zu wenig Leistung bezahlen wird.
Was meinst Du was an Forschung bei NV noch übrig bleibt, wenn Sie ein Monopol hätten?
Aktionäre die Geld zu verschenken haben und deswegen zum Wohle des Spielers groß investieren, ohne Zwang? Nicht wirklich, oder!?
Der stärkste Motor für Innovation war schon immer Konkurrenz.
Die meisten und größten Fortschritte gibt es während kriegerischen Auseinandersetzungen, während in Friedenszeiten die Zahl der Innovationen extrem abnimmt.
Ohne AMD hätten wir mit Sicherheit jetzt nicht diese enorme Leistung von Nvidias Grafikkarten (und umgekehrt)! Schon paradox das Ganze! ;)
Das Beste was dem Spieler passieren kann, ist eine ausgewogener Konkurrenzkampf.

aufkrawall
2013-10-20, 01:49:22
Die AMD-GPUs waren im Vergleich schon ewig nicht mehr so gut wie jetzt. Keine Ahnung, wo du da diese "bedrohliche Übermacht" bei NV sehen willst. Immerhin konnte AMD auch die komplette NextGen für sich verbuchen, während NV mit Tegra noch rumkrebst.
Da muss man wegen diesem G-Sync jetzt nicht den Nostradamus raushängen lassen.

Blediator16
2013-10-20, 02:04:41
Ein David Goliath Vergleich.
Hey Goliath hat einen 1 Tonnen Stein gehoben, hätte doch David auch machen können.
Wieso hat er es nicht?
Weil er es nicht konnte?!
Und darum sollte man bei AMD und deren Forschungen mal die Kirche im Dorfe lassen.
Die Mittel die Nvidia für Forschung zur Verfügung hat, sind doch Welten höher.
AMD kann froh sein, wenn sie wieder mit dem Arsch an die Wand kommen.

Alleinstellungsmerkmale in dieser Branche schaden vor allem den Spielern/Käufern!
Der PC Markt hat es schon schwer genug, da benötigen wir nicht noch zwei "Riesen", die mit Ihren Alleingängen die Entwicklung der Spiele mehr einbremsen als diese voranzutreiben.
Mantle, PhysX oder jetzt G-Sync wären alles zusammen tolle Sachen für den Spieler, nur leider muss sich der Spieler dann entscheiden, welche GPU zu welchem Spiel benötigt wird, um all die Pracht des Spiels genießen zu können.
Wir können doch schon froh sein, dass wir noch 2 große Spiele GPU Hersteller haben.
Was mit den Preisen erst mal passiert, wenn einer der Hersteller konkurrenzlos ist, haben wir doch bei der neuen Nvidia Produktserie gesehen. Die Preise sind bei der 700 Serie von Nvidia doch jenseits von Gut und Böse. Welcher Käufer möchte ernsthaft unrealistische Preise zahlen?

AMD hat leider an mehreren Fronten zu kämpfen. Nvidia hat seit einigen Jahren in der ARM Front zu kämpfen und versagt kläglich. T4 ist nichtmal im Markt angekommen da wird bereits von Tegra 6 geredet. Irgendwo haben alle Firmen ihre maximalen Möglichkeiten erreicht, sowohl von der Manpower als auch von der Finanzkraft. AMD fehlt es an beidem Nvidia eher wohl an Manpower und richtige Experten in jedem Gebiet zu beschäftigen kann über kurz oder lang kaum einer finanzieren bzw. AMD oder Nvidia nicht.

Darkness
2013-10-20, 02:30:10
So ich hab mich jetzt auch mal in diese ganze "Geschichte" richtig eingelesen und schlau gemacht........

Im Prinzip ist der Ansatz von Nvidia ja begrüßenswert und auch sehr interessant ....... aber sollten sich die Kosten von 100 EUR / Dollar bewahrheiten sehe ich da ein anderes Problem.
Wie will man im Massenmarkt sowas etabileren ?

Der 08/15 User (also weniger der 3DCenter Besucher) hat im Endeffekt doch nichts davon? ... der sieht "oh 100 EUR mehr zahlen? ..... für was??"

Klar es gibt immer "Pro" Nutzer die natürlich auch bereit sind dafür zu zahlen, aber letzten Endes ist es doch eine Frage des Preises die dem (relativ) kleinem Nutzen gegenüber steht.

Marty98
2013-10-20, 02:34:49
Anand hat die Vorführung in Montreal zusammengefasst:

http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

"Switching gears NVIDIA also ran a real world demonstration by spinning the camera around Lara Croft in Tomb Raider. The stutter/tearing effects weren't as pronounced as in NVIDIA's test case, but they were both definitely present on the traditional system and completely absent on the G-Sync machine. I can't stress enough just how smooth the G-Sync experience was, it's a game changer."

Blediator16
2013-10-20, 02:39:27
Gamechanger wird es nie sein, wenn es so umständlich realisiert wird. Es wird sich so nie durchsetzen. Nie und nimmer. Es ist einfacher in Notebooks zu bekommen. Sowas hätten die großen Panelhersteller entwickeln müssen und zu einem Industriestandard machen müssen.

OC_Burner
2013-10-20, 03:33:34
Vielleicht ein besseres Beispiel als die 120fps Pendeldemo?

t42aNruDkiw

schreiber
2013-10-20, 03:43:53
Gamechanger wird es nie sein, wenn es so umständlich realisiert wird. Es wird sich so nie durchsetzen. Nie und nimmer. Es ist einfacher in Notebooks zu bekommen. Sowas hätten die großen Panelhersteller entwickeln müssen und zu einem Industriestandard machen müssen.
Was ist daran umständlich? nvidia-User brauchen nur einen Monitor, der das beherrscht. Das wars.
Und wen soll die Industrie daran hindern, einen solchen Standard zu entwickeln?! Wenn das Feature zieht, wird es auch umgesetzt. Lässt sich ja schließlich Geld mit verdienen.

Knacki99
2013-10-20, 07:08:46
http://www.techpowerup.com/192855/asus-announces-adoption-of-nvidia-g-sync-technology.html

Anscheinend wird der Preisaufschlag nicht so sehr ins Gewicht fallen. Asus VG248QE mit G-sync = 399$.

StefanV
2013-10-20, 07:44:20
Der ohne kostet momentan ~300€ (http://geizhals.at/asus-vg248qe-90lmgg001q022b1c-a891345.html)

Gerad keinen Bock die MSRP raus zu suchen...

Godmode
2013-10-20, 08:44:44
Und genau was Du beschreibst, hilft bei den eigentlichen Problemen im Spiel, nämliche immer eine möglichst gleiche und hohe Anzahl von Frames zu haben, überhaupt nicht.
Dauerhaft 30 Frames sind dauerhaft 30 Frames und machen das Spiel nicht ebenso flüssig wie dauerhafte 60 Frames.
Deshalb verstehe ich den ganzen Hype nicht!
Genau das haben 90% der "I Like" Leute wohl noch nicht begriffen.
Viele versprechen sich den "Heiligen Gral" für Shooter und das sie mit 30 FPS nun ebenso super flüssig spielen können wie mit 60 FPS und das wird eben nicht passieren! Man wird damit ein wenig flüssiger spielen können als ohne G-Sync, das ist logisch aber ich habe den Eindruck, dass irgendwie bei den Spielern ein falscher Eindruck der Geschichte erweckt werden soll.
Stark schwankende Frames sollten sogar noch stärker auffallen als es jetzt der Fall ist, da die Bilder ja 1 zu 1 Auf dem Monitor erscheinen. Weniger Lag, weniger Tearing aber mehr "Stottern" bei extremen Framedrops?

Logisch das 60 FPS flüssiger als 30 sind. Wenn ich aber nur 30 habe, dann sind diese mit GSync wiederum flüssiger als mit Vsync und ohne Tearing frei ohne VSync. Nein ich spiele nicht mit 30 FPS, das sind zu wenig für mich.

Eine gute Zusammenfassung von GSync von Carsten, wo auch die Grenzen des Systems aufgezeigt werden:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-G-Sync-Daten-1093359/

boxleitnerb
2013-10-20, 09:07:30
Was mich mal interessieren würde:

Angenommen man kauft sich einen G-Sync-Monitor und wechselt später auf eine AMD-GPU. Kann man den Monitor dann noch weiter nutzen? Vielleicht eine blöde Frage, aber der traditionelle Scaler wird ja ersetzt. Und wenn der nur mit Nvidia GPUs zusammenarbeiten würde, ginge das evtl. nicht. Ich kann es mir aber kaum vorstellen.

Sunrise
2013-10-20, 09:19:59
Was mich mal interessieren würde:

Angenommen man kauft sich einen G-Sync-Monitor und wechselt später auf eine AMD-GPU. Kann man den Monitor dann noch weiter nutzen? Vielleicht eine blöde Frage, aber der traditionelle Scaler wird ja ersetzt. Und wenn der nur mit Nvidia GPUs zusammenarbeiten würde, ginge das evtl. nicht. Ich kann es mir aber kaum vorstellen.
Nicht nur das. Auch andere Funktionen, die der Scaler üblicherweise übernimmt, müssten dann verfügbar sein. Ich sage ja, ein Sack voller Fragen. Hoffentlich bringt der 21. Oktober etwas mehr Klarheit.

Schade übrigens, dass bei der Präsentation dort niemand ein 5s o.Ä. dabei hatte, und mit dem neuen 720p120 Slo-Mo aufgenommen hat. Da würde man dann evtl. doch mal ein paar Unterschiede genauer sehen. Diese ganzen FullHD-Kameras, die für Video-Zwecke gedacht sind, refreshen alle zu langsam. Da bringt es auch nichts, das nachträglich zu verzögern.

AnarchX
2013-10-20, 09:23:03
Schade übrigens, dass bei der Präsentation dort niemand ein 5s o.Ä. dabei hatte, und mit dem neuen 720p120 Slo-Mo aufgenommen hat. Da würde man dann evtl. doch mal ein paar Unterschiede genauer sehen. Diese ganzen FullHD-Kameras, die für Video-Zwecke gedacht sind, refreshen alle zu langsam. Da bringt es auch nichts, das nachträglich zu verzögern.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9965350#post9965350

Sunrise
2013-10-20, 09:24:20
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9965350#post9965350
Übersehen, danke AnarchX!

Da sieht man schon recht deutlich, wie rissig das Bild wird, wenn die vertikalen Säulen kommen.

Marty98
2013-10-20, 10:00:24
Eine gute Zusammenfassung von GSync von Carsten, wo auch die Grenzen des Systems aufgezeigt werden:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-G-Sync-Daten-1093359/

Danke, sehr guter Artikel!

gnahr
2013-10-20, 10:01:50
wow, stimmt, in notebooks würde die geschichte ja auch richtig krass abziehen.
und im gegensatz zu grafikkartenspezifischen optimierungen funktioniert es bei jeder anwendung im kritischen bereich von 30 bis 60hz. wird auf jeden fall bei der nächsten neuanschaffung ein dicker feature-punkt. ein glück hab ich letztes jahr noch keinen zr30w von dell gekauft.

Marty98
2013-10-20, 10:02:21
Schade übrigens, dass bei der Präsentation dort niemand ein 5s o.Ä. dabei hatte, und mit dem neuen 720p120 Slo-Mo aufgenommen hat.

http://www.youtube.com/watch?v=NffTOnZFdVs

Skysnake
2013-10-20, 10:58:01
Wissen wir, du siehst ja auch keine Unterschiede beim AF :rolleyes:

Natürlich sehe ich welche, nur nicht immer, und es ist schwer zu sagen, wann das Flimmern rein im Gehirn passiert und dann es wirklich auf dem Monitor da ist. Wie schon gesagt, sehen passiert hauptsächlich im Gehirn, und mit den Kontrastwechseln bei HL2 proviziert man gewisse Effekte.

Das bei nVidia z.B. nicht nur von mir! ein Unterschied zwischen Kamerafahrt vorwärts und rückwärts ausgemacht wurde, ist ja nicht ganz normal und sollte einen hellhörig machen


Mit der Logik können wir dann ja auch gleich AA, 4K und alles andere in die Tonne treten und ungestört mit >200FPS zocken. Wie lächerlich.

Die Aussge jetzt von dir? ;D

Was haben denn alle "Pro"-Gamer, und da mein ich wirkliche Progamer denn seit jahren gemacht? GENAU DAS! Sind die jetzt aller lächerlich und habens voll net druff? :rolleyes:

Würde ich aber dennoch nicht als representativ ansehen. Abseits von MP ist es eigentlich eh ziemlich egal, da kann man schon die feinen Sachen nutzen ;)


Wie die ganze Diskussion eigentlich: die Leute die bei der Präsentation waren sind sich ziemlich einig dass das gut funktioniert und cool ist, und jemandem wie Andersson kann man schwerlich unterstellen da momentan nicht objektiv zu sein, und du saugst dir wieder über x Seiten irgendwelche theoretischen Gründe aus den Fingern warum es nichts taugt und der Aufwand nicht gerechtfertigt ist. Wird mit der Zeit echt langweilig.

Langweilig wird es eigentlich nur, das außer rumgepflaume und Totschlagargumente sich nicht sachlich mit Argumenten auseinander gesetzt wird... Wenn ich einen Denkfehler irgendwo drin habe, dann bin ich immer dankbar, wenn man den aufzeigt :up:

Die theoretische Betrachtung ist aber an sich immer gut. Man kann halt feststellen zu welchen Effekten es überhaupt kommen kann, und dann gezielt nach diesen Suchen. Je nachdem sind ja vielleicht bereits Gegenmaßnahmen getroffen. Was man aber natürlich nicht unterschlagen darf ist eine abschließende Bewertung, wie relevant etwas im realen Einsatz ist.

Hier muss man die Funktionstests in echten FPS abwarten.
Ich kann mir beim besten Willen nicht vorstellen, wie das bei schnellen Shootern mit extremen FPS Schwankungen (+-20 FPS) funktionieren soll.
Die Pendeldemo war natürlich ideal, weil es dort eine gleichmäßige Frame Amplitude gab. Interessanter wäre eine Explosion gewesen.
Wie wirkt sich das auf die Eingabe in einem FPS aus (Mauslag?)?
Wenn ich es richtig verstanden habe, wird der Monitor gezwungen mit der GPU zu synchronisieren.... und das ohne Zeitverlust/Buffer gerade beiden extremen FPS Schwankungen in Shootern?
Wie soll das gehen?
Ich bin mal auf die ersten Berichte gespannt.
Also zur Größe der Schwankung kann ich nichts sagen, aber laut nem hier verlinkten Anandtech Artikel ist die Demo wohl auch mit schwankender Bildausgabe gelaufen. Dazu gibt es aber abseits von dem Anandtech-Artikel keinerlei Aussagen. :(

Da muss man also noch warten, was denn da genau Sache ist.


Wie lange wurde diskutiert dass man so perfekt spielen kann mit Framelimiter oder V-sanc oder Adaptiv V-sync und jetzt braucht man extra Hardware und nen teuren Displayportmonitor?

Btw. Hies es nicht, das adaptives VSync eh perfekt sei, als es von nVidia gepushed wurde? Müsste man sich mal die alten Threads anschauen.


Ich kann mir auch nicht vorstellen, dass dads adequat funktionieren soll. Wenn es bei der Vorführung klappt, ist das natürlich kein Wunder.
Aber lasst und abwarten.
Wie gesagt, laut Anandtech-Artikel soll es wohl auch da funktionieren. DIe haben aber nur nen kleinen Satz dazu geschrieben das wars.

Anscheinend sieht er kein Tearing, also verschwende nicht deine kostbare Zeit mit ihm darüber zu streiten.

Würdest du bitte unterlassen die Unwahrheit zu verbreiten? Ich habe genau das Gegenteil gemacht und sogar Beispiele von Spielen genannt, bei denen Tearing die reinste Seuche ist..

Ich habe gesagt, man sieht nicht überall! Tearing. Und dabei bleibe ich auch. Das heist aber nicht, das es eben nicht auch Games/Situationen gibt, in denen es die reinste Seuche ist.


Es wird in nächster Zeit genug unabhängige Tests von den üblichen Hardware Seiten geben und die werden schon zeigen was GSync bringt, aber selbst dann wird's hier genau so weitergehen wie bisher.

Wenn Leute wie Andersson, Carmack und Sweeny hinter sowas stehen, dann hat das für mich einen deutlich höheren Stellenwert, also die Meinungen von irgendwelchen Membern aus einem Forum.

Bei Leuten auf irgendwelchen Events sollte man allerdings auch IMMER! sehr zurückhaltend/skeptisch/misstrauisch sein. Die stehen in Geschäftsbeziehungen. Geld trübt manchmal den Blick, bzw lässt einen in gewisse Richtungen verstärkt blicken.


GSync macht genau das was wir immer haben wollten, Tearing freie Grafik ohne Inputlag. Das einzige was man hier ankreiden kann ist, dass es eben nur von Nvidia angeboten wird.
Siehste, das ist jetzt wieder son Punkt, wo man sieht, wie Marketing funktioniert und wie sich Leute blenden lassen...

Du hast IMMER! Verzögerungen. Jeder beschissene Meter Kabel/Wire haut dir rund 5ns Latenz drauf. Und von der Latenz durch die Elektronik will ich lieber gar nicht erst anfangen... Die vollgepackte Platine wird ja hoffentlich auch ne Funktion haben, und damit sind halt Latenzen verbunden.

Wenn muss man sagen, "im Vergleich zu XY ohne Inputlag".


Also sorry, Du musst blind sein. Sowohl Tearing, als auch unscharfes Scrolling fallen einem geradezu ins Gesicht, weshalb ich selbst MP immer mit VSync gespielt habe (Q3A, UT, UT2003, MoH: AA...)
Liegt wahrscheinlich daran, dass die Aussage einfach falsch war? Siehe oben.

UT hab ich schon SEHR lange nicht mehr gezockt, daher kann ich ncihts mehr dazu sagen. Q3 hatte Tearing, aber es ging, zumindest auf meinem System damals, aber ja da hat mans auch gesehen.

Wirst du aber sagen, das man Tearing IMMER! sieht? Ich sag nein.

Ja das muss man sehen, aber zumindest so zeitnah wie die Monitore kommen sollen zweifle ich erstmal an einer eigenen Lösung, aber mal schauen.

Nv hat ne Amd Kompatibilität nicht explizit verneint, aber könnten die das überhaupt mit deren jetzigen Karten unterstützen?

Laut Skymtl bei Xtremesystems gibts ja auch Grafikkartenvorraussetzungen:



http://www.xtremesystems.org/forums/showthread.php?287535-NVIDIA-announces-GeForce-GTX-Holiday-Bundle&p=5211777&viewfull=1#post5211777

Hat Amd sowas? Und wenn nicht, wäre es möglich das schnell zu implementieren, wenn man annimmt, dass die 20nm Generation in einigen Monaten ihr Tapeput haben würde? Oder müsste man sowieso auf die übernächste Generation warten. (Alles für den Fall Amd und Nv könnten sich einigen)
hm... kann schon sein, das man expliziet was in Hardware braucht, das wäre aber an sich eigentlich ziemlich doof...

So was lagert man normal wenn dann in die neue Hardware im Monitor aus. Die muss man ja eh bringen. So vergrößert man die Nutzerbasis. Und mit DP gibt es eigentlich keinen Grund irgendwelche Hardware in der GPU vorauszusetzen.

Mit DVI usw ist es schwierig, wobei das mit entsprechendem Aufwand im Monitor eigentlich auch gehen sollte. Er müsste dann halt alles puffern und "einfach" die Daten so schnell wie möglich von der GPU anfordern. Also quasi eben mit Sync off laufen und selbst das Buffering organisieren.


Stark schwankende Frames sollten sogar noch stärker auffallen als es jetzt der Fall ist, da die Bilder ja 1 zu 1 Auf dem Monitor erscheinen. Weniger Lag, weniger Tearing aber mehr "Stottern" bei extremen Framedrops?
also ich hab mir dazu mal Gedanken gemacht, und versuche das mal bildlich darzustellen. Oben die Ausgabe des Monitors mit 60Hz, darunter die der GPU und unten GSync.

Wir gehen mal davon aus, das auch mit GSync man mindestens 4/10 der Zeit braucht um ein Bild aus zu geben, das ist also die minimale Darstellungszeit.

Vsync on
GPU Ausgabe
GSync on (Ausgabe so schnell wie möglich)
GSync on (Ausgabe versucht 60Hz zu treffen)
1111111112222222222333333333444444444455555
1111111222222222222333444444444444444455555
1111111222222222222333344444444444444455555
1111111112222222222333333333444444444455555

Bei der schwankenden Bildausgabe, die zu Microruckeln theoretisch führen kann, kommt es also darauf an, wie GSync genau funktioniert. Entweder funktioniert es wie normales VSync, dann frag ich mich allerdings wie man den Inputlag nicht haben können will, oder es wirkt halt auch teilweise schlechter. Also nur, wenn die Engine davon ausgeht, das immer 1/60s zwischen den Bildern liegt. Die Frage ist halt, ob man das sehen kann. Ich würde tendenziell eher zu nein tippen, wenn ich aber an die Adleraugen von so manchem Nutzer hier denke, dann muss man wohl sagen, die würden das sicherlich sehen.

Muss man also schauen.

Warum sollte es mehr stottern? Aktuell hat der Monitor doch auch nicht mehr Frames zur Verfügung, wenn es Framedrops gibt. Worst Case kann also nicht schlechter sein als der Ist-Zustand, soweit ich das Verstanden habe.

Siehe oben. Kommt halt ganz darauf an, wie GSync nun GENAU funktioniert, also explziet wie die Bedingungen für die Ausgabe eines neuen Bildes sind. Soweit ich das überblicken kann, kann man aber topologische Fälle konstruieren, in denen wohl GSync schlechter ist als normales VSync. Was halt auf jeden Fall mti rein spielt ist die Art und Weise wie die Game-Engines die Zeitentwicklung behandeln. Das ist ja shcon ein Problem von Framepacing.... Deshalb hatte ich da ja shcon vorgeschlagen, man sollte den Gamedevelopern ne Schnittstelle bereitstellen, die es ermöglich die Ingamezeit an die reale Zeit der Ausgabe/Darstellung besser zu koppeln.

Wie oben schon gesagt muss man da aber noch schauen, wie die Bedingungen dafür genau aussehen, das man so ein verhalten dann hat, und wie wahrscheinlich das ganze dann auch noch ist!

Wenn es zwar auftreten kann, aber eben nur 1/10 der Wahrscheinlichkeit für Ruckler hat im vergleich zu normalen VSync, ist es ja noch immer eine dramatische Verbesserung. Fragt sich halt nur wie hoch die absolute ANzahl an Rucklern bei normalem VSync überhaupt ist, und ob der Aufwand/Kosten dann diesen Gewinn rechtfertigen.

Kleines Beispiel.
A: Mit VSync ruckelt es alle 30 Sekunden -> 1/10 nur mit GSync, also nur alle 300 Sekunden.
B: Mit VSync ruckelt es alle 300 Skunden(5min) -> 1/10 nur mit GSync, also nur alle 3000 Sekunden (5o min)

Das ist halt die Frage, ob einen Fall B das Geld noch Wert ist oder nicht. Fall A ist da schon eher ne Rechtfertigung.

Vielleicht ein besseres Beispiel als die 120fps Pendeldemo?

http://youtu.be/t42aNruDkiw
Was mir teilweise extrem auffällt ist, dass VSync, aber auch GSync ziemlich auseinander reisen, aso der Kontrast nicht so gut ist wie bei Vsync off.

Beim ersten anschauen ist mir fast schlecht von dem geflacker geworden :ugly: Inzwischen geht es, ich empfinde das aber noch immer als sehr unangenehm.

Das ist doch nicht normal oder?

Das Bild vom Monitor mit VSync off ist auch viel heller :ugly: Sind das zwei unterschiedliche Monitore, oder warum sind da die FArben so krass anders?

Ich hab mal nen kleines GIF gebaut, damit man sieht, was ich meine. Ich hab wahrlos Screenshots gemacht. Bei Vync off ist es eigentlich immer ein schöner schwarzer Balken und bei den anderen beiden ist es immer "verwaschen" bzw mit Geisterbildern halt.

Ich hoffe man sieht es. Ich hab wirklich wahrlos einfach 5 Screenshots gemacht. Man sieht also, dass das Problem bei GSync scheinbar etwas stärker ausgeprägt ist als bei VSync. 5 Screens sind aber naütlich nicht repräsentativ.


Was mich mal interessieren würde:

Angenommen man kauft sich einen G-Sync-Monitor und wechselt später auf eine AMD-GPU. Kann man den Monitor dann noch weiter nutzen? Vielleicht eine blöde Frage, aber der traditionelle Scaler wird ja ersetzt. Und wenn der nur mit Nvidia GPUs zusammenarbeiten würde, ginge das evtl. nicht. Ich kann es mir aber kaum vorstellen.
hm.. Eigentlich sollte das rein über Software zu machen sein auf SEite des Computers. Ich seh eigentlich keinen offensichtlichen Grund, warum es mit AMD GPUs nicht gehen sollte.

HOT
2013-10-20, 11:03:53
Das hats NV ja mal wieder geschafft und richtig Entwicklungskosten für richtige Scheisse in den Sand gesetzt. Die drei Weisen aus dem Spieleland waren sicher auch nicht billig und das dümmliche Geschwätz der drei Gestalten von Detailgraden mit dem genauen Wissen darüber, das eine Konsole niemals G-Sync einsetzen wird, kein einziger Fernseher jemals dieses Modul integrieren wird ist echt sehr entlarvend gewesen. G-Sync ist ne Totgeburt und das kann nichts werden: Eine geschlossene Hardwarelösung nur für NV-Karten mit Zusatzkosten für Monitore? Also bitte... wer daran glaubt, glaubt auch an den Osterhasen.
Das hätte es sogar schwer sich durchzusetzen, wenn das Modul für 0 € verkauft würde und die Schnittstelle offen für alle Hersteller wär...

Bitte nicht falsch verstehen, eine solche Lösung ist sehr begrüßenswert, weil das ein echte Problem ist. Es hat eben nur nicht den Hauch einer Chance auf dem Markt. Man kann darüber diskutieren, wo die Stärken und Schwächen liegen, es ist nur fürn Popo für eine Lösung, die sich in homöopatischen Mengen verkaufen wird und 0 Einfluss auf den Monitormarkt haben dürfte.

schreiber
2013-10-20, 11:16:37
Warum spielen jetzt dabei auf einmal Konsolen eine Rolle?

Erstens geben diese Leute doch sowieso kein Geld für einen Extra-Monitor aus. Die haben ihren 40" Plasma oder was weiß ich worauf die spielen.
Und zweitens; zusätzliche Details, weil niedrigere fps möglich werden? Bei einem Singleplayer können sie das auch jetzt schon machen, bei einem MP wäre der Shitstorm unter Spielern wohl gigantisch, wenn hier und da zu wenig Bilder dargestellt werden.

Marty98
2013-10-20, 11:21:55
@Hot

Ich bin mir ganz sicher dass es sich durchsetzt und AMD es lizensiert. In 2-3 Jahren wird es standard. Es ist einfach eine Grafikrevolution wie nichts mehr seit vielen Jahren. Leider noch nichts für mich, da ich eine 7970 habe (und es nicht bereue).

Sunrise
2013-10-20, 11:36:02
...Was mir teilweise extrem auffällt ist, dass VSync, aber auch GSync ziemlich auseinander reisen, aso der Kontrast nicht so gut ist wie bei Vsync off.

Beim ersten anschauen ist mir fast schlecht von dem geflacker geworden :ugly: Inzwischen geht es, ich empfinde das aber noch immer als sehr unangenehm.

Das ist doch nicht normal oder?

Das Bild vom Monitor mit VSync off ist auch viel heller :ugly: Sind das zwei unterschiedliche Monitore, oder warum sind da die FArben so krass anders...
Naja, das sollte wohl in erster Linie ein exemplarisches Beispiel sein, damit man sowohl tearing als auch judder sehen kann und mit G-Sync vergleichen.

Da stimmt aber in der Tat was nicht, denn die V-Sync off-Geschichte sieht in der Tat eindeutig schärfer umrissen aus, als die anderen zwei.

aufkrawall
2013-10-20, 11:43:57
Worüber redet ihr?
Euch ist schon klar, dass das TN-Panels sind, die man nicht von der Seite filmen sollte?

RLZ
2013-10-20, 12:04:39
wow, stimmt, in notebooks würde die geschichte ja auch richtig krass abziehen.
Ein Wunder, dass da noch keiner auf die Idee gekommen ist.


Oh... Wartet.
Da gibt es ähnliche Ideen schon.
*Quelle* (https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CFIQFjAE&url=https%3A%2F%2Fintel.activeevents.com%2Fsf13%2Fconnect%2FfileDownload%2Fsessi on%2FA7F3117A1DB51F1BBC915AA1825C2B6A%2FSF13_ULBS003_100.pdf&ei=FqljUvXICOjz0gWwsoGYDg&usg=AFQjCNG-0W1fJEpzSOiQHFOIDgQsxwlLLg&sig2=5DmIk1N5KIm6qXRNw6aMIA&bvm=bv.54934254,d.d2k&cad=rja)

ndrs
2013-10-20, 12:16:26
@Skysnake
Kannst du mal kurz erläutern, was du mit " GSync on (Ausgabe versucht 60Hz zu treffen)" meinst? Das Ergebnis in deinem Beispiel stimmt ja mit Vsync überein, also kann man das da nicht rauslesen :)

Über die Helligkeiten würde ich mir keine großen Gedanken machen. Wie schon gesagt, das sind billige TNs.

@MarcWessels
Q3A mit Vsync??? Ich hoffe doch mit 120Hz auf nem dedicated bzw 144 auf nem listen server. Da das Movement der Engine FPS-abhängig ist, wär alles andere ein Graus.

robbitop
2013-10-20, 12:22:22
Was mir ein wenig Sorgen macht, ist die Kombinierbarkeit von Lightboost mit G-Sync. Das Backlight mit unkonstanter Frequenz pulsieren zu lassen könnte dazu führen, dass es kein angenehmens Empfinden gibt. Kopfschmerzen etc. Lässt sich das überhaupt noch kombinieren?

Falls nicht, hat man sicht mit G-Sync eigentlich nur die Tearingfreiheit auf Kosten vom Hold-Type bedingter Bewegungsunschärfe erkauft. (verglichen mit 120/144Hz und VSync Off)
Lag sollte verglichen mit 120/144 Hz Vsync=off praktisch vernachlässigbar sein.

fondness
2013-10-20, 12:47:27
Das Problem an der Sache ist IMO, dass nur die wenigstens bereit sein werden, einen neuen Monitor - noch dazu für einen beträchtlichen Aufpreis - deshalb zu kaufen. Da habe ich mehr davon, wenn ich mir um den Preis eine schnellere Grafikkarte kaufen. Schon gar nicht wenn man sich damit für längere Zeit an einen Hersteller binden muss und auf Gedeih und Verderb auf den Support von NV angewiesen ist. Was passiert wenn sich GSYNC nicht durchsetzt und NV mittelfristig den Support einstellt? Ich bin da schon mal mit dieser IPG-Lösung im 2D-Betrieb auf die Nase gefallen. Die Monitorhersteller welche eine solche Lösung anbieten sind jetzt auch nicht unbedingt die Marktführer im Display-Bereich, das Angebot wird also nur beschränkt sein, gerade wenn man etwas anderes als TN will.

gnahr
2013-10-20, 13:11:30
60€ sind beträchtlich?
und wenn es ne nische bleibt... funktioniert es trotzdem. im gegensatz zu trueaudio und den mantle-vorteilen die man sich ausmalt. :)

dargo
2013-10-20, 13:13:03
Eine gute Zusammenfassung von GSync von Carsten, wo auch die Grenzen des Systems aufgezeigt werden:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-G-Sync-Daten-1093359/
Hmm... hier steht, dass die Eingabeverzögerung verringert wird. Für mich persönlich viel wichtiger als kein Tearing. Somit wäre das für mich wieder interessant. Aber bitte nicht mit einem TN-Panel (igitt) und auch nicht mit nur einem IHV. :(

mboeller
2013-10-20, 15:06:03
60€ sind beträchtlich?
und wenn es ne nische bleibt... funktioniert es trotzdem. im gegensatz zu trueaudio und den mantle-vorteilen die man sich ausmalt. :)

neue Monitore gibt es für 60,- Euro? Wo? Haben will.

gnahr
2013-10-20, 15:12:00
"MEHR"kosten. der aufpreis wird doch transparent dank nachrüstfunktion.

neue monitore in gut und groß gibts auch nicht für 200€, aber dafür bringen altgeräte in funktionstüchtig auch mehr als 50€.

Sven77
2013-10-20, 15:12:12
Es ging um den Aufpreis.. für das Feature würde ich schon einen neuen Monitor kaufen, dafür ist es einfach zu gut in vor allem in Hinsicht auf die Zielgruppe (Enthusiasten) nicht zu teuer (man bedenke das man SLI/CF nur für diese Zielgruppe m Leben hält). Nur halt nicht TN, dahin kann ich nicht zurück... selbst IPS ist für mich keine richtige Alternative, deswegen zocke ich weiter an einem 4 Jahre alten PVA WUXGA mit 47ms Input Lag :usad: OLED, wo bleibst du

AnarchX
2013-10-20, 15:12:38
G-Sync unterstützt Displays mit bis zu 177Hz und 4K Auflösung: http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html

OC_Burner
2013-10-20, 15:46:31
Was mir teilweise extrem auffällt ist, dass VSync, aber auch GSync ziemlich auseinander reisen, aso der Kontrast nicht so gut ist wie bei Vsync off.

Beim ersten anschauen ist mir fast schlecht von dem geflacker geworden :ugly: Inzwischen geht es, ich empfinde das aber noch immer als sehr unangenehm.

Das ist doch nicht normal oder?

Das Bild vom Monitor mit VSync off ist auch viel heller :ugly: Sind das zwei unterschiedliche Monitore, oder warum sind da die FArben so krass anders?

Ich hab mal nen kleines GIF gebaut, damit man sieht, was ich meine. Ich hab wahrlos Screenshots gemacht. Bei Vync off ist es eigentlich immer ein schöner schwarzer Balken und bei den anderen beiden ist es immer "verwaschen" bzw mit Geisterbildern halt.

Ich hoffe man sieht es. Ich hab wirklich wahrlos einfach 5 Screenshots gemacht. Man sieht also, dass das Problem bei GSync scheinbar etwas stärker ausgeprägt ist als bei VSync. 5 Screens sind aber naütlich nicht repräsentativ.

Die unterschiedlichen Helligkeiten kommen vom automatischen Helligkeitsabgleich der Kamera (GoPro Hero3). Sobald sich das Bild stark ändert (V-Sync on/off) versucht die Kamera zwar den optimalen Weißpunkt zu ermitteln, scheitert aber an der PWM Hintergrundbeleuchtung des Bildschirms. Es ist also immer der gleiche Monitor der allerdings 48hz nativ darstellen kann.

Das Video wurde mit 240fps aufgenommen. Abgespielt wurde dieses Video (http://www.oc-burner.de/ftp/Videos/juddertest/juddertest_48.mp4) mit dem MadVR-Renderer im exklusiven 3DModus bei 60hz mit Vsync on/off und mit 48hz bei simuliertem G-Sync. Es hätte genauso gut irgendein richtiges Game sein können. Der Einfachheit ist es aber keines geworden. Zur Unschärfe läßt sich eigentlich sagen das alle gleich scharf/unscharf sind nur der Tearing-Abriss scheint schärfer zu sein.

Iruwen
2013-10-20, 15:47:06
Was mir ein wenig Sorgen macht, ist die Kombinierbarkeit von Lightboost mit G-Sync. Das Backlight mit unkonstanter Frequenz pulsieren zu lassen könnte dazu führen, dass es kein angenehmens Empfinden gibt. Kopfschmerzen etc. Lässt sich das überhaupt noch kombinieren?

Falls nicht, hat man sicht mit G-Sync eigentlich nur die Tearingfreiheit auf Kosten vom Hold-Type bedingter Bewegungsunschärfe erkauft. (verglichen mit 120/144Hz und VSync Off)
Lag sollte verglichen mit 120/144 Hz Vsync=off praktisch vernachlässigbar sein.

We have a superior, low-persistence mode that should outperform that unofficial [LightBoost] implementation, and importantly, it will be available on every G-SYNC monitor. Details will be available at a later date.

http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

Aber sag mir bitte mal ganz konkret was an meinen Beiträgen technisch inkorrekt ist und sag mir vor allem wo der Denkfehler liegt, lieber kein Geld auszugeben und mit bis jetzt nicht nachprüfbaren Nachteilen mit V-sync zu zocken?

Nicht nachprüfbar?

Im Prinzip ist der Ansatz von Nvidia ja begrüßenswert und auch sehr interessant ....... aber sollten sich die Kosten von 100 EUR / Dollar bewahrheiten sehe ich da ein anderes Problem.
Wie will man im Massenmarkt sowas etabileren ?

Der 08/15 User (also weniger der 3DCenter Besucher) hat im Endeffekt doch nichts davon? ... der sieht "oh 100 EUR mehr zahlen? ..... für was??"

Klar es gibt immer "Pro" Nutzer die natürlich auch bereit sind dafür zu zahlen, aber letzten Endes ist es doch eine Frage des Preises die dem (relativ) kleinem Nutzen gegenüber steht.

Der Nutzen ist aus deiner Sicht vielleicht gering (siehst du evtl. anders wenn du es mal getestet hast), aber wer redet auch davon, dass das für den Massenmarkt eine Rolle spielt und warum sollte es das müssen? Das richtet sich primär an Enthusiasten die auch High-End Hardware kaufen. Die Marktdurchdringung ist für das Feature doch irrelevant solange Nvidia einige Partner hat die entsprechende Hardware anbieten, und das werden sie natürlich. Die Über-OC-Boards von Asus z.B. richten sich logischerweise auch nicht an einen Massenmarkt.
Anders als z.B. Mantle was nur in wenigen (bzw. bisher einem, noch nicht gezeigten) Spielen funktioniert und darauf angewiesen wäre sich flächendeckend zu verbreiten (die meisten Argumente gegen G-SYNC lassen sich nebenbei 1:1 auf Mantle übertragen). G-SYNC funktionert einfach sobald man eine NV-Karte mit einem entsprechenden Display kombiniert.
Das ist ein ziemlich genialer Schachzug: die meisten Leute tauschen ihre Grafikkarte wesentlich häufiger als das Display. Dreimal darf man raten von welchem Hersteller da die nächste Karte wieder kommt.

aufkrawall
2013-10-20, 16:13:23
http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

Könnte das "offizielles" Lightboost für 2D bedeuten?

wn612953
2013-10-20, 16:15:56
Es ist also immer der gleiche Monitor der allerdings 48hz nativ darstellen kann.


Welchen Monitor hast du denn genau benutzt?

dargo
2013-10-20, 16:20:06
Das ist ein ziemlich genialer Schachzug: die meisten Leute tauschen ihre Grafikkarte wesentlich häufiger als das Display. Dreimal darf man raten von welchem Hersteller da die nächste Karte wieder kommt.
Zu dumm nur, dass du auch ein neues Display brauchst. ;) Und dreimal darfst du raten wer von einem M(P)VA Panel auf ein TN geht. ;D IPS ist das auch nicht unbedingt besser als TN... Schwarzwert ebenfalls lächerlich.

aufkrawall
2013-10-20, 16:27:25
Zu dumm nur, dass du auch ein neues Display brauchst. ;) Und dreimal darfst du raten wer von einem M(P)VA Panel auf ein TN geht. ;D
Du solltest nicht immer von irgendwelchen Gurk-TNs in Behörden oder auf der Arbeit auf diese Gamer-Monitore schließen.
Der Schwarzwert ist besser als bei IPS, es gibt mittlerweile offenbar echtes 8Bit oder vernünftiges Dithering und das Reaktionsverhalten ist außer Konkurrenz.
Den Kontrast kann man vielleicht auch mit Lightboost pumpen, ist jetzt aber auch nicht so furchtbar.
Vielleicht sind die neuen Monitore mit G-Sync auch nochmal besser. Wahrscheinlich für die meisten Leute klar der beste Kompromiss fürs Zocken.

lol, MVA zieht mitunter Zentimeter lange Schlieren bei Schwarzwechseln...

Sven77
2013-10-20, 16:31:46
Der beschissene Blickwinkel bleibt aber und große Diagonalen sind nicht gerade hilfreich dabei.. ich habe noch keinen 24" TN gesehen der keine Gurke ist, von 27" ganz zu schweigen.. soviel besser wurden die auch nicht in den letzten Jahren, da braucht man sich nicht in die eigene Tasche zu lügen

dargo
2013-10-20, 16:31:53
Vielleicht sind die neuen Monitore mit G-Sync auch nochmal besser.
Na klar... weil die Display-Hersteller die ganzen Jahre gepennt haben und Nvidia jetzt das Wunderding bringt. ;D Träum weiter. Bei LCDs gibt es schon seit Jahren eine Stagnation und da kommt auch nichts mehr besonderes um den nativen Kontrast und entsprechend den Schwarzwert gravierend zu verbessern. Da muss eine neue Displaytechnologie her. Vielleicht irgendwann mal mit OLED.

OC_Burner
2013-10-20, 16:34:19
Welchen Monitor hast du denn genau benutzt?

Eizo Foris FX2431, nimmt so ziemlich alles zwischen 20-60hz ohne pulldown an.

aufkrawall
2013-10-20, 16:37:05
Der beschissene Blickwinkel bleibt aber und große Diagonalen sind nicht gerade hilfreich dabei.. ich habe noch keinen 24" TN gesehen der keine Gurke ist, von 27" ganz zu schweigen.. soviel besser wurden die auch nicht in den letzten Jahren, da braucht man sich nicht in die eigene Tasche zu lügen
Ich habe nicht gesagt, dass die Blickwinkel gut sind.
Wenn man drauf achtet, kann man in bestimmten Szenen schon eine Verdunkelung bzw. einen Rotstich nach oben hin feststellen.
Aber imho immer noch besser als ständiger Motion Blur, Overdrive-Artefakte, unangenehme Farbvermischungen (bei PMVA Grau -> Gelb = Grün, igitt...), Kristalleffekt, IPS-Glow...

Na klar... weil die Display-Hersteller die ganzen Jahre gepennt haben und Nvidia jetzt das Wunderding bringt. ;D Träum weiter.

Wunderding brauchts nicht und da träum ich btw. auch nicht von.
Eine bessere Elektronik und Software kann aber auch schon was reißen (LUT...). Und da setzt doch der NV-Chip auch an.


Bei LCDs gibt es schon seit Jahren eine Stagnation und kommt auch nichts mehr besonders um den nativen Kontrast und entsprechend den Schwarzwert gravirend zu verbessern. Da muss eine neue Dipsplaytechnologie her. Vielleicht irgendwann mal mit OLED.
Was sollen diese langweiligen Allgemeinplätze jetzt?

dargo
2013-10-20, 16:39:24
Der beschissene Blickwinkel bleibt aber und große Diagonalen sind nicht gerade hilfreich dabei.. ich habe noch keinen 24" TN gesehen der keine Gurke ist, von 27" ganz zu schweigen.. soviel besser wurden die auch nicht in den letzten Jahren, da braucht man sich nicht in die eigene Tasche zu lügen
Eben. 27" sind selbst bei einem MVA schon kritisch. Genug Bildschirme hier zum testen gehabt. In den Ecken war nix mehr mit gutem Schwarzwert. Wobei ich damals nur Bildschirme mit 3.000:1 Kontrast laut Hersteller getestet habe, und zwar alle die es damals gab. Bei den neuen mit 5.000:1 ist es möglicherweise etwas besser geworden.

OC_Burner
2013-10-20, 16:40:34
Könnte das "offizielles" Lightboost für 2D bedeuten?

Ein Blogeintrag früher, siehe BenQ XL2420T Revision 2.0. Soweit ich weiß läßt sich in der neueren Revision LightBoost direkt anschalten.

dargo
2013-10-20, 16:41:12
Was sollen diese langweiligen Allgemeinplätze jetzt?
Gewöhn dich einfach dran, dass es User gibt die andere Prioritäten beim Bildschirm haben.

aufkrawall
2013-10-20, 16:41:24
Eben. 27" sind selbst bei einem MVA schon kritisch.

"selbst bei einem MVA", aha.
Die Blickwinkel sind im Vergleich zu PVA schon wieder mies, in den Ecken siehts deshalb wahrnehmbar ausgegraut/aufgehellt aus (von wegen toller Schwarzwert und so...).

aufkrawall
2013-10-20, 16:43:39
Ein Blogeintrag früher, siehe BenQ XL2420T Revision 2.0. Soweit ich weiß läßt sich in der neueren Revision LightBoost direkt anschalten.
Sehr schön. Ist nur die Frage, ob man weiterhin Kontrolle über Gamma etc. hat. Das muss man bei TN dringend runterdrehen, sonst sieht es zu ausgewaschen aus.
Da werden die anderen sicherlich nachziehen und dann mal schauen, was die Tests so ergeben.

Dann werden einige merken, dass Hold Type mit 60fps ohne Motion Blur nicht unbedingt ein Spaß ist. Kleiner Vorgeschmack auf OLED.

wn612953
2013-10-20, 17:42:01
Eizo Foris FX2431, nimmt so ziemlich alles zwischen 20-60hz ohne pulldown an.


Also wenn du ihm 20 Hz als Input gibst, dann refreshed das Panel auch nur 20 mal pro Sekunde?

Bzw. bei 30 Hz nur 30 mal pro Sekunde usw.?

Wenn ja:

Merkt man das?

Könnte mir vorstellen dass es dann zu flimmern beginnt bzw. die einzelnen Refreshes plötzlich sichtbar werden?

Im Kino werden die 24 fps deshalb ja auch per Shutter mit 48 Hz bzw. 72 Hz dargestellt.

aufkrawall
2013-10-20, 17:48:28
Wieso sollte das mit Hold Type LCD flackern?
Und sicher, dass es mit Digital Cinema ohne Shutter flackert?

wn612953
2013-10-20, 17:58:35
Wieso sollte das mit Hold Type LCD flackern?


Meine Frage bezog sich auf folgende Aussage:




http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

[...]

NVIDIA demonstrated the technology on 144Hz ASUS panels, which obviously caps the max GPU present rate at 144 fps although that's not a limit of G-Sync. There's a lower bound of 30Hz as well, since anything below that and you'll begin to run into issues with flickering. If the frame rate drops below 30 fps, the display will present duplicates of each frame.

[...]





;)

Sven77
2013-10-20, 18:00:19
Wieso sollte das mit Hold Type LCD flackern?
Und sicher, dass es mit Digital Cinema ohne Shutter flackert?

Ja

Edit: vergiss es, falsch gelesen

Gipsel
2013-10-20, 18:02:58
Meine Frage bezog sich auf folgende Aussage:

;)Bisher scheint das im GSync-Modus nur mit Black-Stripe-Insertion mit festem Duty Cycle zu arbeiten (dann fängt es nämlich unterhalb einer bestimmten Framerate an zu flimmern). Aber da müßten sie die Helligkeit irgendwie von Frame zu Frame nachregulieren. Wäre eine krude Lösung und auch irgendwie von hinten durch die Brust. Oder ihre Displaymatrix kann die Werte der Pixel nicht lang genug halten (das ist ein Panel-Parameter, hat mit GSync wenig zu tun).

Die von mir bereits vor etlichen Seiten vorgeschlagene Lösung würde kontinuierlich vom Backlight-Strobing bei hohen fps zu beinahe reinem hold-type (immer black stripe insertion + strobe und danach backlight an mit variablem duty cycle abhängig von der Anzeigedauer, man muß dabei nicht bereits vorher wissen, wie lange das aktuelle Frame angezeigt wird) bei niedrigen fps variieren. Aber laut Carmack ist sowas in der Art ja auch für die Zukunft geplant.

OC_Burner
2013-10-20, 18:21:22
Also wenn du ihm 20 Hz als Input gibst, dann refreshed das Panel auch nur 20 mal pro Sekunde?

Bzw. bei 30 Hz nur 30 mal pro Sekunde usw.?

Wenn ja:

Merkt man das?

Könnte mir vorstellen dass es dann zu flimmern beginnt bzw. die einzelnen Refreshes plötzlich sichtbar werden?

Im Kino werden die 24 fps deshalb ja auch per Shutter mit 48 Hz bzw. 72 Hz dargestellt.

Ja und ja. Was soll man denn da merken? Logischerweise tut es arg ruckeln aber sonst ist da nichts weiter. Flimmern tut da überhaupt nichts.

Skysnake
2013-10-20, 18:23:12
@Skysnake
Kannst du mal kurz erläutern, was du mit " GSync on (Ausgabe versucht 60Hz zu treffen)" meinst? Das Ergebnis in deinem Beispiel stimmt ja mit Vsync überein, also kann man das da nicht rauslesen :)

Naja, ob man keinen Lag haben will, und das Bild so schnell ausgibt, wie möglich, oder ob man halt versucht die 60FPS zu treffen, also das Bild auch dann weiterhin darstellt, wenn man schon einen neuen Frame hat.

Dann ist es im Prinzip wie normales VSync, nur das man für den Fall das man kein neues Bild hat, eben nicht nen Refresh des Bildes anwirft, sondern einfach das Bild hält, so lane bis halt was neues kommt. Klar oder?

Die unterschiedlichen Helligkeiten kommen vom automatischen Helligkeitsabgleich der Kamera (GoPro Hero3). Sobald sich das Bild stark ändert (V-Sync on/off) versucht die Kamera zwar den optimalen Weißpunkt zu ermitteln, scheitert aber an der PWM Hintergrundbeleuchtung des Bildschirms. Es ist also immer der gleiche Monitor der allerdings 48hz nativ darstellen kann.

hm... Dann hatten Sie die Kamera aber doof aufgestellt, naja, seis drum.


Das Video wurde mit 240fps aufgenommen. Abgespielt wurde dieses Video (http://www.oc-burner.de/ftp/Videos/juddertest/juddertest_48.mp4) mit dem MadVR-Renderer im exklusiven 3DModus bei 60hz mit Vsync on/off und mit 48hz bei simuliertem G-Sync. Es hätte genauso gut irgendein richtiges Game sein können. Der Einfachheit ist es aber keines geworden. Zur Unschärfe läßt sich eigentlich sagen das alle gleich scharf/unscharf sind nur der Tearing-Abriss scheint schärfer zu sein.
Hast du dir das GIF angeschaut?

Bei VSync off ist der Balken IMMER scharf. Bei VSync On und vor allem bei GSync hat man rechts und links jeweils nen grauen Balken noch neben dem schwarzen Balken.

Das sieht total beschissen aus und nervt auch. Warum hat man denn diesen Darstellungsfehler nicht bei VSync off? Da muss doch irgendwas heftig kaputt sein.

wn612953
2013-10-20, 18:30:30
Ja und ja.


Woher weißt du das? Bei 20 Hz oder 30 Hz Input könnte das Panel (bzw. die vorgeschaltete Elektronik) immernoch einen 3:3 bzw. 2:2 Pulldown benutzen und mit 60 Hz refreshen.

Woher weißt du also, dass es tatsächlich nur 20 oder 30 refreshes pro Sekunde sind und nicht 60?

Was soll man denn da merken? Logischerweise tut es arg ruckeln aber sonst ist da nichts weiter. Flimmern tut da überhaupt nichts.


Siehe Post #605 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9966703#post9966703).

StefanV
2013-10-20, 18:38:09
@Hot
Ich bin mir ganz sicher dass es sich durchsetzt und AMD es lizensiert. In 2-3 Jahren wird es standard. Es ist einfach eine Grafikrevolution wie nichts mehr seit vielen Jahren. Leider noch nichts für mich, da ich eine 7970 habe (und es nicht bereue).
Es wird sich aber NICHT durchsetzen, eben weil es Proprietär ist und ziemlich teuer.

Da kannst eher davon ausgehen, dass sich alle zusammen tun und das ganze in preiswert entwickeln werden. Aber die Frage ist: WIe schauts mit den Patenten aus?!

Und somit kannst du dich wohl bei nVidia bedanken, dass sich kein zweiter an die Sache rantraut...

Das Problem an der Sache ist IMO, dass nur die wenigstens bereit sein werden, einen neuen Monitor - noch dazu für einen beträchtlichen Aufpreis - deshalb zu kaufen.
Genau das ist der Punkt! Ein weiterer ist: einen Nutzen kann ich nur draus ziehen, wenn die framerate niedriger ist als meine Widerholrate. So und wenn man jetzt einen Monitor hat, der 30Hz/50Hz unterstützt, wofür brauch ich jetzt noch mal G-Sync??

Das ist eher was für Situationen, wo die Leistung nicht ausreicht und die Framerate unter die Sollrate fällt...
Jetzt ist aber auch die Frage, wie genau das funktioniert und was es macht, wenn es aktiv wird.

Versucht es die Input Rate an die Soll Widerholrate anzugleichen oder ändert es die Widerholrate? Das kann aber wieder zu (µ)rucklern führen.

Da habe ich mehr davon, wenn ich mir um den Preis eine schnellere Grafikkarte kaufen.
Das ist etwas, was hier viele unterschlagen, in dieser Diskussion.

Eine schnellere Grafikkarte kann nämlich sehr wohl eine Alternative zu G-Sync sein...


60€ sind beträchtlich?
und wenn es ne nische bleibt... funktioniert es trotzdem. im gegensatz zu trueaudio und den mantle-vorteilen die man sich ausmalt. :)
Ja, 60€ sind mehr als beträchtlich.
Schau dir einfach mal die Schirme aufm Geizhals an, was es dort tolles gibt.

Der hier so gehypte ASUS Schirm kostet dann wohl ~400€.
Ein 24" Samsung PLS Schirm ~340€ (http://geizhals.at/de/samsung-syncmaster-s24a850dw-ls24a850dw-a641626.html) und Ein Dell Ultrasharp U2413 kostet auch nur 420€. In 27" Ausführung mit 2560x1440 Pixeln ~500€, gleiches fürn Samsung.

Da wird sich jeder, der das Geld hat, überlegen, ob er nicht vielleicht doch 'nen gescheiteren Schirm holen sollte als für solch ein Zeugs Geld raus zu hauen...

boxleitnerb
2013-10-20, 18:43:42
Genau das ist der Punkt! Ein weiterer ist: einen Nutzen kann ich nur draus ziehen, wenn die framerate niedriger ist als meine Widerholrate. So und wenn man jetzt einen Monitor hat, der 30Hz/50Hz unterstützt, wofür brauch ich jetzt noch mal G-Sync??

Du willst dann also mit konstanten 30 bzw. 50 fps @30 bzw. 50 Hz spielen? Finde das Problem...Hinweis: Flexibilität.

Timbaloo
2013-10-20, 18:47:45
Da wird sich jeder, der das Geld hat, überlegen, ob er nicht vielleicht doch 'nen gescheiteren Schirm holen sollte als für solch ein Zeugs Geld raus zu hauen...
Du meinst, man sollte ernsthaft überlegen was man für ein Produkt eigentlich kaufen will? Bist du genial geboren worden oder war das hartes Training?

Godmode
2013-10-20, 18:58:53
Siehste, das ist jetzt wieder son Punkt, wo man sieht, wie Marketing funktioniert und wie sich Leute blenden lassen...

Du hast IMMER! Verzögerungen. Jeder beschissene Meter Kabel/Wire haut dir rund 5ns Latenz drauf. Und von der Latenz durch die Elektronik will ich lieber gar nicht erst anfangen... Die vollgepackte Platine wird ja hoffentlich auch ne Funktion haben, und damit sind halt Latenzen verbunden.

Wenn muss man sagen, "im Vergleich zu XY ohne Inputlag".


Da war natürlich der Inputlag den VSync verursacht gmeint, was den sonst? Man bei dir muss auch immer alles auf die Goldwaage gelegt werden.

OC_Burner
2013-10-20, 19:00:39
hm... Dann hatten Sie die Kamera aber doof aufgestellt, naja, seis drum.


Hast du dir das GIF angeschaut?

Bei VSync off ist der Balken IMMER scharf. Bei VSync On und vor allem bei GSync hat man rechts und links jeweils nen grauen Balken noch neben dem schwarzen Balken.

Das sieht total beschissen aus und nervt auch. Warum hat man denn diesen Darstellungsfehler nicht bei VSync off? Da muss doch irgendwas heftig kaputt sein.

Die Kamera habe ich dann wohl falsch aufgestellt. Seis drum genau.;)

Den 1 Pixel breiten grauen Balken hast du auch in der Quelle (siehe verlinkte juddertest_48.mp4), zwangsläufig also auch im linken Tearingbeispiel. Einzig und allein die 90° Ecke vom Tearing-Abriss sieht schärfer aus.

Anbei hier das Original GoPro Video mit 240fps (http://www.oc-burner.de/ftp/Videos/G-Sync/GOPR0137_source_of___Nvidias_G-Sync_vs_V-Sync_on_off.MP4).

Woher weißt du das? Bei 20 Hz oder 30 Hz Input könnte das Panel (bzw. die vorgeschaltete Elektronik) immernoch einen 3:3 bzw. 2:2 Pulldown benutzen und mit 60 Hz refreshen.

Woher weißt du also, dass es tatsächlich nur 20 oder 30 refreshes pro Sekunde sind und nicht 60?

Durch dieses nette Tool hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9327080#post9327080

wn612953
2013-10-20, 19:04:22
Durch dieses nette Tool hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9327080#post9327080


Nur komisch dass G-Sync dann laut Anandtech nur 30 Hz bis 144 Hz erlaubt und nicht 1 Hz bis 144 Hz...

OC_Burner
2013-10-20, 19:09:40
Nur komisch dass G-Sync dann laut Anandtech nur 30 Hz bis 144 Hz erlaubt und nicht 1 Hz bis 144 Hz...

Was willst du mir mit diesem Beitrag mitteilen? Der Link sollte nur zeigen das es möglich ist mit einer Kamera festzuhalten ob ein Bildschim mit oder ohne Pulldown arbeitet.

Schaffe89
2013-10-20, 19:13:14
Du willst dann also mit konstanten 30 bzw. 50 fps @30 bzw. 50 Hz spielen? Finde das Problem...Hinweis: Flexibilität.

Hinzukommt, dass man bei 30 oder 50 FPs mit V-sync noch nen Inputlag hat, der wird meiner Meinung nach erst bei 60 Hertz und v-sync recht unbedeutend, insofern lohnt sich hier G-sync schon, denn niemand stellt auf 30 Hertz runter mit V-sync, das würde eher bei 120 Hertz Monitoren sinn machen.

Die Flexibilität von G-sync ist eigentlich das wichtigste Argument, auch ein Grund, warum ich mir das warscheinlich kaufen werden, aber erst wenn es nicht nur von NV unterstützt wird, ich lege mich sicherlich nicht auf einen Hersteller fest.

AMD hat da aktuell die bessere Stellung so etwas durchzudrücken, zum Beispiel als Update für die Konsolen oder generell für die Konsolen, die können sowas nämlich viel besser brauchen wie der PC und ich glaub AMD hat auch schon ein Gegenstück in der Mache, warte mal den 290x Release ab. ;)

wn612953
2013-10-20, 19:15:55
Was willst du mir mit diesem Beitrag mitteilen? Der Link sollte nur zeigen das es möglich ist mit einer Kamera festzuhalten ob ein Bildschim mit oder ohne Pulldown arbeitet.


Naja, du wolltest doch damit sagen, dass du bei deinem Monitor mit Erfolg überprüft hast, ob dessen Panel bei beispielsweise 20 Hz Input tatsächlich nur 20 mal pro Sekunde refreshed, die Flüssigkristalle also nur 20 mal pro Sekunde geschaltet werden, richtig?

Weiterhin hast du gesagt dass es dabei überhaupt nicht zu Flimmern kommt.

Bei Anandtech steht aber Folgendes:




http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

[...]

NVIDIA demonstrated the technology on 144Hz ASUS panels, which obviously caps the max GPU present rate at 144 fps although that's not a limit of G-Sync. There's a lower bound of 30Hz as well, since anything below that and you'll begin to run into issues with flickering. If the frame rate drops below 30 fps, the display will present duplicates of each frame.

[...]




Was, AFAICT, eine gegensätzliche Aussage ist.

wn612953
2013-10-20, 19:18:14
AMD hat da aktuell die bessere Stellung so etwas durchzudrücken, zum Beispiel als Update für die Konsolen oder generell für die Konsolen, die können sowas nämlich viel besser brauchen wie der PC


Warum?

Dazu müssten die ganzen HDTVs erstmal VRR (Variable Refresh Rate) unterstützen, was sie derzeit nicht tun.

Und bei PDPs (Plasma-Displays) wäre das technisch noch nicht einmal möglich AFAIK... (?)

StefanV
2013-10-20, 19:25:13
Hach, herrlich, wie hier einige Leute abgehen, wenn man etwas skeptisch gegenüber diesem G-Sync ist.

Es ist ja nicht so, dass man einen Nutzen aus G-Sync ziehen kann, wenn man konstant bei 60fps ist. Den hat man erst, wenn man unter 60fps fällt. Und wer will das schon...

Schaffe89
2013-10-20, 19:27:45
Warum?

Weil die Spielberkeit an einer Konsole schlechter ist, vor allem aufgrund der geringen FPS, da bewirkt G-Sync mehr als bei hohen FPS.

Es ist ja nicht so, dass man einen Nutzen aus G-Sync ziehen kann, wenn man konstant bei 60fps ist. Den hat man erst, wenn man unter 60fps fällt. Und wer will das schon...

Ein weiterer Nachteil ist aber noch der Rest spürbare Inputlag bei 60 Hertz mit V-sync, ist zwar nicht der Rede Wert, aber immerhin.

boxleitnerb
2013-10-20, 19:33:14
Hach, herrlich, wie hier einige Leute abgehen, wenn man etwas skeptisch gegenüber diesem G-Sync ist.

Es ist ja nicht so, dass man einen Nutzen aus G-Sync ziehen kann, wenn man konstant bei 60fps ist. Den hat man erst, wenn man unter 60fps fällt. Und wer will das schon...

Wie wäre es mit Argumenten statt "abzugehen"?

Klar wäre es optimal, 60 fps konstant halten zu können. Aber Spiele sind bei den fps nunmal hochgradig variabel. Wenn du dich da am Minimum orientierst, verschenkst du massiv Performance. Und wer will das schon...jedenfalls wenn es besser ginge.

OC_Burner
2013-10-20, 19:33:19
Naja, du wolltest doch damit sagen, dass du bei deinem Monitor mit Erfolg überprüft hast, ob dessen Panel bei beispielsweise 20 Hz Input tatsächlich nur 20 mal pro Sekunde refreshed, die Flüssigkristalle also nur 20 mal pro Sekunde geschaltet werden, richtig?

Weiterhin hast du gesagt dass es dabei überhaupt nicht zu Flimmern kommt.

Bei Anandtech steht aber Folgendes:





Was, AFAICT, eine gegensätzliche Aussage ist.

Den Sinn versteh ich jetzt aber trotzdem noch nicht. Der Foris wird mit Kathode PWM hinterleuchtet der ASUS mit LED. Völlig andere Ansätze. Du vergleichst gerade Äpfel mit Birnen. Ich habe hier sogar ein LCD-Monitor der mit 2hz noch ein Bild liefert.

wn612953
2013-10-20, 19:35:18
Weil die Spielberkeit an einer Konsole schlechter ist, vor allem aufgrund der geringen FPS, da bewirkt G-Sync mehr als bei hohen FPS.


Kommt drauf an...

Die niedrige Framerate bei Konsolen ist ja häufig gelockt..., also konstante 30 fps beispielsweise.

Nichtsdestotrotz wäre VRR (Variable Refresh Rate) bei Konsolen natürlich nicht schlecht.

Aber das ändert nun mal (leider) nichts daran, dass sowohl PS4 also auch Xbox One lediglich über einen HDMI Port verfügen und nicht über einen DisplayPort (welcher ja scheinbar für VRR nötig ist) und zudem, AFAIK, bisher kein einziger am Markt erhältlicher HDTV so etwas wie VRR beherrscht und das Ganze bei Plasma-Displays, AFAIK, eh schwierig werden würde...

Bei Digital Foundry wurde allerdings schon über Folgendes spekuliert:



http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming

[...]

We're also curious if next-gen console could conceivably be invited to the party at some point. Our guess is that it's simply not possible in the short term owing to a combination of no G-Sync support in living room displays and no appetite from Nvidia to accommodate the new games machines anyway. Across the medium to long term, the situation still looks bleak - Sony could introduce similar technology that works between PS4 and Bravia displays, but adoption needs to be widespread to really make a difference.

[...]


;)

aufkrawall
2013-10-20, 19:45:03
Ein weiterer Nachteil ist aber noch der Rest spürbare Inputlag bei 60 Hertz mit V-sync, ist zwar nicht der Rede Wert, aber immerhin.
Der ist mit "TB" noch ätzend.

Ich finde es bezeichnend, wie manche Leute ihre niedrigen Ansprüche immer als allgemein gültig hinstellen.
G-Sync ist bei 60fps genau so unsinnig wie 60fps abseits von CRT flüssig sind.

Godmode
2013-10-20, 19:57:55
Der VSync Inputlag ist immer ätzend, mit 60 Hz extrem mit 120 Hz auch noch stark auffallend. Gerade wenn ich mit 3DVision spiele, fällt mir das enorm auf.

Skysnake
2013-10-20, 21:17:00
Den 1 Pixel breiten grauen Balken hast du auch in der Quelle (siehe verlinkte juddertest_48.mp4), zwangsläufig also auch im linken Tearingbeispiel. Einzig und allein die 90° Ecke vom Tearing-Abriss sieht schärfer aus.

Schön wärs, wenns nur ein Pixel breit wäre. Ich habs mal ausgemessen mit GIMP. Sind 5-7 Pixel in der Breite. Ich nehm mal an, dass die Pixel ca 1:1 abgebildet werden. Sind also wohl mehr als 3 Pixel in der Breite.

Da es mit 240 Hz aufgenommen ist, kanns eigentlich auch nicht sein, das man auf den Bildern immer zwei Frames sieht. Keine Ahnung was das ist. Du vielleicht ne Idee? Bei Vsync off ist es ja definitiv deutlich besser bzw eigenltich gar nicht da.

Also ums klar zu machen, bzgl dem grauen Balken um den eigentlich schwarzen Balken rum, seh ich klar nen Unterschied zwischen Vsync off und on/Gsync. Aber keine Ahnung warum

Marty98
2013-10-20, 21:19:08
AMD hat da aktuell die bessere Stellung so etwas durchzudrücken, zum Beispiel als Update für die Konsolen oder generell für die Konsolen, die können sowas nämlich viel besser brauchen wie der PC und ich glaub AMD hat auch schon ein Gegenstück in der Mache, warte mal den 290x Release ab. ;)

Ich denke auch dass hier was von AMD kommt. Sie müssen halt an NVidia eine kleine Gebühr pro Konsole/Grafikkarte wegen der Patente entrichten und schon wird es zum standard.

Marty98
2013-10-20, 21:21:15
Hach, herrlich, wie hier einige Leute abgehen, wenn man etwas skeptisch gegenüber diesem G-Sync ist.

Du bist skeptisch gegenüber ALLEN sachen die mit NVidia zu tun haben, und begeistert für alles wo der Name AND drauf steht. Genauso wie Skysnake.

M4xw0lf
2013-10-20, 21:25:49
Ich denke auch dass hier was von AMD kommt. Sie müssen halt an NVidia eine kleine Gebühr pro Konsole/Grafikkarte wegen der Patente entrichten und schon wird es zum standard.
Yay, superwahrscheinlich dass das passieren wird. Siehe Physx.

gnahr
2013-10-20, 21:27:31
?
physix gabs auf den letzten konsolen, siehe mafia 2 auf der ps3.
zwar nicht volle leistung, aber genau über die schnittstelle.

wir wollen das mögliche nicht ausschließen. :D

-/\-CruNcher-/\-
2013-10-20, 21:28:52
Mantle und G-sync beides ist mit Skepsis zu betrachten allerdings hat G-sync potential was grundlegendes zu verändern aber ein alleingang und teure premium hardware reicht dazu bei weitem nicht aus.

Skysnake
2013-10-20, 21:29:27
Du bist skeptisch gegenüber ALLEN sachen die mit NVidia zu tun haben, und begeistert für alles wo der Name AND drauf steht. Genauso wie Skysnake.
So wie mit Mantle gell :rolleyes:

Oder True Audio :rolleyes:

Beides nicht so wirklich der Bringer, und gerade Mantle stand ich egal wie immer sehr kritisch gegenüber. Wos noch hier die Konsolen würden es unterstützen, weil AMD da versuchen könnte die Marktmacht zu missbrauchen, und seit dem bekannt ist, das es nicht in den Konsolen verwendet wird, weil es kritisch zu sehen ist, ob es abseits der großen Engines verwendet wird.

Zudem ist Mantle ne ziemlich linke Aktion...

Aber ja, ich find alles toll was AMD macht und alles schlecht was nVidia macht... NOT!

MarcWessels
2013-10-20, 21:38:31
@MarcWessels
Q3A mit Vsync??? Ich hoffe doch mit 120Hz auf nem dedicated bzw 144 auf nem listen server. Da das Movement der Engine FPS-abhängig ist, wär alles andere ein Graus.CRT@60Hz TB VSync. :tongue:;D

Blediator16
2013-10-20, 21:48:05
Mantle und G-sync beides ist mit Skepsis zu betrachten allerdings hat G-sync potential was grundlegendes zu verändern aber ein alleingang und teure premium hardware reicht dazu bei weitem nicht aus.

In dieser Form wird da niemals etwas verändert auf dem Markt das hast du bereits gut bemerkt. Brief und Siegel drauf ;) Da hat AMD sogar die größere Chance, dass sich Mantle durchsetzt.

RLZ
2013-10-20, 21:58:23
Ich denke auch dass hier was von AMD kommt. Sie müssen halt an NVidia eine kleine Gebühr pro Konsole/Grafikkarte wegen der Patente entrichten und schon wird es zum standard.
Eigentlich muss das in den DisplayPort Standard rein und dann gibt es auch keine Lizenzgebühren für Nvidia.

StefanV
2013-10-20, 22:03:03
Mantle und G-sync beides ist mit Skepsis zu betrachten allerdings hat G-sync potential was grundlegendes zu verändern aber ein alleingang und teure premium hardware reicht dazu bei weitem nicht aus.
Was soll G-Sync denn grundsätzlich verändern?!
Das wird so einschlagen wie ESA damals, da kannst dir sicher sein!

Es wird sich einfach nicht verbreiten können, aus den üblichen 2 Gründen: zu teuer und zu beschränkt. Sprich man braucht bestimmte Schirme und auch noch bestimmte Grafikkarten.

Wenn das im Display Port Standard drin wäre und die Implementation im Monitor keine 5 Dollar kosten würde, könnte man vielleicht mit einer Verbreitung rechnen - in 10-20 Jahren!
Diese Zeit musst du auch mindestens einrechnen, wenn es um Bildschirme geht. Denn die werden IMMER so lange genutzt, wie es geht. Die werden nur ersetzt, wenn man a) einen größeren haben möchte, b) man mit dem alten unzufrieden ist und c) der alte Kaputt ist. DAS sind die einzigen drei Gründe, die zu einem Kauf eines neuen Bildschirm verleiten.

Gut, der Wille mal einen besseren Schirm zu kaufen, gibt es auch. Aber in der Regel ist der neue Schirm größer als der alte!

Mantle hat schon deutlich stärkere Auswirkungen als dieser Proprietäre Miist, da M$ schon angekündigt hat, ein low level D3D zu machen...


€dit: Und wann hat sich das letzte mal irgendwas durchgesetzt, was a) nicht unbedingt notwendig ist und b) sehr teuer ist. Mir fällt da gerade nichts ein...
Und das wird auch immer so bleiben, dass sich auch niemals das bessere durchsetzt sondern das verbreitetere bzw preiswertere.
Schmeiß auch mal 'nen Blick auf 3D. Das ist Standardisiert und wie weit verbreitet ist das?! Eben, wenig bis gar nicht...
Gut, ist ein schlechter Vergleich, da nicht jeder mit 3D zurecht kommt und einige davon Kopfschmerzen bekommen...

Sunrise
2013-10-20, 22:14:21
Den 1 Pixel breiten grauen Balken hast du auch in der Quelle (siehe verlinkte juddertest_48.mp4), zwangsläufig also auch im linken Tearingbeispiel. Einzig und allein die 90° Ecke vom Tearing-Abriss sieht schärfer aus.
Ich hab mir deine juddertest_48.mp4 auch mal vorgenommen.

Das was Skysnake meint, sind die ausschließlich in der Bewegung stattfindenden unscharfen Kanten. Der Witz ist, wenn du das Video im Player pausierst, siehst du, dass es deutlich schärfer geht. Im Stillstand ist der Übergang von schwarz auf weiß nämlich knackscharf, allerdings auch nur, wenn du auf nearest neighbour stellst (luma upscaling), denn madVR scheint bei deinem Video upzuscalen, weshalb man dann bei zu scharfen Algorithmen zusätzlich noch ringing um den schwarzen Balken sieht.

Allerdings habe ich selbst bei nearest neighbour diese gräulichen Übergänge von schwarz auf den weißen Hintergrund in Bewegung, trotz nativer 48Hz-Zuspielung (4800053Hz mit minimaler deviation).

Liegt das evtl. an der Reaktionszeit des Panels? Habe hier übrigens nen CG243W, ist ähnlich zu deinem Monitor auch entsprechend flexibel und für nen IPS auch ungewöhnlich fix. Das könnte aber einer der Gründe sein, warum sich IPS für G-Sync weniger eignen, weil die einfach langsamer als die TN-Panels sind. Denn wenn ich hier stärkeres Overdrive hätte, dann sähe das richtig übel aus (das Overdrive beim Eizo ist gerade noch so am Limit, da erkenn ich bei sehr schnell vertikalen, kontrastreichem Text lilafarbene Nachzieher, das muss ich aber wirklich erzwingen).

Da müsste man mal bei einem dieser Korea/China-IPS gegentesten, ob die auch so übel "nachziehen".

AnarchX
2013-10-20, 22:15:12
Selbst wenn es NV nicht langfristig exklusiv halten kann, hat die Idee das Potential Einzug in kommende Display Standards zu halten und man kann das "industry first" für sich verbuchen.

Im Endeffekt muss man sich auch fragen warum AMD nicht schon auf eine solche Idee gekommen ist, immerhin hat man mit Evergreen schon seit 2009 eine native Displayport-Implementierung, die für das System notwendig ist. ;)

aufkrawall
2013-10-20, 22:21:18
Liegt das evtl. an der Reaktionszeit des Panels?
Das und der normale Motion Judder mit 48fps (wohl arg verschlimmert durch Hold Type). Es braucht mehr fps.
TN mit 48Hz wär aber nicht so viel besser, bei Schwarz -> Weiß gibts rötliche Verfärbungen (sieht man in Spielen zum Glück so gut wie nie).

Iruwen
2013-10-20, 22:22:22
Was soll G-Sync denn grundsätzlich verändern?!

Dass die Technologie zukünftig zum Standard wird?

Mantle hat schon deutlich stärkere Auswirkungen als dieser Proprietäre Miist, da M$ schon angekündigt hat, ein low level D3D zu machen...

Ach so, und Mantle ist nicht proprietär, hat aber natürlich jetzt schon positive Aufwirkungen auf den Markt :rolleyes:

Duplex
2013-10-20, 22:29:53
Ach so, und Mantle ist nicht proprietär, hat aber natürlich jetzt schon positive Aufwirkungen auf den Markt :rolleyes:
Mantle ist halt was ganz anderes http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Mantle-AMD-Grundprinzipien-APU13-November-angekuendigt-1093287/
Was soll der arrogante smiley dahinter?

StefanV
2013-10-20, 22:38:22
Dass die Technologie zukünftig zum Standard wird?
Von der man genau was als 'normaler User mit bestehender Hardware' hat?!

Und, da es im Schirm implementiert sein muss, wird es ewig dauern, bis es eine nennenswerte Verbreitung erfährt...

aufkrawall
2013-10-20, 22:39:57
Du wirst nicht gezwungen, den Fortschritt in Anspruch zu nehmen.
Geh doch zu den Amesh...

Blediator16
2013-10-20, 22:40:45
Du wirst nicht gezwungen, den Fortschritt in Anspruch zu nehmen.
Geh doch zu den Amesh...

Wer sagt hier, dass das alles schlecht ist?

aufkrawall
2013-10-20, 22:41:28
Wer sagt hier, dass das alles schlecht ist?
Er sagt, es bringt nichts, und das ist Fanboy-Mumpitz.

Iruwen
2013-10-20, 22:44:46
Witzig wie sich die Argumente immer um 180° drehen sobald es um NV geht.

OC_Burner
2013-10-20, 22:45:10
Schön wärs, wenns nur ein Pixel breit wäre. Ich habs mal ausgemessen mit GIMP. Sind 5-7 Pixel in der Breite. Ich nehm mal an, dass die Pixel ca 1:1 abgebildet werden. Sind also wohl mehr als 3 Pixel in der Breite.



Also ums klar zu machen, bzgl dem grauen Balken um den eigentlich schwarzen Balken rum, seh ich klar nen Unterschied zwischen Vsync off und on/Gsync. Aber keine Ahnung warum

Ich glaube was du mit grauen Pixelstreifen meinst ist die Trägheit vom Bildschirm;) Der gesamte schwarze Balken wandert um 5 Pixel pro Frame.

Dieses Video hier wurde direkt vom DVI-Port gecaptured. Vielleicht sind damit ein paar Unklarheiten beseitigt: directshowcapture#_vsync_off___tearing.rar (http://www.oc-burner.de/ftp/Videos/G-Sync/directshowcapture%23_vsync_off___tearing.rar)

Da es mit 240 Hz aufgenommen ist, kanns eigentlich auch nicht sein, das man auf den Bildern immer zwei Frames sieht. Keine Ahnung was das ist. Du vielleicht ne Idee? Bei Vsync off ist es ja definitiv deutlich besser bzw eigenltich gar nicht da.

Sagst du das anhand vom Youtubevideo oder des Originalvideos? Das Youtubevideo zeigt nur jedes zweite Bild der 240fps. Zusätzlich wurde die Abspielgeschwindigkeit geviertelt, was dann 30fps macht.

Ich hab mir deine juddertest_48.mp4 auch mal vorgenommen.

Das was Skysnake meint, sind die ausschließlich in der Bewegung stattfindenden unscharfen Kanten. Der Witz ist, wenn du das Video im Player pausierst, siehst du, dass es deutlich schärfer geht. Im Stillstand ist der Übergang von schwarz auf weiß nämlich knackscharf, allerdings auch nur, wenn du auf nearest neighbour stellst (luma upscaling), denn madVR scheint bei deinem Video upzuscalen, weshalb man dann bei zu scharfen Algorithmen zusätzlich noch ringing um den schwarzen Balken sieht.

Allerdings habe ich selbst bei nearest neighbour diese gräulichen Übergänge von schwarz auf den weißen Hintergrund in Bewegung, trotz nativer 48Hz-Zuspielung (4800053Hz mit minimaler deviation).

Liegt das evtl. an der Reaktionszeit des Panels? Habe hier übrigens nen CG243W, ist ähnlich zu deinem Monitor auch entsprechend flexibel und für nen IPS auch ungewöhnlich fix. Das könnte aber einer der Gründe sein, warum sich IPS für G-Sync weniger eignen, weil die einfach langsamer als die TN-Panels sind. Denn wenn ich hier stärkeres Overdrive hätte, dann sähe das richtig übel aus (das Overdrive beim Eizo ist gerade noch so am Limit, da erkenn ich bei sehr schnell vertikalen, kontrastreichem Text lilafarbene Nachzieher, das muss ich aber wirklich erzwingen).

Da müsste man mal bei einem dieser Korea/China-IPS gegentesten, ob die auch so übel "nachziehen".

Edit: siehe der Beitrag über dem Zitat. Sollte definitiv an der langsamen Reaktionszeit liegen. Denn die ist bei beim Foris FX2431 völlig fürn Arsch.

Schaffe89
2013-10-20, 22:50:19
Er sagt, es bringt nichts, und das ist Fanboy-Mumpitz.

Wo sagt er das denn?

Skysnake
2013-10-20, 22:54:44
Aus dem YT Video.

Nur ums nochmals klar zu machen, was ich meine. Ich hab das Gefühl wir reden aneinander vorbei:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46962&d=1382260025

Links ist ja VSYnc off. Da sieht man den Schwarzen Balken mit Tearing aber scharf. Mitte und Rechts ist VSync/GSync an. Kein Tearing in beiden Fällen, aber dafür "Unscharf", wobei GSync noch etwas schlimmer ist als VSync on. MAn hat halt graue Balken neben dem schwarzen Balken, was ein Darstellungsfehler ist.

Dein Link zum DVI-Mitschnitt ist nett, allerdings ist das der VSync off mitschnitt. An dem gibts ja aber nichts komisches. Haste das auch noch für VSync on und GSync?

aufkrawall
2013-10-20, 22:54:48
Ich hab nicht vor, den Thread mit so nem Quatsch zu hijacken.
Seine Posts sind fast noch gehaltsloser als deine.

Edit: Ihr wollt nicht ernsthaft aus zerkomprimierten Bildern eines abgefilmten Bildschirms irgendeine Kaffeesatzleserei machen?

Tesseract
2013-10-20, 23:19:40
Links ist ja VSYnc off. Da sieht man den Schwarzen Balken mit Tearing aber scharf. Mitte und Rechts ist VSync/GSync an. Kein Tearing in beiden Fällen, aber dafür "Unscharf", wobei GSync noch etwas schlimmer ist als VSync on. MAn hat halt graue Balken neben dem schwarzen Balken, was ein Darstellungsfehler ist.

vsync off hat genau die gleichen geisterbilder und ist das ist auch zu erwarten wenn man ein display, das nicht mit der kamera synchonisiert ist, abfilmt und dann auf eine niedrigere framerate runterrechnet.
können wir diese sinnlose diskussion jetzt bitte beenden?

http://i.imgur.com/vO40rnd.png

Sven77
2013-10-20, 23:24:09
MAn hat halt graue Balken neben dem schwarzen Balken, was ein Darstellungsfehler ist.

Es ist ein Aufnahmefehler...

OC_Burner
2013-10-20, 23:29:38
Aus dem YT Video.

Nur ums nochmals klar zu machen, was ich meine. Ich hab das Gefühl wir reden aneinander vorbei:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46962&d=1382260025

Links ist ja VSYnc off. Da sieht man den Schwarzen Balken mit Tearing aber scharf. Mitte und Rechts ist VSync/GSync an. Kein Tearing in beiden Fällen, aber dafür "Unscharf", wobei GSync noch etwas schlimmer ist als VSync on. MAn hat halt graue Balken neben dem schwarzen Balken, was ein Darstellungsfehler ist.

Dein Link zum DVI-Mitschnitt ist nett, allerdings ist das der VSync off mitschnitt. An dem gibts ja aber nichts komisches. Haste das auch noch für VSync on und GSync?

Die sind alle gleich scharf/unscharf:freak: Das einzige was links schärfer erscheint ist der Abriss vom Tearing (Ecken). Sich jetzt darüber zu streiten ist wirklich fürn Popo. Das Video sollte eigentlich nur demonstrieren das GSync unterhalb oder auch oberhalb von 60hz flüssiger erscheint, da das Pulldowngeruckel wegfällt.

directshowcapture#_vsync_on___judder.rar (http://www.oc-burner.de/ftp/Videos/G-Sync/directshowcapture%23_vsync_on___judder.rar)
directshowcapture#_gsync.rar (http://www.oc-burner.de/ftp/Videos/G-Sync/directshowcapture%23_gsync.rar)

Screemer
2013-10-20, 23:31:28
@sven: geht das auch auf ne andere Art? ist ja schrecklich. wie die Steinzeitmenschen hier...

ich für meinem teil kann voll nachvollziehen was skysnake meint. die beiden rechten Videos machen für mich auch einen unschärferen Eindruck. warum umd weshalb ist doch wohl diskussionswürdig oder nicht?! erleuchtet uns unwissende doch lieber bevor ihr jemandem den Mund verbietet.

Sven77
2013-10-20, 23:37:22
Ich versteh nunmal nicht wie man hier aufgrund eines gifs irgendwelche Rückschlüsse auf die Technik ziehen kann, das ist als ob man den 3D-Effekt eines Filmes mit einem gif bewerten will. Das sind fundamentale Dinge die man wissen sollte, wenn es um Halbleitertechnik geht halte ich auch meine Klappe weil ich einfach keine Ahnung habe..

Screemer
2013-10-20, 23:45:42
ich hab im übrigen wohl grad meinen 2 wochen alten monitor oder auch die Graka, mit dem vor 2 seiten (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9966770&postcount=615)verlinkten tool, zerballert. ist ein 120Hz IPS und er flackert nun einfach nur noch unerträglich. Grüne Bildbereiche flimmern jetzt einfach vor sich hin. So eine KACKE!!!

OC_Burner
2013-10-21, 00:01:32
Kannst du näheres sagen? Das Tool startet ja erst als sehr kleines Fenster und muss manuell vergrößert werden. Ist dein Bildschirm bei maximierten Fenster ausgestiegen? Kann mir überhaupt nicht vorstellen wie das gehen soll.

Skysnake
2013-10-21, 00:02:49
@Tesseract
Da hast du aber nen gutes Händchen mit dem Screenshot bewiesen :up: Ich hab bei insgesamt 10 Screens auf keinem bei VSync off den Streifen drauf gehabt. Dafür bei praktisch jedem mit Vsync on bzw Gsync.

Schon seltsam. Da fragt man sich echt, woher der Unterschied kommt. Ist ja beides mir der selben Kamera aufgenommen am selben Monitor. Mystisch ;D Wo ist Skulli wenn man Sie mal braucht :biggrin:

Die sind alle gleich scharf/unscharf:freak: Das einzige was links schärfer erscheint ist der Abriss vom Tearing (Ecken). Sich jetzt darüber zu streiten ist wirklich fürn Popo. Das Video sollte eigentlich nur demonstrieren das GSync unterhalb oder auch oberhalb von 60hz flüssiger erscheint, da das Pulldowngeruckel wegfällt.

directshowcapture#_vsync_on___judder.rar (http://www.oc-burner.de/ftp/Videos/G-Sync/directshowcapture%23_vsync_on___judder.rar)
directshowcapture#_gsync.rar (http://www.oc-burner.de/ftp/Videos/G-Sync/directshowcapture%23_gsync.rar)
Danke :up:
Ja, da sieht man keinen/kaum einen Unterschied zwischen den drei Varianten bzgl der Kante. Die Kanten flackern alle, wie blöd... Vsync on und Gsync kommen mir aber rein gefühlt dennoch schlimmer vor. Zumindest wird mir ernsthaft kotzübel von dem Geflacker :freak:

Ich versteh nunmal nicht wie man hier aufgrund eines gifs irgendwelche Rückschlüsse auf die Technik ziehen kann, das ist als ob man den 3D-Effekt eines Filmes mit einem gif bewerten will. Das sind fundamentale Dinge die man wissen sollte, wenn es um Halbleitertechnik geht halte ich auch meine Klappe weil ich einfach keine Ahnung habe..
hm.. lass mal überlegen...

Weil das Screens aus vor ein paar Posts zugänglichem Bild/Videomaterial war, welches das nochmals genauer beleuchtet hat, und mir dieses Flimmer da aufgefallen ist?

Sven77
2013-10-21, 00:10:43
Weil das Screens aus vor ein paar Posts zugänglichem Bild/Videomaterial war, welches das nochmals genauer beleuchtet hat, und mir dieses Flimmer da aufgefallen ist?

Aber dir ist schon klar das die Aufnahme auch mit einer festen Frequenz gemacht wurde und dadurch Ghosting und andere Artefakte keinerlei Wunder sind? Ein Ausgabegerät mit dynamischer Bildwiederholrate mit einer Kamera abzufilmen ist wie gesagt genauso von Erfolg geprägt wie einen 3D-Film abzufilmen.. das was du im Film siehst spiegelt nicht die Realität wieder

gnahr
2013-10-21, 00:15:54
es ist keine produktive disskusion skysnake zu fragen warum er etwas macht und rein zufällig 10 sampels mit ner abwegigen tendenz gefunden haben will... und meint dies samt narrativ zu publizieren sei wichtig.

Screemer
2013-10-21, 00:32:19
Kannst du näheres sagen? Das Tool startet ja erst als sehr kleines Fenster und muss manuell vergrößert werden. Ist dein Bildschirm bei maximierten Fenster ausgestiegen? Kann mir überhaupt nicht vorstellen wie das gehen soll.
hab das fenster maximiert und einige sekunden laufen lassen. dabei fotos und videos gemacht. lieft mit 120Hz.

hat sich im übrigern mittlerweile wieder gebessert und ich bin guter dinge, dass es ganz aufhört. werd das teil aber nicht mehr anschmeißen :D habs auch erst gemerkt als ich wieder auf 60Hz gestellt hab und mein grüner Hintergrund zum vorschein kam. niedrige bildwiederholfrequenzen und flackern fallen mir immer massiv auf, wenn dicht neben einem bildschirm vorbeischaue. warum das so ist kann ich nicht sagen. bei sternenhimmel hab ich nen ähnlichen effekt. wenn ich meine augen nicht auf ein sternbild fokusiere sondern leicht versetzt, dann kann ich mehr sterne erkennen. k.a. an was das liegt.

ndrs
2013-10-21, 00:37:36
Ein Ausgabegerät mit dynamischer Bildwiederholrate mit einer Kamera abzufilmen ist wie gesagt genauso von Erfolg geprägt
Wenn die Aufnahme mit 240Hz und das Bild mit maximal 60Hz laufen ist doch alles in Butter. Nyquist-Kriterium ist erfüllt. Natürlich sollte man dann schon die Frames, bei denen das LCD grad ein Bild umbaut schon von Hand raussortieren, aber prinzipiell ist das so schon i.O.

Sven77
2013-10-21, 00:41:45
Dann kannst du davon ausgehen das du auf einem Hold-Type Display in jedem Falle Ghosting hast ;)

gnahr
2013-10-21, 00:56:46
wenn ich meine augen nicht auf ein sternbild fokusiere sondern leicht versetzt, dann kann ich mehr sterne erkennen. k.a. an was das liegt.
schwarz-weiss und farbe werden unterschiedlich im auge notiert und wärend der fokus auf farbe trainiert ist nimmt der rand darum kontrast besser wahr.
(unter "sichtbare wirkung": http://de.wikipedia.org/wiki/Photopisches_Sehen )

Skysnake
2013-10-21, 01:08:12
Aber dir ist schon klar das die Aufnahme auch mit einer festen Frequenz gemacht wurde und dadurch Ghosting und andere Artefakte keinerlei Wunder sind? Ein Ausgabegerät mit dynamischer Bildwiederholrate mit einer Kamera abzufilmen ist wie gesagt genauso von Erfolg geprägt wie einen 3D-Film abzufilmen.. das was du im Film siehst spiegelt nicht die Realität wieder
Das ist aber 240Hz Material, welches auf 60/30 FPS verlangsamt wurde...

Du hast von jedem Frame also mindestens 2 Bilder, die nur den Frame an sich anzeigen.

Man sollte also gar keine Ränder sehen eigentlich. Zumindest nicht immer, sondern maximal bei der Hälfte der Bilder. Das direkt vom DVI-Anschluss abgegriffene Signal passt ja auch, wie es scheint.

Was mir aber dank der Erklärung aber gerade bewusst geworden ist. Nur weils am DVI-Ausgang korrekt ist, muss es ja auf dem Display nicht auch korrekt sein :ugly: Da hockt ja noch massig Elektronik dazwischen.

@OC_Burner:
Könnt ihr vielleicht nochmal nen Video davon machen? Also unter gleichem Winkel und am Besten mit nem Weißen Blatt oder so, damit die Kamera nen einheitlichen Weißpunkt findet.

Ich finds noch immer seltsam, dass das auf dem Videomaterial so komisch dargestellt wird. Das sollte eigentlich nicht sein.

Wäre echt cool, wenn du/ihr das machen könntet :up:

Gipsel
2013-10-21, 02:05:07
Dann kannst du davon ausgehen das du auf einem Hold-Type Display in jedem Falle Ghosting hast ;)Nein. Warum sollte das prinzipiell so sein?

Was mir aber dank der Erklärung aber gerade bewusst geworden ist. Nur weils am DVI-Ausgang korrekt ist, muss es ja auf dem Display nicht auch korrekt sein :ugly: Da hockt ja noch massig Elektronik dazwischen.Am DVI-Ausgang wurde a gar nichts abgegriffen, vor allem nicht das gsync-Video. Das geht ja nur über Displayport. Nach dem Namen zu urteilen, wurde einfach die Directshow-Oberfläche bei jedem Bufferflip in ein File geschrieben, es ist also per Software auf dem Vorführrechner mitgeschnitten worden.

Mancko
2013-10-21, 02:10:33
neben dem vielen unsinn der hier steht ist das allerdings tatsächlich ein berechtigter kritikpunkt. sowas gehört eigentlich standardisiert und zwar nicht nur für PC-monitore sondern TVs, smartphonedisplays usw. auch.

Die anderen sind ja herzlich eingeladen sich bei Nvidia zu melden und Geld für den Entwicklungsaufwand abzudrücken und zwar in Form von Lizenzen und ähnlichem.

Was soll bitte so eine Aussage? Das nennt man Wettbewerb. Nvidia ist nicht zuständig dafür, dass andere wie AMD am Ende überleben. Das ist nicht Nvidia's Problem. Die haben sich schlicht und ergreifend nur um ihrem eigenen Erfolg zu kümmern und nichts anderes!

Gipsel
2013-10-21, 02:14:40
Die anderen sind ja herzlich eingeladen sich bei Nvidia zu melden und Geld für den Entwicklungsaufwand abzudrücken und zwar in Form von Lizenzen und ähnlichem.Nur mal zur Erinnerung, für Mobildisplays gibt es teilweise überschneidende Funktionalität bereits im eDP 1.3 Standard. In Qualcomm SoCs ist es wohl schon drin und Intel will es ab 2014 auch anbieten (Display self refresh, variable Refreshraten zwischen 15 und 60 Hz je nachdem, was dargestellt wird, nur nicht ganz so feingranular wie bei gsync).

Mancko
2013-10-21, 02:16:23
Ein David Goliath Vergleich.
Hey Goliath hat einen 1 Tonnen Stein gehoben, hätte doch David auch machen können.
Wieso hat er es nicht?
Weil er es nicht konnte?!
Und darum sollte man bei AMD und deren Forschungen mal die Kirche im Dorfe lassen.
Die Mittel die Nvidia für Forschung zur Verfügung hat, sind doch Welten höher.
AMD kann froh sein, wenn sie wieder mit dem Arsch an die Wand kommen.


Also erstmal kann man hier nicht von David gegen Goliath reden. AMD als Unternehmen ist einen Tacken größer als Nvidia nur leider eben auch deutlich erfolgloser. Hierfür ist aber nur AMD und deren Management zuständig und nicht Nvidia. Wenn also AMD Kunden etwas zu beanstanden haben, dann ist es ihre Pflicht sich bei AMD auszuheulen und niemandem sonst.


Alleinstellungsmerkmale in dieser Branche schaden vor allem den Spielern/Käufern!

Alleinstellungsmerkmale sind ein elementarer Bestandteil des eigenen Unternehmenserfolges und zwar in allen Bereichen. Das nennt man Unique Selling Point USP. Lernst man in jeder simplen BWL Vorlesung. Als Unternehmer und Eigentümer eines Beratungshauses kann ich sagen, dass wir auch immer danach suchen. Nur so kann man sich von der Konkurenz abheben und auch höhere Preise und damit Margen rechtfertigen. Wer das nicht einsieht oder anerkennt, der hat das System des Kapitalismus nicht verstanden und sollte sich eher Staaten zuwenden, die das gescheiterte Prinzip der Planwirtschaft bevorzugen.

Mancko
2013-10-21, 02:20:33
Nur mal zur Erinnerung, für Mobildisplays gibt es teilweise überschneidende Funktionalität bereits im eDP 1.3 Standard. In Qualcomm SoCs ist es wohl schon drin und Intel will es ab 2014 auch anbieten (Display self refresh, variable Refreshraten zwischen 15 und 60 Hz je nachdem, was dargestellt wird, nur nicht ganz so feingranular wie bei gsync).

Im Grunde ist es mir egal ob andere etwas ähnliches haben. Ich weiß noch nichtmal ob Nvidia da etwas patentiert hat, wofür man Lizenzen eintreiben könnte. Ich kann nur das Gejammer nicht hören - kommt gern aus der AMD Fraktion - wenn der Konkurent etwas bringt, was AMD nicht hat und die dann im Unterton verlangen, dass der andere - z.B. Nvidia - das doch bitte sofort für alle freigeben sollte. Sorry aber so funktioniert weder der Kapitalsmus noch die Marktwirtschaft. Manchmal habe ich das Gefühl, dass AMD Käufer anscheinend ein Dauerabo auf Wahlkampfveranstaltungen "DER LINKEN" haben. Zudem habe ich die gleichen Leute noch nie fordern hören, dass Intel dazu gezwungen wird die x86 Lizenz an Nvidia zu vergeben - am Besten ohne Kosten... Das wäre doch dann mal echter fairer Wettbewerb im CPU Umfeld in den Augen dieser Leute oder etwa nicht?

OC_Burner
2013-10-21, 02:35:08
Nein. Warum sollte das prinzipiell so sein?

Am DVI-Ausgang wurde a gar nichts abgegriffen, vor allem nicht das gsync-Video. Das geht ja nur über Displayport. Nach dem Namen zu urteilen, wurde einfach die Directshow-Oberfläche bei jedem Bufferflip in ein File geschrieben, es ist also per Software auf dem Vorführrechner mitgeschnitten worden.

Der Dateiname mag vielleicht irreführend sein. Aber das Signal wurde tatsächlich vom DVI-Port abgegriffen. Mittels Capturekarte ist das kein Problem.

DVI-Port --> HDMI-Splitter --> PCIe Capturecard --> VirtualDub --> Vfw Encoder --> Avi-File

Das GSync-Video ist natürlich nur simuliert und bedürfte einer Zuspielung von 1920x1080@48hz mit VSync-On.

Skysnake
2013-10-21, 02:53:14
Äh... bitte was?

Simuliert? :ugly:

Ich dachte mir schon hmm komisch DVI, Gipsel meinte doch das ginge wohl nur mit DP, aber gut wenns auch mit DVI geht. Aber was soll denn das jetzt heisen "Simuliert"? :ugly:

Also irgendwie wird es nur verwirrender statt klarer. :(

Gipsel
2013-10-21, 03:21:04
Der Dateiname mag vielleicht irreführend sein. Aber das Signal wurde tatsächlich vom DVI-Port abgegriffen. Mittels Capturekarte ist das kein Problem.

DVI-Port --> HDMI-Splitter --> PCIe Capturecard --> VirtualDub --> Vfw Encoder --> Avi-File

Das GSync-Video ist natürlich nur simuliert und bedürfte einer Zuspielung von 1920x1080@48hz mit VSync-On.Hast Du die selber gemacht oder wo kommen die eigentlich her?

OC_Burner
2013-10-21, 04:32:55
Äh... bitte was?

Simuliert? :ugly:

Ich dachte mir schon hmm komisch DVI, Gipsel meinte doch das ginge wohl nur mit DP, aber gut wenns auch mit DVI geht. Aber was soll denn das jetzt heisen "Simuliert"? :ugly:

Also irgendwie wird es nur verwirrender statt klarer. :(

Unerwähnt war das aber nicht (siehe Beitrag 588 auf Seite 30). Die Überschrift im Video sollte aber auch selbsterklärend sein.

Hast Du die selber gemacht oder wo kommen die eigentlich her?

Ja richtig, die sind selber gemacht.

Godmode
2013-10-21, 10:19:19
Weil hier ständig welche von Standard und sich durchsetzen schreiben: Bei Physx wars klar das es nicht durchgesetzt hat. Man war abhängig von hunderten Softwareherstellern. Bei GSync ist die Situation aber eine ganz andere, weil ich brauch nur einen Monitor dafür und eine Kepler GPU. Ich als Endkunde bin auch nicht auf eine Marktdurchdringung angewiesen, ich kann in ein paar Monaten so eine Monitor kaufen und kann das Feature nutzen.

Skysnake
2013-10-21, 10:38:50
Äh, du weist wie preissensitiv der Monitormarkt ist? :ugly:

Da einfach mal Mehrkosten von 50-100€ drin zu haben ist tödlich, selbst wenn es mit allen Displayarten gehen sollte. Ein sehr großer Teil des Marktes wird nicht kaufen. Dazu kommt das so mancher große Hersteller wie Samsung halt auch fehlt.

Wenn man dann noch bedenkt, wie selten man Monitore meist kauft, wird es ne Ewigkeit dauern, bis auch nur 1% einen daheim stehen haben.

Bei Phys-X (NICHT GPU!) ist das was anderes. mit jedem neuen Spiel hast du ne neue Chance, und wenn die Software gut ist, setzen die Hersteller Sie von ganz allein ein. Irgendwas müssen Sie ja im Normalfall eh davon implementieren. Es ist also nur eine Substitution hier.

Vergleich es eher mit GPU-PhysX, und da ist es sogar noch einfacher, weil nen Game wird nicht teuerer wenn es GPU-PhysX hat für den Kunden....

Godmode
2013-10-21, 10:41:09
Das ist doch mir egal wie verbreitet das ist. Ich kann es kaufen und bin zufrieden.

Botcruscher
2013-10-21, 10:56:09
Mit den Spielern hätte man schon eine Zielgruppe als Käufer. Bis jetzt scheitert es ja eher am Angebot. Ein Monitor mit 1080p ist Abfall. Wozu man das Modul wirklich braucht hat auch noch keiner gesagt. Eine feste Herzzahl ist technisch überhaupt nicht nötig. Die Bilder könnte man eigentlich auch direkt von der Graka schreiben lassen. Das andere Hersteller nicht funktionieren ist auch ein großer Nachteil. Da ist imo abwarten angesagt. Wenn es Erfolg haben sollte wird es entweder breit lizenziert oder es kommt ein Konkurrenzstandard. Samsung alleine sollte genug Macht dafür haben. Der Markt für PC Monitore ist eh von Unwillen geprägt, während mobile geradezu explodiert.

Eggcake
2013-10-21, 11:02:30
Die Technologie ist sehr vielversprechend, wird wieder etwas schwerer bei der Entscheidung ob AMD oder NV. Wobei mich hier halt der zusätzliche Aufwand abschreckt. Ich bevorzuge nunmal IPS, müsste also einen neuen Monitor kaufen welcher das Unterstützt und dazu noch Einbussen in der Bildqualität (sieht jeder anders, ich weiss) hinnehmen - das will ich nicht. Naja, mal abwarten. Auf jeden Fall ist es ein Schritt in die richtige Richtung.

Ich spiele normalerweise mit VSync Off (ganz einfach, weil meine alte HD 5850 zu VSync On nicht wirklich in der Lage ist). Letztens habe ich wieder Batman Arkham Asylum gespielt, bemerkt dass ich konstant über 60FPS habe und mal VSync angeworfen. Der Unterschied war schon enorm...

Skysnake
2013-10-21, 11:20:20
Das ist doch mir egal wie verbreitet das ist. Ich kann es kaufen und bin zufrieden.
Ja, nur bist du als einzelner Kunde, genau wie 0,0x% halt sowas von irrelevant. Das ist für dich zwar wie du richtig feststellst zwar belanglos, aber nicht für die Hersteller und auch nicht für die allgemeine Betrachtung.

AnarchX
2013-10-21, 11:42:59
Ja, nur bist du als einzelner Kunde, genau wie 0,0x% halt sowas von irrelevant. Das ist für dich zwar wie du richtig feststellst zwar belanglos, aber nicht für die Hersteller und auch nicht für die allgemeine Betrachtung.
Trotzdem ändert sich nichts an der Aussage, dass man es in wenigen Monaten kaufen kann und einen Nutzen in nahezu jedem Spiel erfährt, was bei propritären SW-APIs (PhysX, Mantle, TrueAudio) nicht der Fall ist.

Und im Endeffekt ist die potentielle Verkaufszahl wohl möglich größer als bei den 3D Vision Displays die momentan für NV gefertigt werden.

klutob
2013-10-21, 11:45:07
Ja, nur bist du als einzelner Kunde, genau wie 0,0x% halt sowas von irrelevant. Das ist für dich zwar wie du richtig feststellst zwar belanglos, aber nicht für die Hersteller und auch nicht für die allgemeine Betrachtung.

Machst du dir jetzt Sorgen um den Gewinn der Monitorhersteller und Nvidia. ;D Das ist ersteinmal der "Premiumspielermarkt", der u.a bereit ist mGPU einzusetzen und auf 120Hz pocht.
Klar das es nicht für Willis interessant ist, die jeden Euro 2 mal umdrehen müssen und sich ihre überalterten 60Hz TN Krücken schönreden.

Schaffe89
2013-10-21, 11:46:13
Sagt ja auch niemand, dass sich an der Aussage irgendetwas ändert, nur wieso soll ich jetzt kaufen, wenn ich auch abwarten kann was AMD macht, bzw. andere Monitorhersteller?

Wieso soll ich mir jetzt einen NV only Monitor andrehen lassen, welchen ich, wenn ich mal wechsel in die Tonne kloppen kann, was diese Funktion betrifft und dann sowieso Oled kommt?

Ein neuer Moni kommt erst wenn der alte hinüber ist und das dauert sicher noch etwa 3 Jahre, meistens spiel ich zudem auf dem TV und genauso wird es de Masse an Käufern gehen.

Insofern kann man nur hoffen dass AMD da Druck macht ( oder vll auch NV) und was wirklich innovatives zu Wege bringt, nämlich einen Gerätestandard ohne großes Tohuwabohu für jeden Nutzer, kann mir auch kaum vorstellen, dass es dafür ein Patent gibt.

Klar das es nicht für Willis interessant ist, die jeden Euro 2 mal umdrehen müssen und sich ihre überalterten 60Hz TN Krücken schönreden.

Es geht hier eher um allgemeine Einschätzungen und die werden auchnicht deswegen gesagt um G-Sync schlechtzureden.
Manchmal kommts mir so vor als würde jeder nur das lesen, was er gerne lesen würde, damit er dementsprechend antworten kann. :D

klutob
2013-10-21, 12:03:18
Es geht hier eher um allgemeine Einschätzungen und die werden auchnicht deswegen gesagt um G-Sync schlechtzureden.
Manchmal kommts mir so vor als würde jeder nur das lesen, was er gerne lesen würde, damit er dementsprechend antworten kann. :D

Nein, ganz und garnicht. Es ist laut deiner Aussage nicht innovativ weil es kein Gerätestandard ist ;D und man ja fast morgen OLED bekommt (seit 5 Jahren). Ich habe eher den Verdacht, das es bei dir, wie bei vielen anderen hier im Thread nur abgelehnt wird, weil es nicht von ihrem Lieblingshersteller stammt.

Schaffe89
2013-10-21, 12:20:14
Es ist laut deiner Aussage nicht innovativ weil es kein Gerätestandard ist

Nein das habe ich nicht gesagt, ich habe gesagt dass es wirklich innovativ wäre( unter dem Aspekt der Verbreitung und unter dem Aspekt des Herstellergebundenen Features), wenn nicht ein kleiner Kundenkreis profitieren würde, sondern wenn alle davon profitieren könnten, mit zum Beispiel einem Gerätestandard zum Beispiel für Gamingmonitore.

und man ja fast morgen OLED bekommt (seit 5 Jahren).

Das habe ich auch icht gesagt, sondern das interpretierst du lediglich, weil....

" es (nicht) von ihrem Lieblingshersteller stammt. "

Ich lass das mal im Raum stehen und du weißt was ich meine.

Nein, ganz und garnicht.

Natürlich, du hast Skysnake doch zu dem Thema zitiert, also solltest du auch bei dem Thema bleiben und nicht Nebenkreigsschauplätze auf machen und die Kommentare nach Gutdünken zu interpretieren.

Godmode
2013-10-21, 12:23:25
Trotzdem ändert sich nichts an der Aussage, dass man es in wenigen Monaten kaufen kann und einen Nutzen in nahezu jedem Spiel erfährt, was bei propritären SW-APIs (PhysX, Mantle, TrueAudio) nicht der Fall ist.

Und im Endeffekt ist die potentielle Verkaufszahl wohl möglich größer als bei den 3D Vision Displays die momentan für NV gefertigt werden.

Danke. Genau so war das gemeint.

Und zum Marktpotenzial: Die ganzen "Progamer" werden schon genug Werbung für GSync Hardware machen und dann laufen die Normalen auch.

Schaffe89
2013-10-21, 12:27:25
Und zum Marktpotenzial: Die ganzen "Progamer" werden schon genug Werbung für GSync Hardware machen und dann laufen die Normalen auch.

Entweder du beziehst den ganzen Markt für Spielergrafikkarten ein, oder du denkst nur für dich oder du gehst in eine Nische, das ist doch egal wie man argumentiert, solange man es nicht wild durcheinanderwürfelt wie es hier grad passiert.

RLZ
2013-10-21, 12:30:38
Insofern kann man nur hoffen dass AMD da Druck macht ( oder vll auch NV) und was wirklich innovatives zu Wege bringt, nämlich einen Gerätestandard ohne großes Tohuwabohu für jeden Nutzer, kann mir auch kaum vorstellen, dass es dafür ein Patent gibt.
Standards entstehen normalerweise aus proprietären Systemen.
Falls ein Markt dafür da ist oder die Kosten gering genug sind, um es einfach mitzunehmen, wird es in einen Standard einfließen und in ein paar Jahren in jeden Monitor eingebaut.

Das Argument, dass eine volle Marktdurchdringung lange braucht, ist lächerlich. Sieht man das als Problem an, gäbe es keine Innovation mehr in diesen Bereichen.

Timbaloo
2013-10-21, 12:32:21
Wieso soll ich mir jetzt einen NV only Monitor andrehen lassen, welchen ich, wenn ich mal wechsel in die Tonne kloppen kann, was diese Funktion betrifft und dann sowieso Oled kommt?

Ein neuer Moni kommt erst wenn der alte hinüber ist und das dauert sicher noch etwa 3 Jahre, meistens spiel ich zudem auf dem TV und genauso wird es de Masse an Käufern gehen.
Du gehörst ganz offensichtlich nicht zur Zielgruppe. Und was soll dieses ständige "die Masse" Gelaber? Dass GSync keine Lösung für die breite Masse darstellt ist doch mehr als nur offensichtlich... eben wie auch >60Hz Monitore, trotzdem gibt es diese Nische.

Skysnake
2013-10-21, 12:47:20
Trotzdem ändert sich nichts an der Aussage, dass man es in wenigen Monaten kaufen kann und einen Nutzen in nahezu jedem Spiel erfährt, was bei propritären SW-APIs (PhysX, Mantle, TrueAudio) nicht der Fall ist.

Dafür musst du nur ein Spiel kaufen, welches du ja eh kaufen wirst. Beim GSync musst du Glück haben einen bereits gekauft zu haben, den man nachrüsten kann. Ansonsten musste nen neuen kaufen, und viele haben ja schon 3D Monitore gekauft, oder 2560 usw usw.

Da wurde ein recht hoher Grad an Altgeräten also schon ausgetauscht. Gerade bei den Leuten, die als Zielgruppe zu bezeichnen sind. Ob da jetzt viele ihren neuen "alten" Monitor raushauen? Das sind schon heftige Kosten, die da auf einen zukommen, und für was? Für die Situationen, in denen man zwischen >30 und <60 FPS hängt. Das lohnt eigentlich nur für die Leute, die sich bereits die stärkste GPU immer kaufen, und absolut nicht Dual-GPU wollen, bzw eh Multi-GPU mit den stärksten Karten haben. Das sind aber jetzt nicht wirklich Unmengen an Leuten.

Es ist halt nicht so, das GSync alternativlos wäre. Man kann halt in vielen Fällen das Geld auch in eine schnellere GPU stecken. Zudem hat man ohne auch die Wahlfreiheit des Herstellers. Also selbst wenn es jetzt ein "guter Deal" wäre, kann es nächste Gen schon wieder anders aussehen. Wir wissen ja, wie die Preise bei der GTX600er Serie aussahen... Die GTX700er Serie is klar besser, aber keiner sagt, das es bei der 800er nicht wieder unverschämt wird... Mit GSync biste da dann halt gekniffen, weil du ne nVidia sicherlich brauchen wirst.


Und im Endeffekt ist die potentielle Verkaufszahl wohl möglich größer als bei den 3D Vision Displays die momentan für NV gefertigt werden.
Ja, das kann man sicherlich so stehen lassen. Die Leute, die sich nen 3D Vision Display kaufen wollen in Zukunft werden sicherlich schauen ob Sie GSync mitnehmen werden, und wenn es nur die Option ist, später nach zu rüsten.

Wirklich große Verkaufszahlen sind das aber auchnicht wirklich. Zudem ist überhaupt schon klar inwieweit das mit 3D funktioniert?

Machst du dir jetzt Sorgen um den Gewinn der Monitorhersteller und Nvidia. ;D Das ist ersteinmal der "Premiumspielermarkt", der u.a bereit ist mGPU einzusetzen und auf 120Hz pocht.
Klar das es nicht für Willis interessant ist, die jeden Euro 2 mal umdrehen müssen und sich ihre überalterten 60Hz TN Krücken schönreden.
Wieso sollte ich? Wie kommst du auf die abstruse Idee?

Es geht nur darum, das kein Hersteller in Mainstreamgeräte einfach so Hardware für 50$+ einbaut. Da wird auf jeden Cent geschaut.... Ergo hat GSync abseits von nem Nieschendasein also erstmal keine Chance, so lange man nicht ziemlich Kostenneutral produzieren kann und dazu auch noch mehr Hersteller unterstützt

Hugo78
2013-10-21, 13:04:55
Mit GSync biste da dann halt gekniffen, weil du ne nVidia sicherlich brauchen wirst.

Mit Intel oder AMD wäre ich gekniffen.
Nvidia kauf ich sowieso. :tongue:

Und obwohl ich einen 144Hz TFT habe, ist G-Sync erstmal interessanter als immer eine noch stärkere GPU kaufen zumüssen, um die 144Hz auch füttern zukönnen.

Skysnake
2013-10-21, 13:07:50
Wie kannst du dir da so sicher sein?

Blediator16
2013-10-21, 13:08:26
Wie kannst du dir da so sicher sein?

Das ist sowieso seine Sache was er kauft

Sunrise
2013-10-21, 13:24:05
...Das sind schon heftige Kosten, die da auf einen zukommen, und für was? Für die Situationen, in denen man zwischen >30 und <60 FPS hängt. Das lohnt eigentlich nur für die Leute, die sich bereits die stärkste GPU immer kaufen, und absolut nicht Dual-GPU wollen, bzw eh Multi-GPU mit den stärksten Karten haben. Das sind aber jetzt nicht wirklich Unmengen an Leuten.
Ich bin ja oft bei dir, aber diesen Absatz verstehe ich nun absolut nicht (Logik?). Gerade eben die Leute, die eben nicht immer das Geld haben und immer wieder neue High-End-Grafikkarten kaufen, investieren _einmalig_ in einen G-Sync-Monitor und haben ausgesorgt, weil gerade die liegen doch oft in FPS-Bereichen, die niedriger und stark schwankend in diesen sensiblen Regionen sind, wo die Effekte, die G-Sync lösen will, doch am meisten auftreten.

Mainstream-Käufer mit Mittelklasse-Hardware sehen davon doch die stärksten Vorteile, weil du auch mal höhere Settings fahren kannst, wo du sonst auch noch zusätzlich die Nachteile von VSync OFF in Kauf nehmen müsstest.

High-End-Käufer sehen das aber ebenso, nur dass sie zusätzlich ein NOCH flüssigeres Erlebnis präsentiert bekommen.

Die "Nachteile" (wenn man es denn überhaupt so nennen kann, weil das interessiert mich persönlich weniger, da ich diesen "Refreshrate-Mist" schon lange kenne) sind nach aktuellem Stand "leider" die Bindung an NV*, und die Tatsache, dass aktuell wohl nur TN-Panels und einige mit starkem Overdrive arbeitenden IPS (Vermutung von mir) in der Lage sind, schnell genug zu refreshen (was aber für die Durchschnittspreise auch wieder gut is).

Wenn du dir immer den letzten Mist an Monitoren kaufst, dann sind deine Ansprüche sowieso so niedrig, dass sich mit dieser Käufergruppe sowieso kein Geld verdienen lässt. Bist du aber auch nur im Entferntesten ein Gamer (egal ob nach der Arbeit, Abends mit Freunden oder ProGamer), dann solltest du diese Vorteile eigentlich zu schätzen wissen.

NV hat aktuell allerdings Überzeugungsarbeit zu leisten und das erhoffe ich mir mal für heute Abend gegen 20:00 Uhr. Da fehlen einfach aktuelle soviele Details, wie NV sich das genau vorstellt, dass ich einfach persönlich gerne wüsste, was und wie NV das derzeit umsetzt und was man noch mit diesem gigantischen Modul vorhat.

*NV versucht hier natürlich geschickt, ein Loch zu graben, aus dem man nur rauskommt, sollten andere konkurrierende Technologien bzw. offene Standards G-Sync ersetzen. Falls nicht, bindet NV effektiv Käufer an sich, was natürlich nicht gut für den Mark insgesamt ist.

Skysnake
2013-10-21, 14:26:15
Du nennst doch genau schon die Gründe. Man kettet sich auf Gedeih und Verderben an einen Hersteller. GERADE! im Mainstreambereich. Denn dort drehen die Leute halt jeden Euro nicht nur 2 mal um, sondern 100 mal ;)

Klar, auf die Dauer gerechnet scheint das schon "günstig" zu sein, sich nen Monitor zu holen, der einen über mehrere GPUs hinweg Geld spart. Das Problem ist nur, viele Leute rüsten nur selten ihre GPU auf, und wenn Sie es tun, dann schauen Sie nach dem Besten Preis-Leistungsverhältnis. Genau das kannst du dann ja aber knicken. Du musst ja ne nVidia kaufen, und das weiß auch nVidia. Damit wird das halt eine Wette auf die Preise der Zukunft, ob so ein Modul einem etwas bringt oder nicht.

Da würde ich den Mainstreamleuten eher dazu raten, jetzt das Geld in die GPU zu stecken und eben höhere FPS zu haben. Gerade in dem mittleren und unteren Preisbereich bekommste für 50€ mehr ja auch wirklich RICHTIG viel mehr Leistung dafür.

Ich seh GSync eher für die absoluten Enthusiasten, die sich halt keine größere SGPU mehr kaufen können, weil es halt schlicht keine schnelleren gibt, oder Sie halt sogar schon ein 2/3/4er SLI haben. Für die ist das interessant, und kann sich sogar aus Preis/Leistungssicht heraus lohnen.

Für Mainstream wird aber das Geld in ner GPU angelegt wohl meist/immer besser sein.

Das ist sowieso seine Sache was er kauft
Klar. Von mir aus kann er sich mit seinem Geld auch ne Zigarre anzünden, aber das ist jetzt nicht sonderlich objektiv. Ich kann doch heute nicht wissen, was für ne GPU ich in nem halben Jahr oder Jahr kaufen werde :ugly:

Kommt ja immer darauf an, was die Hersteller anbieten, und was Ihnen dafür für Preise vorschweben.

Iruwen
2013-10-21, 14:30:37
Äh, du weist wie preissensitiv der Monitormarkt ist? :ugly:

Da einfach mal Mehrkosten von 50-100€ drin zu haben ist tödlich, selbst wenn es mit allen Displayarten gehen sollte.

Und weißt du wie geil die Hersteller auf ein Alleinstellungsmerkmal im High-End Segment sind? Siehe z.B. OC-Boards von Asus oder halt 3D Vision Displays.

Sunrise
2013-10-21, 15:27:37
Du nennst doch genau schon die Gründe. Man kettet sich auf Gedeih und Verderben an einen Hersteller.
Ich glaub um mehr geht es uns auch nicht, wenn wir ehrlich sind, denn die Vorteile sind ja nicht von der Hand zu weisen.

Und ganz unter uns, ich habe die letzten Jahre auch immer NV gekauft und immer etwas im passenden Preisbereich finden können, was sich auf die Jahre gesehen richtig gelohnt hat. Das eine rechtfertigt das andere zwar nicht, aber NV hatte eben schon immer irgendwas, das mich zu NV getrieben hat und auf das ich nicht verzichten wollte, auch wenn ich sagen muss, dass AMD da mittlerweile (gefühlt) stark aufholt. Irgendwie schafft es NV aber immer wieder, das man solche Alleinstellungsmerkmale hat, die auch wirklich ziehen.

Iruwen
2013-10-21, 15:30:28
Dass offene Standards nicht das Allheilmittel sind sieht man ja an AMDs 3D Versuchen. Das wird jawohl keiner ernsthaft 3D Vision vorziehen, wird das überhaupt noch unterstützt?

Schaffe89
2013-10-21, 15:32:02
Das Argument, dass eine volle Marktdurchdringung lange braucht, ist lächerlich. Sieht man das als Problem an, gäbe es keine Innovation mehr in diesen Bereichen.

Nein ist es nicht, vor allem nicht wenn du meine Beiträge komplett lesen würdest und auf den Zusammenhang achten würdest, außerdem rede ich nirgends von voller Marktdurchdringung, ich beziehe lediglich mehr Nutzer ein, als nur ein paar Pro Gamer die Nische sind.

Du gehörst ganz offensichtlich nicht zur Zielgruppe. Und was soll dieses ständige "die Masse" Gelaber? Dass GSync keine Lösung für die breite Masse darstellt ist doch mehr als nur offensichtlich... eben wie auch >60Hz Monitore, trotzdem gibt es diese Nische.

Wenn du dich nicht mit mir über den Massenmarkt unterhalten willst, dann lass es doch ganz einfach und schau nicht über den Tellerrand, wo ist das Problem?
Das positive ist, dass G-sync AMD unter Druck setzen kann auch was zu tun. Das Problem ist aber dann, dass man dann vll 2 Lösungen für ein Problem hat, unterschiedliche Monitore die nicht mit Hardware A und Hardware B funktionieren, gerade deswegen setzte sich AMD ja für Open Source ein( siehe 3D), da das aber nicht mehr wirkt, wird AMD wohl selbst eigene Süppchen kochen.

Man war abhängig von hunderten Softwareherstellern. Bei GSync ist die Situation aber eine ganz andere, weil ich brauch nur einen Monitor dafür und eine Kepler GPU. Ich als Endkunde bin auch nicht auf eine Marktdurchdringung angewiesen, ich kann in ein paar Monaten so eine Monitor kaufen und kann das Feature nutzen.

Da wurde die Diskussion um die Verbreitung eingeleitet, wenn euch die nicht interessiert, dann ist mir das wurscht.

-/\-CruNcher-/\-
2013-10-21, 15:54:18
Abwarten wie Samsung und LG reagieren LG zumindestens reagiert ja via ihrem Phillips Brand, sicherlich wird sich vor allem Samsung es sich nicht nehmen lassen etwas ähnliches für Oled zu evaluieren.
Und somit wird das für Nvidia langzeit gesehen wahrscheinlich eh nur für den TFT mark interessant werden.
Wahrscheinlich streben sie deshalb auch nicht sonderlich groß etwas an sondern versuchen High End Gamer zu ködern ;)

Iruwen
2013-10-21, 16:08:36
Das Patentregister ist doch öffentlich oder, weiß man was genau NV sich hat patentieren lassen?

Godmode
2013-10-21, 19:49:24
Gibt es schon irgendwo Informationen, warum die G-Sync Platine so komplex ist? Könnte man dort eventuell Postprocessing wie zb. Zwischen-Bild-Berechnungen durchführen? Oder ist das Ding so komplex weil es mit vielen verschiedenen Monitoren zusammen arbeiten muss?

AnarchX
2013-10-21, 19:50:43
In 10 Minuten gibt es vielleicht ein paar mehr Infos: http://www.pcper.com/live/

Godmode
2013-10-21, 20:03:58
Danke. Mal sehen was da kommt.

Hugo78
2013-10-21, 20:25:13
Sie starten jetzt.

boxleitnerb
2013-10-21, 20:29:57
Wurde der Backlight Strobing Mode schon angesprochen? Das ist der Lightboost Hack von früher, der den LCD-typischen Motion Blur eliminiert bzw. reduziert hat. Das gibts mit G-Sync jetzt offiziell.

Sunrise
2013-10-21, 20:32:39
Hat grade erst angefangen, die scheinen jetzt erstmal die Slides von der letzten Präsentation durchzugehen. Anscheinend kann man später auch Fragen stellen.

Godmode
2013-10-21, 20:40:22
FPGA, hab ich mir fast schon gedacht.

Sunrise
2013-10-21, 20:42:28
Ich habs doch gewusst, scheint also wirklich ein FPGA zu sein.

Skysnake
2013-10-21, 20:43:20
Ok, es ist wie schon vermutet wurde ein FPGA und ersetzt den Scaler komplett.

Sie haben auch das Bild hier noch gezeigt.

Man hat also im Vergleich zu VSync off mehr Lagg. Also den gleichen wie bei normalen VSync on halt auch.

Man hat die 60FPS(?) als Target, und zeigt Bilder nicht früher an, wenn Sie früher fertig sind.

DAs wars dann wohl mit dem "No lag" :ugly:

Für MP usw, soweit ich das nach dem was die ganzen Pros immer sagen nicht brauchbar, weil man eben den Inhalt nicht sofort dargestellt bekommt. :(

EDIT:
Weils ein FPGA ist, werden die Kosten auch relativ weit oben bleiben. Man wird da wohl recht billige FPGAs nutzen können, die werden aber sicherlich noch immer >10$ kosten. Also ohne alles, rein der FPGA. Ich frag mich echt, was die da alles drauf knallen :confused:

Konami
2013-10-21, 20:47:31
Das Bild gibts auch in groß, seit der Präsentation... http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9963830&postcount=22
Und hä? Doch, man zeigt Bilder früher an, wenn sie früher fertig sind. Die GPU muss nicht auf den Monitor warten, sondern umgekehrt. Das ist der Punkt. :ugly:

boxleitnerb
2013-10-21, 20:49:02
Der Scan ist aber immer gleich lang und recht langsam - du siehst doch, dass das dritte Bild erst ein paar ms ausgegeben wird, nachdem es fertig ist (Pfeil geht nicht gerade runter, sondern schräg runter). Ich hatte jetzt eigentlich gedacht, die Scanrate wäre viel höher.

PatkIllA
2013-10-21, 20:53:18
Wenn er schon ins Detail geht, dann sollte er auch sagen, dass das ganze über Video auch nicht zeigen kann. Das Pendel ruckelt natürlich über Video. Zum einen sind die Kameras nicht synchronisiert und außerdem sind die Monitore zu Hause auch wieder mit fixer Refreshrate.
Und selbst über capture-Karten müssten die mit der Studio-Hardware synchronisiert werden. Das gibt es zwar, aber da sagt er nichts zu.

Konami
2013-10-21, 20:56:11
Der Scan ist aber immer gleich lang und recht langsam - du siehst doch, dass das dritte Bild erst ein paar ms ausgegeben wird, nachdem es fertig ist (Pfeil geht nicht gerade runter, sondern schräg runter). Ich hatte jetzt eigentlich gedacht, die Scanrate wäre viel höher.
Da steht doch gar keine Größenangabe, außer einem ominösen "ms" (ohne Zahlen).
Wenn z.B. ein 60-Hz-Monitor an die 60 Hz kracht, kann natürlich nicht schneller als alle 16,7ms gescannt werden. So interpretier ich jedenfalls die Scanbalken.

PatkIllA
2013-10-21, 20:57:27
EDIT:
Weils ein FPGA ist, werden die Kosten auch relativ weit oben bleiben. Man wird da wohl recht billige FPGAs nutzen können, die werden aber sicherlich noch immer >10$ kosten. Also ohne alles, rein der FPGA. Ich frag mich echt, was die da alles drauf knallen :confused:
Für Scaling, Farbraumkonvertierung, Farbmanagement, Dithering braucht man schon etwas Power. Das hat man aber jetzt eh schon alles.
Die Unmengen Speicher sind auch noch ungeklärt.

boxleitnerb
2013-10-21, 20:57:55
Da steht doch gar keine Größenangabe, außer einem ominösen "ms" (ohne Zahlen).
Wenn z.B. ein 60-Hz-Monitor an die 60 Hz kracht, kann natürlich nicht schneller als alle 16,7ms gescannt werden. So interpretier ich jedenfalls die Scanbalken.

Das stimmt. Es scheint ja eine sehr verallgemeinerte Darstellung zu sein. Wenn die fps unterhalb der erreichbaren Hertzzahl liegen, sollte es eigentlich nie ein Problem sein, das Bild sofort auszugeben.

Sunrise
2013-10-21, 21:10:51
Q&A session beginnt jetzt. Also raus mit den Fragen. :D

Konami
2013-10-21, 21:14:40
Q&A session beginnt jetzt. Also raus mit den Fragen. :D
<brokenshovel>: will there be a gsync brain implant?

:uup:

MadManniMan
2013-10-21, 21:18:46
gerade deswegen setzte sich AMD ja für Open Source ein( siehe 3D)

Was ham' sie? Sie haben Third Party Software benutzt und sich darauf ausgeruht :mad:

Hugo78
2013-10-21, 21:29:05
Nvidia bringt noch einen eigenen "Lightboost-Hack" unter 2D...

Aber auch so bin ich grad 110% überzeugt, ... wäre schön wenn es noch ein "Retro Kit" für meinen ASUS VG278HE geben würde, aber der 27" war für schnelle Shooter eh eine kleine Idee zu groß (sitze ~1m vorm TFT).
Der erste, neue, etwas kleinere G-Sync ASUS VG248HE kommt mir da grad recht.

Konami
2013-10-21, 21:32:13
Ich hab keine Ahnung davon, aber scheinbar geht G-Sync prinzipiell mit allen Monitoren die LVDS (http://en.wikipedia.org/wiki/Low-voltage_differential_signaling) benutzen, auch IPS-Panels. Das wär schon mal gut

Nazar
2013-10-21, 21:40:12
Dass offene Standards nicht das Allheilmittel sind sieht man ja an AMDs 3D Versuchen.

Wer hat das behauptet. Aber was willst Du damit wirklich zum Ausdruck bringen?
Dass im Umkehrschluss Alleinstellungsmerkmale neue Standards etablieren?

Das wird jawohl keiner ernsthaft 3D Vision vorziehen, wird das überhaupt noch unterstützt?

Was ist 3D Vision?
In meiner Gilde (100+ Leute) spielt nicht einer mit 3D Vision!
Und welcher Standard ist nun nochmal PhysX?
Und was glaubst Du zu welchem Standrad G-Sync mit Alleinstellungsmerkmal wird?
Wenn ein Otto-Normalspieler in eine Spielhandlung geht, dort einen REchner kauft, ganz zufällig mit einer AMD Karte, der Verkäufer im zufällig einen Monitor mit fertig eingebautem G-Sync dazu gibt, der Spieler zu Hause sich die Daten des Monitors durchliest, den gewünschten Effekt nicht erzielt, in Foren sucht und erfährt "falsche Grafikkarte", er zurück zum Händler geht, der ihm erklärt er müsse noch mal, sagen wir, 300€ mehr ausgeben damit er das Feature nutzen kann, dann haben wir bald wieder die Situation die wir schon mal hatten: "Scheiß PC, wieso muss das so kompliziert sein, ich kaufe mir eine Konsole!"
Der "Standard PC Spiele User" möchte einfach nur spielen!
DAS sollten solche Firmen wie z.B. NV und Andere endlich begreifen.
NV, AMD, MS, Sony und alle anderen, die unbedingt ihr eigenes Süppchen kochen wollen, schneiden sich nur selber ins Fleisch (siehe MS mit Win8).
Der Kunden sagt schon was er will und sogar was er nicht will. Also weshalb versuchen die "großen" Firmen dem Kunden immer wieder zu erzählen, wie dumm er doch eigentlich ist und nicht weiß was er will und merken dabei nicht, dass der Kunde aber immer noch schlau genug ist, um zu bemerken, dass er gerade beleidigt wird (MS Win8 Startbutton, DX11.2).

Mantle, G-Sync, PhysX, und andere Alleinstellungsmerkmale in diesem Bereich, sind pures GIFT für Innovationen im Spielsektor, weil die Spielhersteller missbraucht werden/sich missbrauchen lassen, um Werbung für diesen Plunder in ihren Spielen zu machen und somit kaum noch Zeit bleibt für das eigentliche Spiel. Es gibt so viele gemeinsame Standards die immer wieder in den Hintergrund rücken, vernachlässigt werden (müssen?), nur um z.B. PhysX Effekte in ein Spiel einzubetten (geiler PhysX Effekt, aber scheiß Texturen im Spiel...).
Es gibt mMn wichtigeres für mich als Spieler, als einem Riesen wie NV dabei zu helfen, mir noch mehr übertrieben viel Geld für "wenig Leistung" aus der Tasche zu ziehen.
Wie heißt es doch immer so schön bei den Spielediskussionen: "Grafik ist nicht alles!"
Ja was denn nun?
Heute schon gespielt oder schaust du noch Grafik? :freak:

boxleitnerb
2013-10-21, 21:51:27
Du glaubst doch nicht ernsthaft, dass Mantle, PhysX und Co. die Entwicklungen offener Standards pauschal behindern??
Nimm PhysX als Beispiel, das kommt ja nun gpu-beschleunigt nicht wirklich häufig vor. Eher sogar sehr selten. Und trotzdem hat sich das seit Jahren propagierte OpenCL und Bullet und Havok@GPU überhaupt nicht durchgesetzt.

Es kommt immer darauf an, was für eine Verbreitung so ein proprietärer Standard hat. Bei CUDA im professionellen Sektor ist es was anderes, das ist ja ziemlich beherrschend. Da bleibt kaum Platz für Alternativen, deren Entwicklung ist viel schwieriger. Dasselbe mit DirectX. Früher als DirectX noch nicht so verbreitet war, haben sich Glide und OpenGL noch weiterentwickelt und wurden vor allem auch genutzt. Heute ist das eine tot und das andere so gut wie tot in der PC-Welt.

Die proprietären Features sind gut unter der Voraussetzung, dass
a) keine brauchbare offene Lösung existiert bzw. diese nicht verwendet wird (bei GPU-Physik ist der offensichtliche Grund bei den Konsolen zu suchen, nicht bei PhysX)
b) diese proprietäre Lösung noch keine kritische Masse erreicht hat, ab wo sie wirklich anfängt, konkurrierende Entwicklungen zu behindern.

Manchmal muss es einfach schneller gehen. Einer muss hergehen und muss sagen "wir machen das jetzt so, ich hab keine Lust mehr zu warten, bis sich 5 Firmen geeinigt haben". Später kann ja immer noch ein offener Standard draus werden.

Hugo78
2013-10-21, 21:51:41
Also ich zock grad wieder GTA4, hab mir fürn 10er nochmal die Addons geholt und zum erstmal hab ich mich ernsthaft mit Downsampling auseinandergesetzt,
weil der Titel kein AA bietet und die Pixel auf einem 27" unter 1080p überdeutlich zusehen sind, unter 4xMSAA zock ich sonst keinen Titel mehr.
Was bei GTA4 aber als Zweites ins Auge fällt, ist der stotterne Bildaufbau < 50 fps.
Dachte immer das liegt an der Engine, aber mit dem Wissen jetzt, wie Refreshrate und Framebuffer zusammenhängen, bin ich mir sicher, dass ein G-Sync TFT, auch mein 2. Problem in GTA 4 behebt.


Manchmal muss es einfach schneller gehen. Einer muss hergehen und muss sagen "wir machen das jetzt so, ich hab keine Lust mehr zu warten, bis sich 5 Firmen geeinigt haben". Später kann ja immer noch ein offener Standard draus werden.

So ist es.
D3D hat nicht umsonst OGL verdrängt, open hin oder her.
Erst jetzt wo Valve sich wieder damit beschäftigt, hat OGL wieder eine Chance.
Alles andere ist im Gamingbereich Wunschdenken.

Nazar
2013-10-21, 22:57:29
Du glaubst doch nicht ernsthaft, dass Mantle, PhysX und Co. die Entwicklungen offener Standards pauschal behindern??

Wer sagt das wo? Oder deutet das wo an?
Ich habe das nirgends gesagt oder angedeutet!
Ich bezog mich auf die Spiele und meinte, dass vorhandene Standards wegen der Firmenwerbung in Spielen, nicht genügend Aufmerksamkeit erhalten.
Was Du da oben schreibst, hat nichts mit meiner Aussage zu tun!

Nimm PhysX als Beispiel, das kommt ja nun gpu-beschleunigt nicht wirklich häufig vor. Eher sogar sehr selten. Und trotzdem hat sich das seit Jahren propagierte OpenCL und Bullet und Havok@GPU überhaupt nicht durchgesetzt.

Eine "Unbekannter" kommt an und bietet dir eine "Traumsumme" von 10 Millionen, wenn du PhysX einsetzt. Eventuell fehlt ja dann ja gleich auch etwas von der eh knappen Zeit, um anderen, offenen Physikmodulen eine ebenso große Aufmerksamkeit zu schenken?
Man müsste schon mit dem Hammer gepudert worden sein, um zu glauben, dass eine Riese nicht alles daran setzt, um möglichst "seinen Standard" durchzuboxen.

Es kommt immer darauf an, was für eine Verbreitung so ein proprietärer Standard hat. Bei CUDA im professionellen Sektor ist es was anderes, das ist ja ziemlich beherrschend. Da bleibt kaum Platz für Alternativen, deren Entwicklung ist viel schwieriger. Dasselbe mit DirectX. Früher als DirectX noch nicht so verbreitet war, haben sich Glide und OpenGL noch weiterentwickelt und wurden vor allem auch genutzt. Heute ist das eine tot und das andere so gut wie tot in der PC-Welt.

Warum nennst Du nicht etwas was wirklich erst mal nur eine Alleinstellungsmerkmal war und dann zum Standard wurde, ohne das damit einen Monopolstellung daraus entstand?

Die proprietären Features sind gut unter der Voraussetzung, dass
a) keine brauchbare offene Lösung existiert bzw. diese nicht verwendet wird (bei GPU-Physik ist der offensichtliche Grund bei den Konsolen zu suchen, nicht bei PhysX)
b) diese proprietäre Lösung noch keine kritische Masse erreicht hat, ab wo sie wirklich anfängt, konkurrierende Entwicklungen zu behindern.

Siehe meine Erklärung oben. Ein ganz schlechtes Beispiel.
Zustimmen würde ich Dir, wenn die anderen nicht wollten, und jemand meint auf der richtigen Seite zu sein, das Produkt auf den Markt bringt und anderen die Lizenzen anbietet. Ist bei PhysX, soweit es mir bekannt ist, nie der Fall gewesen. Wenn ich die Diskussionen noch richtig im Kopf habe, hat NV sogar alles daran gesetzt, es den anderen nicht zugänglich zu machen.
Wie will man mit so einem Handeln Standards entwickeln ohne auf eine Monopolstellung abzuzielen?

Manchmal muss es einfach schneller gehen. Einer muss hergehen und muss sagen "wir machen das jetzt so, ich hab keine Lust mehr zu warten, bis sich 5 Firmen geeinigt haben". Später kann ja immer noch ein offener Standard draus werden.

Diese Aussage setzt voraus, vorher mit anderen im Gespräch gewesen zu sein und diese müssen diesen Vorschlag abgelehnt haben.
Wir reden hier von NV. Glaubst du allen ernstes, dass sich die anderen Hersteller dieser Technik verwehrt hätten? Besonders wenn NV alle dann jetzt so überraschen konnte?
Hier bringe ich mal wieder das "mit dem Hammer gepudert" Argument, wenn man das glaubt. ;)

boxleitnerb
2013-10-21, 23:18:46
Wer sagt das wo? Oder deutet das wo an?
Ich habe das nirgends gesagt oder angedeutet!
Ich bezog mich auf die Spiele und meinte, dass vorhandene Standards wegen der Firmenwerbung in Spielen, nicht genügend Aufmerksamkeit erhalten.
Was Du da oben schreibst, hat nichts mit meiner Aussage zu tun!


Wenn die Firmen Geld für kriegen, könnten sie die Entwicklung beschleunigen. Teilweise soll es ja auch vorkommen, dass Nvidia selbst die Effekte programmiert (Hörensagen). Letztendlich weiß man gar nicht, wieviel Zeit da überhaupt mit draufgeht. Wenn z.B. sowieso CPU-PhysX verwendet wird, könnte die Implementierung von GPU-PhysX mehr oder weniger "umsonst" sein.

Wie es genau bei Mantle ist mit dem Aufwand, ist mir noch nicht klar, da gibt es ja einige offene Fragen.


Eine "Unbekannter" kommt an und bietet dir eine "Traumsumme" von 10 Millionen, wenn du PhysX einsetzt. Eventuell fehlt ja dann ja gleich auch etwas von der eh knappen Zeit, um anderen, offenen Physikmodulen eine ebenso große Aufmerksamkeit zu schenken?
Man müsste schon mit dem Hammer gepudert worden sein, um zu glauben, dass eine Riese nicht alles daran setzt, um möglichst "seinen Standard" durchzuboxen.


Frage 1: Hätte er überhaupt auf solche Module gesetzt? Das Fehlen solcher Lösungen am Markt deutet eher auf "Nein" hin.
Frage 2: Sollte der Entwickler bei kritischen Sachen wie Renderern (Mantle) nicht sowieso darauf achten, dass es überall gut läuft? Ich tippe auf "Ja."

Es muss nicht gleich immer ein Problem sein.


Warum nennst Du nicht etwas was wirklich erst mal nur eine Alleinstellungsmerkmal war und dann zum Standard wurde, ohne das damit einen Monopolstellung daraus entstand?


Wozu? S.u. Monopolstellung kann es durchaus haben, aber die kann dennoch irrelevant unbedeutend sein im Gesamtmarkt. 2-3 PhysX/Mantle Spiele im Jahr sind ein Tropfen auf den heißen Stein. Lass es 20+% der AAA-Titel werden, dann reden wir weiter.


Siehe meine Erklärung oben. Ein ganz schlechtes Beispiel.
Zustimmen würde ich Dir, wenn die anderen nicht wollten, und jemand meint auf der richtigen Seite zu sein, das Produkt auf den Markt bringt und anderen die Lizenzen anbietet. Ist bei PhysX, soweit es mir bekannt ist, nie der Fall gewesen. Wenn ich die Diskussionen noch richtig im Kopf habe, hat NV sogar alles daran gesetzt, es den anderen nicht zugänglich zu machen.
Wie will man mit so einem Handeln Standards entwickeln ohne auf eine Monopolstellung abzuzielen?


Ich spreche nicht aus NVs Sicht, sondern aus meiner. Natürlich ist es eine (wegen geringer Verbreitung ziemlich irrelevante) Monopolstellung. Ob PhysX sich öffnet oder von einer offenen konkurrierenden Lösung ersetzt wird auf lange Sicht ist mir herzlich egal. Ich lebe im Hier und Jetzt und freue mich, die Effekte genießen zu können. Könnte ich nicht, wenn es PhysX nicht gäbe. Niemand macht sich die Mühe, sowas für OpenCL zu programmieren. Zumindest noch nicht.


Diese Aussage setzt voraus, vorher mit anderen im Gespräch gewesen zu sein und diese müssen diesen Vorschlag abgelehnt haben.
Wir reden hier von NV. Glaubst du allen ernstes, dass sich die anderen Hersteller dieser Technik verwehrt hätten? Besonders wenn sie dann so einen Überraschung auf Lager hatten?
Hier bringe ich mal wieder das "mit dem Hammer gepudert" Argument, wenn man das glaubt. ;)

Nicht unbedingt. Manchmal ist es einfach absehbar, dass die Hürden (momentan) zu groß sind. Bei GPU-Physik waren das die alten Konsolen und evtl. auch Intel. Bei Mantle kann man wohl nicht erwarten, dass man drei Architekturen (AMD, NV, Intel) unter Dach und Fach bekommt und die ganzen Vorteile von Low-Level im vollen Umfang noch hat. Usw.

Schaffe89
2013-10-21, 23:24:44
Welche Standards haben sich Entwickelt durch eine propietäre Entwicklung?
D3D jawohl nur weil Windows 99% des Marktes hat.

Edit:

Wenn Nvidia G-sync aktiviert ist, geht scheinbar kein Sound mehr über Displayport.

Edit:

Wozu?

Damit deine Argumentation glaubwürdiger wird, ich seh das nämlich ganz anders, aus guten Gründen.
Du lieferst aus meiner Sicht kaum Argumente für deine Sicht der Dinge, und driftest dann wieder ab, dass es dir persönlich egal ist, hauptsache die Effekte sind am Markt, irgendwie haben persönliche präferenzen nichts mehr mit dem Thema zu tun, was ihr da diskutiert.

PatkIllA
2013-10-21, 23:36:39
Wenn Nvidia G-sync aktiviert ist, geht scheinbar kein Sound mehr über Displayport.Das könnte aber auch einfach eine Limitierung der jetzigen Implementierung sein.

StefanV
2013-10-21, 23:54:30
Das könnte aber auch einfach eine Limitierung der jetzigen Implementierung sein.
Sicher ists das. Man verwendet wohl hierfür den Aux Kanal von DP, der ja für Sound vorgesehen ist.

Die Frage ist aber: Was hat nVidia sich hierbei patentiert und ist eine offene Implementierung möglich oder nicht, aufgrund von Patenten?

PatkIllA
2013-10-22, 00:01:52
Sicher ists das. Man verwendet wohl hierfür den Aux Kanal von DP, der ja für Sound vorgesehen ist.Der Sound geht als Secondary Data Packet über die gleichen Datenleitungen wie das Bild.

Schaffe89
2013-10-22, 00:10:40
Das glaube ich weniger, ich denke dass das generell nicht funktionieren wird.
Bilder kann man buffern und die Ausgabe verzögern ohne dass das irgendwie in irgendeiner Form negativ ausfallen dürfte, natürlich nur wenn man ausreichend hohe FPS hat. Beim Ton dürfte das aber nicht funktionieren, der müsste doch mehrmals einige ms nach vorne und nach hinten herumspringen oder NOT?

Was hat nVidia sich hierbei patentiert und ist eine offene Implementierung möglich oder nicht, aufgrund von Patenten?

Wahrscheinlich nix. Ich wüsste nichts was dagegen spricht, dass auch AMD Karten dieses Feature unterstützen, falls die AMD Karten die Ausgabeelektronik beherrschen Wartesignale zu senden bis ein Frame fertig ist und dann diesen erst zu senden, wenn er denn wirklich mal fertig ist.

Aber nochmal ein Punkt der nicht diskutiert wurde.

Wie wirkt sich eine wechselne Hertz Zahl auf die Augen aus? Positiv oder negativ? Oder wurscht?

Ja wir haben keine Röhrenbildschirme mehr , aber fällt das Thema bei TFT´s komplett weg?

http://semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/

Auch recht interessant, AMD setzt sich für offene Standards ein und ich möchte mal behaupten, dass der Druck durch Nvidia aktuell AMD dazu veranlasst da ein bisschen Manpower reinzustecken, vielleicht ist es auch eine reine Softwarelösung, ohne Änderungen am Monitor, ein besseres V-sync, da dürfte doch auch noch ein bisschen was gehen in die Richtung, dass zumindesn der Inputlag bei V-sync reduziert wird.

PatkIllA
2013-10-22, 00:14:15
Das glaube ich weniger, ich denke dass das generell nicht funktionieren wird.
Bilder kann man buffern und die Ausgabe verzögern ohne dass das irgendwie in irgendeiner Form negativ ausfallen dürfte, natürlich nur wenn man ausreichend hohe FPS hat. Beim Ton dürfte das aber nicht funktionieren, der müsste doch mehrmals einige ms nach vorne und nach hinten herumspringen oder NOT?
Da ist ein kleiner Puffer im Gerät. Es ist jetzt bei DisplayPort und HDMI auch schon so, dass die Tondaten zwischen den Bildern in den Blankingintervallen übertragen werden. Dann darf man halt nicht zwei Bildern direkt nacheinander schicken sondern muss einen Millisekundenbruchteil für den Ton opfern. Bei HDMI ist es sogar so, dass bei SD die Intervalle nicht groß genug sind, um da HD-Ton zwischenzupacken. Deshalb geht HD-Ton auch nur mit HD-Bild.

Skysnake
2013-10-22, 00:16:19
Da steht doch gar keine Größenangabe, außer einem ominösen "ms" (ohne Zahlen).
Wenn z.B. ein 60-Hz-Monitor an die 60 Hz kracht, kann natürlich nicht schneller als alle 16,7ms gescannt werden. So interpretier ich jedenfalls die Scanbalken.

Damit bist du aber eben nicht Lag frei. :(

Gerade kompetive Spieler zocken ja mit reduzierten Details und auch mit >>60 Hz an nem 60 Hz Monitor, damit Sie eben die Chance haben, etwas halt einen Frame früher zu sehen.

Hier wurde ja suggeriert, dass das bei GSync auch so sei, also die Bilddaten so schnell ausgegeben werden, wie es geht, nur eben ohne Tearing. Dem ist aber eben nicht so. Ich sagte ja "Lag frei" kann viel bedeuten... Da waren hier wieder einige viel zu euphorisch. :rolleyes:

Aber nicht nur das, wer skeptisch war, der wurde ja direkt als Fanboy und Miesepeter abgetan... Ich bin mal gespannt, ob da der eine oder andere seine Aussagen nochmals revidiert.


Ich spreche nicht aus NVs Sicht, sondern aus meiner. Natürlich ist es eine (wegen geringer Verbreitung ziemlich irrelevante) Monopolstellung. Ob PhysX sich öffnet oder von einer offenen konkurrierenden Lösung ersetzt wird auf lange Sicht ist mir herzlich egal. Ich lebe im Hier und Jetzt und freue mich, die Effekte genießen zu können. Könnte ich nicht, wenn es PhysX nicht gäbe. Niemand macht sich die Mühe, sowas für OpenCL zu programmieren. Zumindest noch nicht.

Schon mal dran gedacht, dass das nicht gemacht wird, oder sich halt nicht durchsetzt, weil nVidia OpenCL wo es geht links liegen lässt bzw besser gesagt sogar behindert? ICh sag nur fehlender OpenCL Support für Kepler GPUs...

Und dann ist da eben auch noch das bereits vorhandene GPU-PhysX. Es gibt also schon ne Implementierung, die auch noch von einem der beiden Hersteller gepushed wird.

Da würde ich auch nicht wirklich mich dran machen, da was selbst zu implementieren, wobei es mit Havok usw ja versucht wurde, aber wir wissen ja wieviel Erfolg das bisher hatte.

Nightspider
2013-10-22, 00:30:55
Ich habe mich bisher noch nicht zu dem Thema eingelesen aber wie stehen prinzipiell die Chancen, das man G-Sync auf den Korea Monitoren zum laufen bekommt?

1440p+96Hz+G-Sync wäre bestimmt sehr geil.

StefanV
2013-10-22, 00:32:15
Ja wir haben keine Röhrenbildschirme mehr , aber fällt das Thema bei TFT´s komplett weg?
Theoretisch ja.

Im Prinzip kann man die Widerholrate bei TFTs komplett entsorgen und aufhören komplette Bilder zu senden und einfach nur die Unterschiede...

Wenn der Schirm schnell genug ist, könnte man auch ohne Widerholrate die Bilder so schnell wie möglich raushauen...
Ist halt nur eine Frage des Interfaces...

Konami
2013-10-22, 00:36:56
Damit bist du aber eben nicht Lag frei. :(

Gerade kompetive Spieler zocken ja mit reduzierten Details und auch mit >>60 Hz an nem 60 Hz Monitor, damit Sie eben die Chance haben, etwas halt einen Frame früher zu sehen.

Hier wurde ja suggeriert, dass das bei GSync auch so sei, also die Bilddaten so schnell ausgegeben werden, wie es geht, nur eben ohne Tearing. Dem ist aber eben nicht so. Ich sagte ja "Lag frei" kann viel bedeuten... Da waren hier wieder einige viel zu euphorisch. :rolleyes:

Aber nicht nur das, wer skeptisch war, der wurde ja direkt als Fanboy und Miesepeter abgetan... Ich bin mal gespannt, ob da der eine oder andere seine Aussagen nochmals revidiert.
Ich versteh das Problem nicht. Dass man an einem Monitor nix schneller darstellen kann als seine Maximalfrequenz erlaubt == Lag?
Bzw. kann man ja teilweise, diese Möglichkeit nennt sich Tearing... prinzipbedingt. Aber GSync ist eine Technologie gegen Tearing. Wer Tearing als Feature betrachtet, der kauft sich natürlich kein GSync-Zeug. :ugly:

StefanV
2013-10-22, 00:38:51
Ich versteh das Problem nicht. Dass man an einem Monitor nix schneller darstellen kann als seine Maximalfrequenz erlaubt == Lag?
Bzw. kann man ja teilweise, diese Möglichkeit nennt sich Tearing... aber GSync ist eine Technologie gegen Tearing. Wer Tearing als Feature betrachtet, der kauft sich natürlich kein GSync-Zeug. :ugly:
Und wo ist jetzt nochmal genau der Vorteil von G-Sync zu einem (auf der GPU implementiertem) intelligentem VSync??

Konami
2013-10-22, 00:41:10
Und wo ist jetzt nochmal genau der Vorteil von G-Sync zu einem (auf der GPU implementiertem) intelligentem VSync??
Dazu gibts doch inzwischen schon 1000 Erklärungen.

PatkIllA
2013-10-22, 00:42:17
Im Prinzip kann man die Widerholrate bei TFTs komplett entsorgen und aufhören komplette Bilder zu senden und einfach nur die Unterschiede...Das würde falls sich das komplette Bild aendert jede Menge Nachteile bringen. Und das passiert oft.

Schaffe89
2013-10-22, 00:50:59
Dazu gibts doch inzwischen schon 1000 Erklärungen.

Inputlagsteht wohl an erster Stelle. Tearing könnte man fixen.

StefanV
2013-10-22, 00:53:28
Dazu gibts doch inzwischen schon 1000 Erklärungen.
Ich erlaube mir mal zu übersetzen:

Du hast keine Ahnung von dem Thema.

Das würde falls sich das komplette Bild aendert jede Menge Nachteile bringen. Und das passiert oft.
Äh, nein. Weil du überträgst ja schon heute nur ganze Bilder. Und wenn man das dann eh macht (=beim zocken oder scrollen z.B.) hat man dadurch theoretisch keinen Nachteil. Nur wenn man halt z.B. gerade tippt, kann man dadurch (theoretisch) 'nen bisserl Strom sparen.

Aber ansonsten ist die Widerholrate nicht wirklich notwendig. Man kann natürlich 'nen min Abstand von Frame zu Frame einbauen, würde ja nix dagegen sprechen (also z.B. 5-10ms).

Prinzipiell sehe ich aber keinen Grund, was gegen Asynchrone Monitore sprechen würde. Außer natürlich das Interface (wobei ich auch nicht verstehe, warum man bei digital angesteuerten Displays damals 'ne Widerholrate eingebaut hat)...

Inputlagsteht wohl an erster Stelle. Tearing könnte man fixen.
Womit wir hier wieder beim Punkt 'intelligenter VSync' wären ;-)

Skysnake
2013-10-22, 01:00:24
Ich versteh das Problem nicht. Dass man an einem Monitor nix schneller darstellen kann als seine Maximalfrequenz erlaubt == Lag?
Bzw. kann man ja teilweise, diese Möglichkeit nennt sich Tearing... prinzipbedingt. Aber GSync ist eine Technologie gegen Tearing. Wer Tearing als Feature betrachtet, der kauft sich natürlich kein GSync-Zeug. :ugly:
Äh nein, du hast es nicht verstanden.

Die Monitore sollten wohl mehr als 60/120FPS darstellen können. Damit hätte man eigentlich die Möglichkeit Bilder nicht nur länger dar zu stellen, sondern eben auch kürzer. Damit würde man dann durchaus die Möglichkeit bekommen fast den gleichen Putputlag wie ohne VSync und eventuellem Tearing zu haben, nur das man eben das Tearing unterbindet.

So wurde es zumindest von vielen hier dargestellt. Dem ist aber wie es scheint eben nicht so.

Von "keinem In-/Outputlag" zu sprechen ist daher in meinen Augen nicht richtig. Zumindest nicht soweit ich das aus den bisherigen Infos beurteilen kann.

GSync reduziert sich damit eigentlich nur noch darauf, für den Fall, das kein neues Bild da ist, wenn der normale Refresh anstehen würde, das Taktsignal für den Monitor zu unterbrechen, damit der Refresh nicht losdackelt :ugly:

Das sollte man eigentlich mit Bauteilen für paar Cents hinbekommen :freak:

Ich bin daher mal gespannt, was das Ding denn sonst noch kann. Je mehr man darüber aber bisher erfährt, desto unspannender wird es :(

Konami
2013-10-22, 01:48:58
Ich erlaube mir mal zu übersetzen:

Du hast keine Ahnung von dem Thema.
Deine Freundlichkeit ist kein Argument. Wie soll denn "intelligentes" VSync bei fixer Refreshrate verhindern, dass der Monitor ein altes Frame doppelt anzeigen muss, wenn die GPU den Refresh verpasst hat?

Äh nein, du hast es nicht verstanden.

Die Monitore sollten wohl mehr als 60/120FPS darstellen können. Damit hätte man eigentlich die Möglichkeit Bilder nicht nur länger dar zu stellen, sondern eben auch kürzer. Damit würde man dann durchaus die Möglichkeit bekommen fast den gleichen Putputlag wie ohne VSync und eventuellem Tearing zu haben, nur das man eben das Tearing unterbindet.
Sag ich ja, dass ichs nicht versteh. :D
Die Refreshrate ist ja reine Sache der Monitorhersteller, G-Sync geht afaik bis 177 Hz. Wenn man mal von 100 fps im Schnitt ausgeht, dann ist da ordentlich Raum für Schwankungen sowohl nach oben als auch nach unten. Natürlich nicht unendlich, weil kein Monitor unendlich schnell ist. Du hast dir (bzw. andere Leute haben sich) irgendeine secret sauce erhofft, die den Monitor praktisch "unendlich schnell" macht?

Also, schon klar dass es ganz andere Möglichkeiten gibt wenn man das "Scannen" komplett aufgibt. Das hätte ich mir von G-Sync jetzt nicht erwartet...

Tobalt
2013-10-22, 08:40:21
Für mich steht über irgendwelche Vsync geschichten um Tearing zu vermeiden immer an erster Stelle die Reaktionsgeschwindigkeit des Panels. Deshalb ist bei mir schon immer Vsync aus.

Gsync vermag nun zwar die sinnlos erzeugte Latenz bei Tripple Buffering elegant zu vermeiden und die Wartezeit bei Double Buffering auf prinzipiell 0 zu verkürzen; Gsync schafft es aber nicht, die Latenz neuer Bilder unter die 16 ms der Refreshrate zu bringen (für 60 Hz Bildschirm gesprochen).

Das ist mir nicht ausreichend. Daher würde ich bei einem 60 Hz Screen auch kein Gsync verwenden sondern weiterhin komplett ohne Vsync auskommen. Denn da kommen neue Frames sofort auf den Screen; nicht erst nach dem Rendern eines kompletten alten Frames.

PS Für die leute die jetzt sagen, dass ich mir dann doch einfach einen 100+Hz Monitor kaufen möge sei gesagt: Wenn Gsync es schafft, diese Monitore mit vernünftigem Panel für <500 Euro anzubieten, unterstütze ich die Technik vöölig :)

Ailuros
2013-10-22, 08:41:31
Ich will mich momentan noch nicht in die Debatte einmischen aber es ist eine tragische Tatsache dass ein IHV wie NV die Technologie-Schwaechen der (LCD) display Hersteller korrigiert.

Iruwen
2013-10-22, 09:05:43
Hier wurde ja suggeriert, dass das bei GSync auch so sei, also die Bilddaten so schnell ausgegeben werden, wie es geht, nur eben ohne Tearing. Dem ist aber eben nicht so. Ich sagte ja "Lag frei" kann viel bedeuten... Da waren hier wieder einige viel zu euphorisch. :rolleyes:

Auf jeden Fall deutlich besser, oder willst du sagen dass alle die auf der Präsentation waren und darüber positiv geschrieben haben blind und/oder gekauft waren? :rolleyes:

/e: hat überhaupt jemand von keinem Lag gesprochen? Dass jedwedes Processing eine gewisse Latenz hat ist logisch.

boxleitnerb
2013-10-22, 09:14:45
Damit deine Argumentation glaubwürdiger wird, ich seh das nämlich ganz anders, aus guten Gründen.
Du lieferst aus meiner Sicht kaum Argumente für deine Sicht der Dinge, und driftest dann wieder ab, dass es dir persönlich egal ist, hauptsache die Effekte sind am Markt, irgendwie haben persönliche präferenzen nichts mehr mit dem Thema zu tun, was ihr da diskutiert.

Es ist sehr wohl relevant, ich habe auch ausgeführt wieso, nämlich wegen der geringen Verbreitung und entsprechende Beispiele genannt. Wo sind deine Argumente? Zeig mir mal die Spiele mit OpenCL-Physik, die Monitore mit flexibleren VSync-Lösungen, die low-level APIs...nichts davon hat sich durchgesetzt. Es braucht manchmal proprietäre Lösungen, um einen Fortschritt zu erzielen, auch wenn dieser Fortschritt erstmal auf eine Gruppe beschränkt ist.

Skysnakes Einwand mit OpenCL ist da relevanter, du sagst ja im Endeffekt gar nichts von Belang, ich finde in deinem Beitrag kein einziges Argument oder Beispiel.


Schon mal dran gedacht, dass das nicht gemacht wird, oder sich halt nicht durchsetzt, weil nVidia OpenCL wo es geht links liegen lässt bzw besser gesagt sogar behindert? ICh sag nur fehlender OpenCL Support für Kepler GPUs...

Und dann ist da eben auch noch das bereits vorhandene GPU-PhysX. Es gibt also schon ne Implementierung, die auch noch von einem der beiden Hersteller gepushed wird.

Da würde ich auch nicht wirklich mich dran machen, da was selbst zu implementieren, wobei es mit Havok usw ja versucht wurde, aber wir wissen ja wieviel Erfolg das bisher hatte.

Schonmal dran gedacht, dass es sich nicht unbedingt lohnt, Geld für exklusive Grafikfeatures zu verpulvern? Die IHVs können das, die verkaufen dadurch mehr Karten. Die ISVs nicht, denn sie müssen auf die Konsolen achten, und die können nunmal kein OpenCL.

Was letztlich im Einzelfall der Grund ist, werden wir nie erfahren, aber es ist grob fahrlässig, immer nur GPU-PhysX anzuführen, die Konsolen aber unter den Tisch fallen zu lassen.

Schaffe89
2013-10-22, 09:21:40
Hier wurde ja suggeriert, dass das bei GSync auch so sei, also die Bilddaten so schnell ausgegeben werden, wie es geht, nur eben ohne Tearing. Dem ist aber eben nicht so.

Demnach dürfte es auch für pro Gamer weniger interessant sein, wenn die GPU wartet bis sie den nächsten Frame ausgibt.