PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

PatkIllA
2014-08-31, 14:41:49
In wenigen Jahren werden wir nur die Köpfe über Displays mit fester Refreshrate schütteln. Ich bin mir sicher, dass das dann in praktisch jedem Monitor, der DP hat, implementiert hat. Entweder oder A- oder G-Sync. Dann hat sich die Diskussion eh erledigt.
Den ganzen Krams gibt es ja eh, weil man bei der Einführung von LCDs den ganzen unnötigen Krams von Röhren übernommen hat. Das merkt man deutlich wenn man HDMI/DVI mit DP vergleicht.

robbitop
2014-08-31, 14:53:52
In wenigen Jahren werden wir wahrscheinlich auch über die Notwendigkeit der x86 Plattform den Kopf schütteln oder über die Notwendigkeit bzw. Sinnhaftigkeit großer, globiger und ziemlich hässlicher Konsolen. Denn beides wird dann auch nicht mehr notwendig sein. Die Gamingindustrie wird sich auch darauf einstellen müssen. Beständig ist nur der Wandel und der ist derzeit in vielen Bereichen ordentlich im Gang.

Du wirst Offtopic.

An der aktuellen Situation ändert das aber nichts. Herr Huddy und AMD brauchen sich nicht weiter äußern und hier irgendwie versuchen Damage Control zu betreiben. Sie haben aktuell nichts. Was sie irgendwann nächstes Jahr haben ist hier nicht von Bedeutung.

AMD hat A-Sync immerhin als Standard bei der VESA etabliert und nicht etwas Propertiäres gemacht. A-Sync war IMO eine Reaktion auf G-Sync. Damit hat NV natürlich Vorsprung.

Und wieso ist hier es nicht von Bedeutung, was nächstes Jahr kommt? Weil du es sagst? :|
Schau mal auf den Thread Titel. Es ist von Bedeutung.

N0Thing
2014-08-31, 15:32:02
Was haben Intel und deren Fertigung oder die CPUs von AMD mit G-Sync/FreeSync zu tun?

Stand der Dinge ist:

Nvidia hat Demos gezeigt, in denen g-sync sowohl mit Spielen als auch einem speziellen Demo-Programm funktioniert hat, es gab einen quasi Prototyp-Monitor und Monitor-"Upgrade" mit g-sync zu kaufen und inzwischen auch einen ganz regulären Monitor mit funktionierendem g-sync, den sogar der ein oder andere hier im Forum schon benutzt.

AMD hat Demos gezeigt, in denen FreeSync mit einem speziellen Demo-Programm mit festen Frameraten funktioniert hat.


Welche Technik am Ende besser ist und ob es überhaupt einen Unterschied gibt, wird man sehen, wenn sowohl FreeSync als auch g-sync in der Praxis miteinander verglichen werden können.

Mancko
2014-08-31, 17:14:06
Was ich persönlich scheisse finden würde wenn jetzt eine Nvidia GPU einen Freesync kompatiblen Monitor ablehnen würde, dann würde ich kotzen wollen.

Noch wissen wir nicht welches Ergebnis Freesync bringt. Bis jetzt muss sich Nvidia darum schon mal nicht kümmern. Wenn es denn verfügbar ist, kann aber genau das was du schreibst passieren. Im Endeffekt wirbt AMD ja damit, dass es jeder nutzen kann. Wenn Nvidia bei dem Feature nicht mitzieht, dann müssen sich Gamer eben für eine Seite entscheiden. Da Nvidia ein eigenes Ökosystem schaffen möchte, ist es durchaus wahrscheinlich, dass sie Freesync gar nicht oder nur rudimentär unterstützen und in jedem Fall mehr für das eigene G-Sync tun. Die Ganze Industrie versucht Abhängigkeiten zu schaffen. Cloud Dienste sind ja im Grunde nix anderes. Hat der Kunde sich mal für Cloud Dienst A entschieden und dort seine Daten liegen, kommt er nicht so schnell mehr weg davon.
In 5 Jahren werden wir mit Sicherheit kein einziges Spiel mehr lokal installieren sondern von Downloads und ähnlichem abhängen. Der Software Gebrauchtmarkt ist dann Geschichte. Nochmal 5 Jahre drauf und wir werden nur noch streamen. Der Trend ist m.E. nicht mehr aufzuhalten. Im Geschäftskunden Umfeld in der Software Branche merkt man das mittlerweile auch immer stärker. Cloud Angebote sprießen wie Pilze aus der Erde. Sprich jeder muss schauen, wie er sich unabkömmlich macht und das macht man am Besten mit Abhängigkeiten und eigenem Ökosystem das für die Kunden entsprechende Mehrwerte bietet.

StefanV
2014-08-31, 17:39:16
AMD hat A-Sync immerhin als Standard bei der VESA etabliert und nicht etwas Propertiäres gemacht. A-Sync war IMO eine Reaktion auf G-Sync. Damit hat NV natürlich Vorsprung.
Wenn man sich so das anschaut, was es im Netz zu diessem Thema gibt, dann kann man deine Aussage einfach mal ganz stark bezweifeln...

Ums mal ganz klar auszudrücken:
Intel denkt seit 2007 über variable Refresh Raten nach, Apple hat 2008 ein Patent zu diesem Thema eingereicht und das ganze ist im (Ultra) Mobil Bereich (Tablets, Smartphones) Standard.

Und wenn du mal wirklich nach 'variable Refresh Rate Display' sucht, dann findet man auch andere Dinge, die noch weit früher kamen.
Ums mal ganz deutlich zu sagen:
Du findest dann Patente aus einer Zeit, als die meisten hier in die Windeln gemacht haben - oder im Kindertarten rumgehüpft sind!! Oder sogar noch früher.

Also was ich gefunden hab, war Patent 4,511,892 bei dem es wohl um variable Refresh Raten bei einem 'Strobe CRT' geht.
Das Patent ist von 1985, also etwa 29 Jahre alt.

Und jetzt kommen hier irgendwelche Hüpfer an und meinen, dass nVidia irgendwas ganz tolles und neues erfunden hätte?!
Ja, nee, is klar...

Leute, setzt euch einfach mal 5min hin und googelt mal nach 'variabler display refresh rate', was ihr da findet und vorallen von wann, ist echt unglaublich. Also dass AMD daran nicht gearbeitet hat, BEVOR es G-Sync gab, ist anhand der Faktenlage einfach mal völlig unglaubwürdig. Das kann man gar nicht mehr in Worte fassen...

So und jetzt mögen die Herren, die meinen dass das was ganz neues und tolles wäre, mal
diesen Link anclicken (http://dl.acm.org/citation.cfm?id=1228666)...

Das ist auch was aus 2007, in dem es ebenso um dynamische Widerholraten geht, unglaublicher weise.

kurz: das ist also ein verdammt alter Hut!

-/\-CruNcher-/\-
2014-08-31, 18:10:18
Also ich bin da der letzte der sagen würde das kamm gestern aus dem Lab gekrochen lol aber es geht hier ja um die Komerziallisierung sprich Markteinführung gezielt auf Gamer zugeschnitten.
Wie gesagt diese Monitore zu testen da möchte ich nicht in der Haut der Reviewer stecken da es absolut Subjektiv zugeht und Placebo effekte nicht ausgeschlossen sind :D
Vor allem glotzen jetzt alle auf Nvidia G-sync verhalten das beste was AMD jetzt passieren kann die Reviewer stellen keine unterschiede fest wenn sie FreeSync testen ;)
Nur mit was hier Nvidia auffährt ist schon so gesehen heftig von der Hardware und der möglicheweise noch späteren bidirektionalen kommunikationsmöglichkeit mit ihrem Modul.

@Mancko
Die Ganze Industrie versucht Abhängigkeiten zu schaffen

Das sieht man immer wieder bei Entertainment Devices aber vor allem durch den user hat sich da was verändert da er vor allen künstlich geschaffene barieren nicht mehr so einfach akzeptiert und er sie auch als kontraproduktiv empfindet was sie ja auch sind ;)
Vor allen Buisnesses setzen auf Interoperabilität und Standardisierung schon alleine aus Kosteneffizienz beim Otto normal kommt das langsam auch an.

Ergo mann kann sich nur noch durch das Featureset differenzieren das sehen wir momentan bei Cloudservices.

ndrs
2014-08-31, 18:54:52
...
Geht es in irgendeinem von dir genannten Fall auch um Refresh-Raten-Änderung sofort, zum nächsten Frame? Das sieht mir alles sehr nach recht stationären Sachen aus, wo vielleicht das Bild zum Umschalten auch mal kurz schwarz werden könnte.

hasebaer
2014-08-31, 21:35:10
Also was ich gefunden hab, war Patent 4,511,892 bei dem es wohl um variable Refresh Raten bei einem 'Strobe CRT' geht.
Das Patent ist von 1985, also etwa 29 Jahre alt.

Und jetzt kommen hier irgendwelche Hüpfer an und meinen, dass nVidia irgendwas ganz tolles und neues erfunden hätte?!

Die älteste Grundlagenforschung wie man Hubschrauber bauen könnte, kann man auf 500 v.Chr. ins alte China zurück datieren, aber der erste in Serie gebaute Heli, kam erst im Jahr 1941 aus Dtl...

Und Nvidia hat mit Asus zusammen das umgesetzt was Andere sicherlich viel früher im Sinn hatten, aber kein Bock drauf es umzusetzen, obwohl es was ganz Tolles & Neues für den Desktop PC ist.
Und das ist jetzt ihr Vorsprung.

fondness
2014-08-31, 23:39:31
Und Nvidia hat mit Asus zusammen das umgesetzt was Andere sicherlich viel früher im Sinn hatten, aber kein Bock drauf es umzusetzen, obwohl es was ganz Tolles & Neues für den Desktop PC ist.
Und das ist jetzt ihr Vorsprung.

Dafür das sie etwas proprietäres gemacht haben ist der Vorsprung nicht gerade groß.

Gipsel
2014-09-01, 00:09:03
Noch wissen wir nicht welches Ergebnis Freesync bringt.Doch das wissen wir: Einen Displayrefresh, der mit dem Rendering des Frames (variabler Dauer) synchronisiert wird (genau wie bei GSync, sogar der grundlegende Mechanismus ist identisch). Das Display als Slave des Renderings statt früher andersrum. Genau das ist spezifiziert und das wird man demzufolge auch bekommen. Alles Andere ist schlicht das Labern von Bullshit. Also hört bitte auf mit dem Blödsinn.

aufkrawall
2014-09-01, 06:26:32
Bei den harten Worten traut man sich ja gar nicht mehr, nach einer funktionierenden Demo zu fragen. :redface:

hasebaer
2014-09-01, 06:47:15
Dafür das sie etwas proprietäres gemacht haben ist der Vorsprung nicht gerade groß.

Dafür funktioniert es auch noch bei meiner GTX 670.
Freesync funktioniert nicht bei HD 7950/7970 oder ihren Rebrands R9 280/280X.

Also kauft der Großteil der aktuellen roten Ecke extra ne neue Grafikkarte für Freesync.
Und es bleibt abzuwarten, wieviel wieviel billiger und wie frei "Freesync" wird.

Ich finde es ja auch gut, dass die VESA Adaptive Sync jetzt nicht mehr nur optional in den Specs drin hat, aber wenn das allein ausreichen würde,
hätten die Monitorhersteller von selbst schon längst passende Scaler entwickelt und Geräte damit vermarktet.

StefanV
2014-09-01, 07:26:17
Dafür kostet der Monitor, den man sich kauft, nicht mehr...

Aber hey, immer schön das negative bei AMD sehen, die schön flamen und krampfhaft das, was nVidia macht verteidigen.

Ist dir schon mal aufgefallen, dass das bei nVidia 'verdongelt' ist und NUR mit nVIida GraKas funktioniert?

Während 'das andere' prinzipiell von allen unterstützt werden kann, da es ein VESA Standard ist??

WARUM hat nVIida das nicht gemacht? WARUM sind die aktuellen G-Sync Schirme so sack teuer?!

Kartenlehrling
2014-09-01, 10:05:26
Ich bin ja ein harter verfechter von Lucid Virtual Vsync (http://lucidlogix.com/products/virtu-mvp-2-0-for-windows/), das funktioniert bei mir zb. sehr sehr sehr gut ...

Aber leider wird ja in jedem Forum intel iGPU-Lose CPUs empfohlen, sonst würden viel mehr in den Genuss eines "tearing"-freie und stotterlose vsync spielen kommen,
man darf halt nur nicht das "HyperFormance" das voraktiviert ist nutzten, das ist nur für schwachbrüstige Laptops wo das Spiel soo schon nicht 30fps schaft,
hat aber bei einem leistungstarken Gaming-PC nichts zu suchen.

Und das beste ist, .... es ist oft "fast" umsonst (free) weil es bei einigen Mainboard "umsonst" bei liegt als OEM dongle,
Asrock, MSI, EVGA und Asus, seit letztem Jahr kann es auf jedem Mainboard nur als Software installiert werden.

hasebaer
2014-09-01, 10:09:24
Dafür kostet der Monitor, den man sich kauft, nicht mehr...
Wir werden sehen.
Ist dir schon mal aufgefallen, dass das bei nVidia 'verdongelt' ist und NUR mit nVIida GraKas funktioniert?
Jup.
Während 'das andere' prinzipiell von allen unterstützt werden kann, da es ein VESA Standard ist??
Wir werden sehen ob Freesync Monitore in der Tat so "Free" sind.
Als Nvidianer kanns mir nur Recht sein.
WARUM hat nVIida das nicht gemacht?
Weil Nvidia aus eigener Kraft Rücklagen generieren muss, um unabhängiger vom Aktienmarkt zu werden und eigenes Kapital für kommende Innovationen braucht.
WARUM sind die aktuellen G-Sync Schirme so sack teuer?!
- Weil ASUS noch eine Alleinstellung hat und sich diese bezahlen lässt.
- Weil der verwendete Scaler sicherlich auch immernoch kein 0815 Gerät ist, und entsprechend mehr kostet und auch in Zukunft mit dem verwenden Side RAM mehr kosten wird.

PS:
Für mich persönlich lohnt sich G-Sync auch nur bedient, solang die Geräte alle nur einen Anschluß haben und ich schon einen 144Hz habe.
Ein zweiter DP oder DVI-D wäre wünschenswert über den man statische 120/144Hz betreiben kann, für einen zweiten PC.
Und ein HDMI für Raspberry & Co. ...

fondness
2014-09-01, 11:59:57
Bei den harten Worten traut man sich ja gar nicht mehr, nach einer funktionierenden Demo zu fragen. :redface:

Das ist auch eine reine Ablenkung. Das Zeug ist exakt von der VESA spezifiziert, aber wenn man sonst keine Argumente mehr hat warum man das überteuerte proprietäre Zeug von Nvidia kaufen soll dann kommen halt solche Luftschlösser.

Dafür funktioniert es auch noch bei meiner GTX 670.
Freesync funktioniert nicht bei HD 7950/7970 oder ihren Rebrands R9 280/280X.


Tja AMD hat eben Hardwaresupport in aktuelle Karten eingebaut, dadurch benötigt das Display deutlich weniger Funktionalität und ist preiswerter. Nvidia hat davon wohl Wind bekommen und noch schnell etwas auf eine FPGA hingecoded um sagen zu können man war vorher da.

AMD hat A-Sync immerhin als Standard bei der VESA etabliert und nicht etwas Propertiäres gemacht. A-Sync war IMO eine Reaktion auf G-Sync. Damit hat NV natürlich Vorsprung.


Das ergibt keine Sinn, eine Standard bei der VESA wird nicht mal eben so verabschiedet, außerdem hat selbst Bonaire Support, und der hatte sein Tapeout spätestens im Q3/2012.

robbitop
2014-09-01, 12:22:25
Ich bin ja ein harter verfechter von Lucid Virtual Vsync (http://lucidlogix.com/products/virtu-mvp-2-0-for-windows/), das funktioniert bei mir zb. sehr sehr sehr gut ...


Wie funktioniert dieses Virtual VSync eigentlich?



Das ergibt keine Sinn, eine Standard bei der VESA wird nicht mal eben so verabschiedet, außerdem hat selbst Bonaire Support, und der hatte sein Tapeout spätestens im Q3/2012.
Das ergibt in einer speziellen Konstellation absolut Sinn. Das ist ja kein neues Feature. Es funktionierte ja bereits bei eDP und war dort ja schon im Standard drin. Hinzu kommt, dass die notwendigen Änderungen, dieses Feature zu implmentieren relativ klein waren. Außerdem war es noch genau das richtige offene Zeitfenster, um es in DP1.3 unterzukriegen.

Der Kram lag so gesehen schon lange in der Schublade. Aber offenbar hatte man keine Ressourcen oder Priorität, das Zeug schnell marktreif zu machen. In Schubladen bei den IHVs liegt eine ganze Menge. Man kann aber nur einen kleinen Teil fertigmachen.

Da eDP schon älter ist und GPUs ja auch in Notebooks verbaut werden, hat es ab einem bestimmten Zeitpunkt vielleicht auch Sinn gehabt, das Feature zu verbauen.

In sofern war alles bereits irgendwie vorbereitet. Man musste es nur noch für einen leicht anderen Zweck "missbrauchen". Das ist die Spezialkonstellation.

G-Sync hat mMn den Druck erzeugt, der nötig war, dieses Feature aus der Schublade zu kramen und die Ressourcen hineinzustecken, um es fertig zu entwickeln/zu missbrauchen und bei den Scalerherstellern zu präsentieren.
Die VESA wird wenig dagegen gehabt haben, da sie es ja bereits mit eDP validiert und geprüft haben und es schon kannten und es eine geringe Änderung ist.

Ohne den Druck durch G-Sync wäre A-Sync IMO nicht so schnell gekommen, da AMD mit ihren Ressourcen stark haushalten müssen.

Das ist IMO eine ähnliche Entwicklung wie bei DX12. Das muss ja auch schon länger in Entwicklung gewesen sein. Aber erst Mantle erzeugte wirklich diesen Handlungsdruck, das Ding so schnell wie möglich fertig zu bekommen.

Eine API, die am besten noch OS übergreifend funktioniert und dann auch noch besser als DX könnte für MS eine Bedrohung sein. Es macht das Portieren von vielen Anwendungen auf andere OS wesentlich leichter. Das wäre eine potenzielle Bedrohung für ihr Ökosystem.

HOT
2014-09-01, 12:24:12
Es gibt keinen Vorsprung. Es gibt einen proprietären und einen offenen VESA-Standard die technisch sehr ähnlich sind. Falls sich überhaupt einer durchsetzt, welcher Standard wird das dann wohl sein?

Ich glaub mittlerweile nicht mehr, dass sich das durchsetzen wird. Das hängt einzig und allein davon ab, ob die Monitorhersteller sowas standardmässig verbauen und günstig in großen Stückzahlen anbieten. Ist das nicht der Fall, brauchen wir über diese Nieschenprodukte nicht mehr zu diskutieren, dann ist das was für Hardwarejunkies und das wars.

fondness
2014-09-01, 12:28:29
Wenn Nvidia - was ich ihnen durchaus zutraue - nicht willens ist FreeSync zu supporten wird es wie üblich auf eine Patt hinaus laufen und man muss schon beim Monitorkauf wissen welchen Hersteller man bevorzugt. Auch wenn man hier im Gegensatz zu zB Mantle wenig Argumente vorbringen kann warum man das nicht unterstützen will, immerhin ist es ein offener VESA-Standard.

robbitop
2014-09-01, 12:34:11
Das hängt von der Monitorlandschaft ab. Wenn das irgendwann mal praktisch überall drin ist, ist der Druck das zu Supporten sehr groß. Wer würde schon mehr Geld ausgeben für einen Monitor mit propertiärer Lösung als einen Monitor mit Standardlösung (die nach Abklingen der Pionierzeit kein extra Geld mehr kostet, weils im jedem Scaler Standard sein wird).

IIRC hat NV das auch irgendwo mal gesagt, dass sie es Supporten, wenn es eine bedeutend genuge Marktdurchdringung hat.

fondness
2014-09-01, 12:38:09
Das ergibt in einer speziellen Konstellation absolut Sinn. Das ist ja kein neues Feature. Es funktionierte ja bereits bei eDP und war dort ja schon im Standard drin. Hinzu kommt, dass die notwendigen Änderungen, dieses Feature zu implmentieren relativ klein waren. Außerdem war es noch genau das richtige offene Zeitfenster, um es in DP1.3 unterzukriegen.

Der Kram lag so gesehen schon lange in der Schublade. Aber offenbar hatte man keine Ressourcen oder Priorität, das Zeug schnell marktreif zu machen. In Schubladen bei den IHVs liegt eine ganze Menge. Man kann aber nur einen kleinen Teil fertigmachen.

Da eDP schon älter ist und GPUs ja auch in Notebooks verbaut werden, hat es ab einem bestimmten Zeitpunkt vielleicht auch Sinn gehabt, das Feature zu verbauen.

In sofern war alles bereits irgendwie vorbereitet. Man musste es nur noch für einen leicht anderen Zweck "missbrauchen". Das ist die Spezialkonstellation.

G-Sync hat mMn den Druck erzeugt, der nötig war, dieses Feature aus der Schublade zu kramen und die Ressourcen hineinzustecken, um es fertig zu entwickeln/zu missbrauchen und bei den Scalerherstellern zu präsentieren.
Die VESA wird wenig dagegen gehabt haben, da sie es ja bereits mit eDP validiert und geprüft haben und es schon kannten und es eine geringe Änderung ist.

Ohne den Druck durch G-Sync wäre A-Sync IMO nicht so schnell gekommen, da AMD mit ihren Ressourcen stark haushalten müssen.

Das ist IMO eine ähnliche Entwicklung wie bei DX12. Das muss ja auch schon länger in Entwicklung gewesen sein. Aber erst Mantle erzeugte wirklich diesen Handlungsdruck, das Ding so schnell wie möglich fertig zu bekommen.

Eine API, die am besten noch OS übergreifend funktioniert und dann auch noch besser als DX könnte für MS eine Bedrohung sein. Es macht das Portieren von vielen Anwendungen auf andere OS wesentlich leichter. Das wäre eine potenzielle Bedrohung für ihr Ökosystem.

Das könnte genau so gut umgekehrt abgelaufen sein: Nvidia ist immerhin auch Mitleid bei der VESA und weiß was AMD oder andere da spezifizieren wollen. Sie wissen also ziemlich sicher schon lange was AMD vor hatte und hatten wohl ausreichend Zeit darauf zu reagieren, gerade da man keine neue Hardware gefertigt hat sondern nur einen FPGA verwendet. Dazu kommt noch das aktuelle Nvidia-Karten wohl keine DP1.2a Specs mit FreeSync unterstützen und man ins hintertreffen geraten wäre wenn man nicht was eigenes gemacht hätte. Das mit G-Sync natürlich der Druck stieg möglichst schnell FreeSync marktreif zu bekommen ist klar.

Für eDP war zudem nur die Technik für das Stromsparen spezifiziert, diese funktioniert auch mit allen GCN-Karten. Die variable Refresh-Rate beim Spielen funktioniert erst ab Bonaire, was zeigt das dieses Feature nicht zufällig in den aktuellen Karten vorhanden ist.

Kartenlehrling
2014-09-01, 13:01:34
Wie funktioniert dieses Virtual VSync eigentlich?


Erstmal Vorraussetzung ... einen Intel iGPU ( ich habe i7-3770k) warum sie keine APU angeben weiss ich nicht.
Danach muss man nur die Spiele-Profil einfelgen bzw. bei einigen Program im Profil abschalten das ist wohl auch der Grund das einige sich beschweren,
das man auch Spiele und Program in "lucid" einflegen muss wo es abgeschalten ist.

Danach muss nur im Spiel vsync aktivert sein,
einige Spiele machen aber trostdem probleme, zb. bekommen ich bei Tombraider es nicht hin über >60fps ,
auch einige Video die vor dem Spiel starten machen hin und wieder problem, oft kann man sie im Steam zb. überspringen.

Batman AC zb. kann ich >60fps (smootheFPS limit aus) und tearingfrei spielen und sieht sehr gut aus.

Man sollte sowieso darauf achten zwischen 75-120fps zu halten dann finde ich es am geschmeidigsten,
also ich habe RTSS fps-limiter 120 und Lucid virtual vsync eigentlich bei jedem Spiel aktiviert.

Virtual Vsync frist ca. 5-20fps gegenüber VsyncAUS somit muss man das beachten.

Und HyperFormance ist bei mir immer AUS.

robbitop
2014-09-01, 14:29:11
Ich wollte nicht wissen, was man dazu braucht und wie man es einstellt. ;)
Ich wollte wissen, was der Algorithmus macht.

robbitop
2014-09-01, 14:34:54
Das könnte genau so gut umgekehrt abgelaufen sein: Nvidia ist immerhin auch Mitleid bei der VESA und weiß was AMD oder andere da spezifizieren wollen. Sie wissen also ziemlich sicher schon lange was AMD vor hatte und hatten wohl ausreichend Zeit darauf zu reagieren, gerade da man keine neue Hardware gefertigt hat sondern nur einen FPGA verwendet. Dazu kommt noch das aktuelle Nvidia-Karten wohl keine DP1.2a Specs mit FreeSync unterstützen und man ins hintertreffen geraten wäre wenn man nicht was eigenes gemacht hätte. Das mit G-Sync natürlich der Druck stieg möglichst schnell FreeSync marktreif zu bekommen ist klar.
Das macht irgendwie keinen Sinn. Wozu so viel Aufwand in eine ASIC Entwicklung stecken und in all die Software etcpp - man muss alles neu entwickeln, wenn es auch einen Standard gibt, den man viel leichter unterstützen kann? Von diesem Standard ging schließlich weder eine Bedrohung noch ein Vorteil von/für AMD aus. Schließlich ist es ein offener Standard, den jeder implementieren kann.

Zumal eine FPGA Entwicklung auch nicht so kurzfristig abgeschlossen ist. Ein FPGA spart dir ggü einem richtigen ASIC vielleicht 3-6 Monate. Und bis heute hat man noch keinen ASIC fertigen lassen. Das klingt eher, als würde man noch nicht so viel Risko eingehen wollen, weil gerade anfangs die Stückzahlen nicht sehr hoch sind. Da rechnet sich eine eigene Maske nicht.


Für eDP war zudem nur die Technik für das Stromsparen spezifiziert, diese funktioniert auch mit allen GCN-Karten. Die variable Refresh-Rate beim Spielen funktioniert erst ab Bonaire, was zeigt das dieses Feature nicht zufällig in den aktuellen Karten vorhanden ist.
Die Technik wurde halt umfunktioniert. Also nur modifiziert. Immerhin hat man sie zuerst mit einem Notebook demonstriert. IIRC wurden auch dort schon veränderbare Refreshraten unterstützt. Man hat es nur anders genutzt.

fondness
2014-09-01, 14:47:37
Das macht irgendwie keinen Sinn. Wozu so viel Aufwand in eine ASIC Entwicklung stecken und in all die Software etcpp - man muss alles neu entwickeln, wenn es auch einen Standard gibt, den man viel leichter unterstützen kann? Von diesem Standard ging schließlich weder eine Bedrohung noch ein Vorteil von/für AMD aus. Schließlich ist es ein offener Standard, den jeder implementieren kann.

Zumal eine FPGA Entwicklung auch nicht so kurzfristig abgeschlossen ist. Ein FPGA spart dir ggü einem richtigen ASIC vielleicht 3-6 Monate. Und bis heute hat man noch keinen ASIC fertigen lassen. Das klingt eher, als würde man noch nicht so viel Risko eingehen wollen, weil gerade anfangs die Stückzahlen nicht sehr hoch sind. Da rechnet sich eine eigene Maske nicht.

Weil Nvidia seit längeren versucht sich von der Konkurrenz abzugrenzen und User an sich zu binden. G-Sync ist ein weiterer Baustein um dies zu erreichen, ein offener Standard hätte diesen Vorteil nicht. Zudem wäre man wie schon erwähnt Hardwaretechnisch später dran als AMD wodurch sich durchaus ein Nachteil hätte ergeben könne.

Ansonsten, wo siehst du den riesen Aufwand? Wie schon mal erwähnt den Monitor mit der Graka zu syncen ist keine Herzchirugie, sowohl Hardware- als auch Softwaretechnisch dürfte das sehr überschaubar sein. Der große FPGA war bei den ersten Modellen nur nötig weil ja NV die komplette Panelelektronik ersetzten musste (um vor FreeSync am Markt zu sein?).


Die Technik wurde halt umfunktioniert. Also nur modifiziert. Immerhin hat man sie zuerst mit einem Notebook demonstriert. IIRC wurden auch dort schon veränderbare Refreshraten unterstützt. Man hat es nur anders genutzt.

Es ist jedenfalls laut AMD mit den alten Karten nicht möglich veränderbare Refreshraten zu unterstützen, weshalb sich also definitiv was geändert haben muss.

Unicous
2014-09-01, 15:58:45
Nur nochmal für die allgemeine Verunsicherung: Adaptive Sync ist ein optionaler! Zusatz zur DP 1.2a Spec (die es schon davor gab!).


@robbitop

Tom Peterson hat zig mal in den letzten Monaten wenn er zu A-Sync/FreeSync befragt wurde gelacht/gelächelt und gesagt es wäre nur eine (optionale) Spec, es gäbe keine Produkte und er wäre sich sicher das G-Sync besser wäre und Nvidia es daher nicht nötig hat, es zu unterstützen. Zur Relativierung hat er natürlich ungefähr gesagt, Nvidia unterstützt Standards immer und überall, sie sind total toll... und deswegen haben sie auch G-Sync entwickelt. Es ist ein Standard... ein Nvidia Standard.:freak:

Dann hat er auch in dem Interview/ Shield Tablet Showcase bei MaximumPC noch ein bißchen FUD verbreitet und gesagt, A-Sync wird auch absehbare Zeit eh optional bleiben, weil die Monitor-/Scalerhersteller das nicht mitmachen würden, denn dann müssten sie ja ihre Hardware komplett umstellen. Größter Bullshit ever meines Erachtens. Die Hersteller unterstützen auch jetzt schon nicht die aktuellsten Specs für DP und HDMI und es geht ja auch nicht darum die Industrie innerhalb eines Jahres komplett umzukrempeln.

Und Nvidia will ja auf absehbare Zeit nur den Premium-Markt beliefern.

Monitore stehe auf der Prioritätsskala mE nach an sehr niedriger Stelle und ich behaupte mal der Marktanteil von €400+ Monitoren liegt im einstelligen Prozentbereich (bei gh sind ca. 86% der gelisteten Monitore unter €400 teuer). Der 100-200 Euro Bereich ist mit Abstand der größte. Wenn VESA/AMD es schaffen unter 300 Euro zu kommen (wahrscheinlich nicht sofort, aber vllt. in den nächsten zwei Jahren?) sehe ich deutlich mehr Chancen für A-Sync (so es denn so funktioniert wie behauptet und ich gehe davon aus sonst wäre es kein -VESA-Standard geworden) und niemand schreit mehr nach G-Sync auch wenn es vllt. einen wie auch immer gearteten Vorteil liefert.(Siehe Firewire->USB)

robbitop
2014-09-01, 16:10:33
Weil Nvidia seit längeren versucht sich von der Konkurrenz abzugrenzen und User an sich zu binden. G-Sync ist ein weiterer Baustein um dies zu erreichen, ein offener Standard hätte diesen Vorteil nicht. Zudem wäre man wie schon erwähnt Hardwaretechnisch später dran als AMD wodurch sich durchaus ein Nachteil hätte ergeben könne.

Ansonsten, wo siehst du den riesen Aufwand? Wie schon mal erwähnt den Monitor mit der Graka zu syncen ist keine Herzchirugie, sowohl Hardware- als auch Softwaretechnisch dürfte das sehr überschaubar sein. Der große FPGA war bei den ersten Modellen nur nötig weil ja NV die komplette Panelelektronik ersetzten musste (um vor FreeSync am Markt zu sein?).
Weder du noch ich können einschätzen, wie aufwändig so eine Entwicklung ist. Allein schon der Fakt, dass NV sich in Panelelektronik einarbeiten musste, damit sie die Herstellerelektronik ersetzen können, zeigt in Indizien, dass da schon gut Ressourcen geflossen sind.

Am Ende ist es Spekulation. Es kann so gewesen sein, wie du vermutest, oder so wie ich es vermute.



Es ist jedenfalls laut AMD mit den alten Karten nicht möglich veränderbare Refreshraten zu unterstützen, weshalb sich also definitiv was geändert haben muss.
Bereits sehr kleine Veränderungen/Details führen oftmals dazu, dass Dinge nicht funktionieren (oder man keine Lust hat, ein Workaround extra dafür zu machen)

Nur nochmal für die allgemeine Verunsicherung: Adaptive Sync ist ein optionaler! Zusatz zur DP 1.2a Spec (die es schon davor gab!).


@robbitop

Tom Peterson hat zig mal in den letzten Monaten wenn er zu A-Sync/FreeSync befragt wurde gelacht/gelächelt und gesagt es wäre nur eine (optionale) Spec, es gäbe keine Produkte und er wäre sich sicher das G-Sync besser wäre und Nvidia es daher nicht nötig hat, es zu unterstützen. Zur Relativierung hat er natürlich ungefähr gesagt, Nvidia unterstützt Standards immer und überall, sie sind total toll... und deswegen haben sie auch G-Sync entwickelt. Es ist ein Standard... ein Nvidia Standard.:freak:

Dann hat er auch in dem Interview/ Shield Tablet Showcase bei MaximumPC noch ein bißchen FUD verbreitet und gesagt, A-Sync wird auch absehbare Zeit eh optional bleiben, weil die Monitor-/Scalerhersteller das nicht mitmachen würden, denn dann müssten sie ja ihre Hardware komplett umstellen. Größter Bullshit ever meines Erachtens. Die Hersteller unterstützen auch jetzt schon nicht die aktuellsten Specs für DP und HDMI und es geht ja auch nicht darum die Industrie innerhalb eines Jahres komplett umzukrempeln.

Und Nvidia will ja auf absehbare Zeit nur den Premium-Markt beliefern.

Monitore stehe auf der Prioritätsskala mE nach an sehr niedriger Stelle und ich behaupte mal der Marktanteil von €400+ Monitoren liegt im einstelligen Prozentbereich (bei gh sind ca. 86% der gelisteten Monitore unter €400 teuer). Der 100-200 Euro Bereich ist mit Abstand der größte. Wenn VESA/AMD es schaffen unter 300 Euro zu kommen (wahrscheinlich nicht sofort, aber vllt. in den nächsten zwei Jahren?) sehe ich deutlich mehr Chancen für A-Sync (so es denn so funktioniert wie behauptet und ich gehe davon aus sonst wäre es kein -VESA-Standard geworden) und niemand schreit mehr nach G-Sync auch wenn es vllt. einen wie auch immer gearteten Vorteil liefert.(Siehe Firewire->USB)
Das wird irgendwann jeder Scaler verbaut haben. Weil es vergleichsweise unaufwändig zu implementieren ist. Es ist eine sehr sehr geringe Änderung. Neue Scalerchips und neue Standards gibt's immer mal wieder. Die werden eh entwickelt. Einfach weil es ständig neue Standards zu unterstützen gibt. Ich bin mir sicher, dass man da A-Sync ganz einfach mitnimmt.
In wenigen Jahren hat's jeder Scaler und damit jeder Monitor. Warum auch nicht? Da gibt es keine Mehrkosten - neue Scaler werden eh entwickelt - also "eh da" Kosten ;)

Und spätestens dann hat NV genug Druck da was zu machen.

Wäre ich jetzt in NVs Rolle, würde ich A-Sync auch schlecht reden. Immerhin gibt es keine Seriengeräte, die das können und man selbst hat Serienlösung ausgeliefert. Klar kann man da erstmal grinsen und alles andere schlecht machen. Das ist Tom Petersens Job. In 2-3 Jahren ist die Situation eine andere.

Unicous
2014-09-01, 16:23:22
@robbitop

Nvidia hat das nicht allein gemacht, da bin ich mir 99% sicher. Asus hat mit ihnen zusammengearbeitet. Sie haben ihre Display-Cracks wie jeder IHV in der Branche auch.

Das da Geld in die Entwicklung geflossen ist, bezweifelt hoffentlich niemand. Aber als Rocket Science sehe ich das Thema auch nicht. Intel hat Patente die in die Richtung gehen, AMD auch und natürlich Nvidia. Asus, Dell und Co., die Scaler-Hersteller etc.


Und was an einem FPGA jetzt so besonders ist frage ich mich auch. Den programmiert man und fertig. Was danach kommt, ein dediziertes und integriertes Modul wird in Zusammenarbeit mit den Hersteller konzipiert. Ganz klar. Die lassen sich auch nicht einfach ein Kuckucksei in ihre Monitore legen.

Nvidia hat Kohle investiert, aber die Mär des ewigen Innovators der nur seine Investitionen wieder einspielen will und ansonsten dem "Gamer" nur Gutes tun will, glaube ich schon lange nicht mehr. Viele Dinge die Nvidia in den letzten Jahren gemacht hat, schrammen meines Erachtens sehr nahe an Wettbewerbsverzerrung entlang (und vor einer Weile haben sie Qualcomm bei der EU angeschwärzt und jetzt gibt es wohl eine Untersuchung. Das ist mal Ironie vom Feinsten).

Kartenlehrling
2014-09-01, 16:27:24
Ich wollte nicht wissen, was man dazu braucht und wie man es einstellt. ;)
Ich wollte wissen, was der Algorithmus macht.

Sooo,
hat es wenigsten tomshardware.de beschrieben ...


Screen tearing ist ein Phänomen das auftritt, wenn mehr als ein Frame innerhalb eines Bildaufbauzyklus auf dem Bildschirm ausgegeben wird. Normalerweise kümmert sich V-Sync um dieses Problem, indem während eines Bildausgabezyklus nur ein Frame ausgegeben wird, womit die maximale Bildrate auf die Bildwiederholfrequenz des Displays beschränkt wird, also typischerweise 60 Hz. Alle Frames werden zuerst von der GPU berechnet, und alle die nicht mit der Wiederholrate des Monitors synchron laufen werden nach der Berechnung verworfen. Fällt umgekehrt die Bildrate seitens der GPU unter die Wiederholrate des Bildschirms, wird ein Frame mehrfach angezeigt, weshalb es zu Rucklern kommt.


Virtual Vsync versucht etwas Ähnliches ohne die Beschränkung auf 60 FPS zu erreichen: Es analysiert die Berechnungszeiten und weist dann die GPU an, keine Frames zu bearbeiten, die später vermutlich nicht angezeigt werden. Stattdessen wird die frei gewordene Renderzeit genutzt, die man umsonst in ein nicht angezeigtes Bild investiert hätte, um den nächsten Frame zu berechnen, was wiederum Ruckler reduzieren sollte. Weil es sich aber eben gerade nicht um echtes V-Sync handelt, kann man innerhalb eines Bildaufbauzyklus auch zwei Frames an den Monitor schicken. Der Monitor zeigt zwar nur den ersten an, aber Anwendungen wie FRAPS messen eine Bildwiederholrate jenseits von 60 FPS. Tatsächlich ist dies das Szenario, das Lucidlogix bevorzugt, und man erinnerte uns daran, dass Spiele, die mit weniger als 60 FPS laufen, nicht von Virtual Vsync profitieren werden.
http://www.tomshardware.de/z77-express-virtu-mvp-benchmark,testberichte-240997-2.html

Mancko
2014-09-01, 16:28:30
Doch das wissen wir: Einen Displayrefresh, der mit dem Rendering des Frames (variabler Dauer) synchronisiert wird (genau wie bei GSync, sogar der grundlegende Mechanismus ist identisch). Das Display als Slave des Renderings statt früher andersrum. Genau das ist spezifiziert und das wird man demzufolge auch bekommen. Alles Andere ist schlicht das Labern von Bullshit. Also hört bitte auf mit dem Blödsinn.

Nochmal DirectX spezifiziert auch viel wenn der Tag lang ist. Am Ende des Tages zählen Reviews und das tatsächlich erlebte Ergebnis und nicht irgendwelche Spezifikationen und Whitepapers. Und solange es keine unabhängigen Reviews gibt und eine gewisse Verfügbarkeit absehbar ist, solange ist das Vapoware.


Es gibt keinen Vorsprung. Es gibt einen proprietären und einen offenen VESA-Standard die technisch sehr ähnlich sind. Falls sich überhaupt einer durchsetzt, welcher Standard wird das dann wohl sein?

Natürlich gibt es einen Vorsprung und zwar einen zeitlichen. G-Synch ist verfügbar bzw. wird es im September auch noch bei anderen Monitormodellen.

Bei Freesync ist gibt es hierzu keinen wirklich echten Termin.


Ich glaub mittlerweile nicht mehr, dass sich das durchsetzen wird. Das hängt einzig und allein davon ab, ob die Monitorhersteller sowas standardmässig verbauen und günstig in großen Stückzahlen anbieten. Ist das nicht der Fall, brauchen wir über diese Nieschenprodukte nicht mehr zu diskutieren, dann ist das was für Hardwarejunkies und das wars.


G-Sync war niemals für den Low End gedacht. Es richtet sich an Enthusiasten und maximal noch das Performance Segment. Welches von beiden sich durchsetzt lässt sich überhaupt nicht sagen, da es durchaus wahrscheinlich ist, dass sich der Kunde für einen Hersteller entscheiden muss. Wenn Nvidia Freesync nicht unterstützt, dann kannst Dir den "offenen" Standard in die Haare schmieren. Dann kaufen AMD User Freesync Monitore und Nvidia User G-Synch Monitore.

robbitop
2014-09-01, 16:47:04
@robbitop

Nvidia hat das nicht allein gemacht, da bin ich mir 99% sicher. Asus hat mit ihnen zusammengearbeitet. Sie haben ihre Display-Cracks wie jeder IHV in der Branche auch.

Das da Geld in die Entwicklung geflossen ist, bezweifelt hoffentlich niemand. Aber als Rocket Science sehe ich das Thema auch nicht. Intel hat Patente die in die Richtung gehen, AMD auch und natürlich Nvidia. Asus, Dell und Co., die Scaler-Hersteller etc.


Und was an einem FPGA jetzt so besonders ist frage ich mich auch. Den programmiert man und fertig. Was danach kommt, ein dediziertes und integriertes Modul wird in Zusammenarbeit mit den Hersteller konzipiert. Ganz klar. Die lassen sich auch nicht einfach ein Kuckucksei in ihre Monitore legen.

Nvidia hat Kohle investiert, aber die Mär des ewigen Innovators der nur seine Investitionen wieder einspielen will und ansonsten dem "Gamer" nur Gutes tun will, glaube ich schon lange nicht mehr. Viele Dinge die Nvidia in den letzten Jahren gemacht hat, schrammen meines Erachtens sehr nahe an Wettbewerbsverzerrung entlang (und vor einer Weile haben sie Qualcomm bei der EU angeschwärzt und jetzt gibt es wohl eine Untersuchung. Das ist mal Ironie vom Feinsten).
Niemand behauptet, dass NV der Innovator ist oder dass es Rocket Science ist.

Aber es ist nicht unwesentlich Geld geflossen. Das Argument "einen FPGA programmiert man eben" ist Blödsinn. Einen FPGA "programmierst" du genauso in VERILOG wie jeden ASIC auch.
Das ist für NV kein Rocket Science sondern Tagesgeschäft. Das ist klar - aber banal und billig ist das mit Sicherheit nicht. Es kommt immer auf die Komplexität des Designs an. Und sorry: das kannst du nicht beurteilen - schon gar nicht ohne Details über den FPGA zu kennen (und damit meine ich die Programmierung dieses FPGAs). Das kann hier in diesem Forum keiner.

Insofern finde ich diese Anmaßungen einfach daneben. Man kann sich zu Dingen doch nur sinnvoll äußern, wenn man fachlich abschätzen kann, was dort genau passiert.

robbitop
2014-09-01, 16:50:57
Sooo,
hat es wenigsten tomshardware.de beschrieben ...



http://www.tomshardware.de/z77-express-virtu-mvp-benchmark,testberichte-240997-2.html
Hm - dann macht dieses Virtual VSync wenig Sinn - weil es vor allem für >60 fps gedacht ist. G-Sync/A-Sync helfen ja besonders, wenn man unter die 60 fps kommt. Auch 30-40 fps werden dadurch butterweich. Man hat also mit schwächerer HW ein smootheres Spielerlebnis.
Funktioniert das denn über AMD/NV Karten die über Lucid mit der Intel GPU gekoppelt sind? Damit das geht müsste die Software, die Virtual V-Sync realisiert ja auch mit den Treibern von AMD/NV die gleiche Kommunikation aufbauen können. Denn die berechnen die Bilder ja. Wenn es nicht geht, bringt es um so weniger. Denn mit Intel GPUs >60 fps zu kommen (und damit in den sinnvollen Bereich von Virtual V-Sync) ist schon...herausfordernd. ;)

Ich habe es erst in 2 Spielen getestet - aber bisher muss ich sagen, dass es super funktioniert. :)

Unicous
2014-09-01, 17:03:51
@robbitop

Ich habe nicht gesagt, dass der FPGA banal und billig ist. Da legst du mir Worte in den Mund.

Der FPGA ist teuer und ja es braucht schon jemanden der Ahnung hat um ihn zu programmieren. Da braucht es zwar keinen Raketenwissenschaftler, es ist aber auch nicht von heute auf morgen erledigt. Es ist aber, wie du selbst sagst Tagesgeschäft.

Und das mit dem Innovationstreiber hat Tom Peterson höchst persönlich gesagt. Ich interpretiere noch ein wenig hinein, aber er sagte ungefähr während Nvidia Innovation über Innovation heraushaut, heult AMD dass sie ausgeschlossen werden. Ergo AMD kann nix und konnte nie etwas und wollen sich nur an Nvidia's Busen laben und die Vorteile abgrasen.
Offene Standards sind toll, aber Adaptive Sync ist ja nur eine Spec also was kümmert es Nvidia. Wenn man nicht wüsste, dass es nur PR-Sprech ist, könnte man denken der Herr wäre schizophren.

Und warum versucht man nicht einen größeren Markt zu erreichen? Warum will man nur die Gamer die 450+ Euro für ihre Monitore ausgeben? Und warum will man den Markt darunter nicht mitnehmen? Dass ist die typische Apple Mentalität nach der Jensen und Co. strebt. Wir machen Premiumprodukte also bezahlt auch gefälligst.

Kartenlehrling
2014-09-01, 17:06:42
Ich habe es erst in 2 Spielen getestet - aber bisher muss ich sagen, dass es super funktioniert. :)

Darum kann ich mir auch nicht vorstellen wieso es so einen schlechten Ruf hat, ich bin auch mit dem Ergebniss sehr zufrieden.

aufkrawall
2014-09-01, 17:09:32
Er meint G-Sync.

fondness
2014-09-01, 17:27:44
Natürlich gibt es einen Vorsprung und zwar einen zeitlichen. G-Synch ist verfügbar bzw. wird es im September auch noch bei anderen Monitormodellen.

Bei Freesync ist gibt es hierzu keinen wirklich echten Termin.


G-Sync hat sich mittlerweile nicht nur einmal verschoben und noch immer gibt es Monitore nur im homöopathischen Dosen. Der zeitliche Vorsprung schrumpft also immer weiter zusammen und für den Aufwand den Nvidia betriebt ist er eigentlich fast schon lächerlich. Da hätte man sich auch gleich gemeinsam für FreeSync entscheiden können, davon würden alle Anwender profitieren.

ndrs
2014-09-01, 18:13:04
Das Argument "einen FPGA programmiert man eben" ist Blödsinn. Einen FPGA "programmierst" du genauso in VERILOG wie jeden ASIC auch.
Da wär ich mir nicht so sicher. Viele Rapid-Prototyping-Systeme unterstützen bereits seit längerem FPGAs. Und wenn man mit so dicker Hardware um sich wirft, wie die GSync-Platine es tut, muss man auch nicht bis ins letzte optimieren.

Skysnake
2014-09-01, 18:24:00
Niemand behauptet, dass NV der Innovator ist oder dass es Rocket Science ist.

Aber es ist nicht unwesentlich Geld geflossen. Das Argument "einen FPGA programmiert man eben" ist Blödsinn. Einen FPGA "programmierst" du genauso in VERILOG wie jeden ASIC auch.
Das ist für NV kein Rocket Science sondern Tagesgeschäft. Das ist klar - aber banal und billig ist das mit Sicherheit nicht. Es kommt immer auf die Komplexität des Designs an. Und sorry: das kannst du nicht beurteilen - schon gar nicht ohne Details über den FPGA zu kennen (und damit meine ich die Programmierung dieses FPGAs). Das kann hier in diesem Forum keiner.

Insofern finde ich diese Anmaßungen einfach daneben. Man kann sich zu Dingen doch nur sinnvoll äußern, wenn man fachlich abschätzen kann, was dort genau passiert.

Also ich musste jetzt vor kurzem auch einiges in Verilog machen, und wirklich bahnbrechend schwer ist das jetzt auch nicht. Klar, man muss wissen was man macht, aber daran arbeiten ja Leute, die das schon ein paar mal zumindest gemacht haben, und von Null haben die auch ganz sicher nicht angefangen ;)

Zudem setzt der verwendete FPGA einem schon recht enge Grenzen. Das ist ja nur ein low/mid-Range Chip, der halt nen relativ breites Interface und dazu noch recht hoch taktet, aber das wars dann auch. Soooo viel logik bekommste da nicht rein, und für die Verilog-Entwickler bei nVidia sollte das eigentlich alles kein Problem sein. Vor allem läuft das Ding ja auch mit relativ niedrigen Taktraten. Das sollte alles relativ entspannt sein.

was halt interessant wäre, wäre ob noch immer nen FPGA in den aktuell verkauften GSync Monitoren drin ist, denn vom FPGA zum ASIC musste doch nochmal einiges an Arbeit rein stecken, auch wenn die Leute bei nVidia sehr genau wissen, was Sie da machen müssen, damits auf Anhieb funktioniert.

Leider schraubt scheinbar kein Tester die GSync Monitore aktuell auf :frown:

Btw. hatte ich vor Monaten gesagt, das vor September, eher sogar Oktober praktisch keine GSync Monitore verfügar sein werden. Da wurde ich noch müde belächelt. :P

-/\-CruNcher-/\-
2014-09-01, 18:31:10
Dafür funktioniert es auch noch bei meiner GTX 670.
Freesync funktioniert nicht bei HD 7950/7970 oder ihren Rebrands R9 280/280X.

Also kauft der Großteil der aktuellen roten Ecke extra ne neue Grafikkarte für Freesync.
Und es bleibt abzuwarten, wieviel wieviel billiger und wie frei "Freesync" wird.

Ich finde es ja auch gut, dass die VESA Adaptive Sync jetzt nicht mehr nur optional in den Specs drin hat, aber wenn das allein ausreichen würde,
hätten die Monitorhersteller von selbst schon längst passende Scaler entwickelt und Geräte damit vermarktet.

Naja du siehst das falsch es gibt auch noch massen an leute die über einen Umzug zu AMD nachdenken momentan täusch dich da mal nicht das des für AMD so eine große rolle spielt sie wollen neue dazugewinnen mit Hawai haben sie das schon erreicht jetzt kommt es auf die Balance an wieviel sie noch rüberziehen mit Maxwell im Anmarsch ;)
Und da ist Freesync und die Kosten schon ein plus fürs AMD Ökosystem so traurig wie vor ein paar jahren sieht es nichtmehr aus vor allem der Treiber wird stabiler gut Performance ist was anderes noch aber er wird deutlich schneller optimiert und dank architektur ähnlichkeit zu Nvidia verschwinden plötzlich viele probleme und vielen Programmierern fallen seit GCN auch nicht mehr die haare sofort aus und im Zuge der Konsolen Convergence muss man sich Intensiv mit GCN ausseinandersetzen ;)

Mancko
2014-09-01, 18:35:28
@robbitop
Und das mit dem Innovationstreiber hat Tom Peterson höchst persönlich gesagt. Ich interpretiere noch ein wenig hinein, aber er sagte ungefähr während Nvidia Innovation über Innovation heraushaut, heult AMD dass sie ausgeschlossen werden. Ergo AMD kann nix und konnte nie etwas und wollen sich nur an Nvidia's Busen laben und die Vorteile abgrasen.
Offene Standards sind toll, aber Adaptive Sync ist ja nur eine Spec also was kümmert es Nvidia. Wenn man nicht wüsste, dass es nur PR-Sprech ist, könnte man denken der Herr wäre schizophren.


Bitte vergiss nicht, dass Tom Peterson die Marketing Sicht hat und in welchem Kontext diese Aussagen entstanden sind. Das waren alles Aussagen die bewusst als Reaktion auf das Gejammer und Fingerpointing von Herrn Huddy getroffen wurden. Tom Peterson hat sich nicht initial hingestellt und das vom Stapel gelassen, sondern erst nach den unsäglichen Aussagen von Huddy. Tom Peterson hat in dem Interview bewusst mehrfach darauf hingewiesen, dass sich Nvidia zu AMDs Technologien nicht äußern kann, weil ihnen das Wissen fehlt. Huddy sieht das dagegen ganz anders. Er flamed die ganze Zeit G-Synch, Gameworks und andere Dinge. Ich finde da muss man sich nicht wundern, wenn auch mal eine Retourkutsche kommt.


Und warum versucht man nicht einen größeren Markt zu erreichen? Warum will man nur die Gamer die 450+ Euro für ihre Monitore ausgeben? Und warum will man den Markt darunter nicht mitnehmen? Dass ist die typische Apple Mentalität nach der Jensen und Co. strebt. Wir machen Premiumprodukte also bezahlt auch gefälligst.
Das ist doch völlig nachvollziehbar. Wieso soll Nvidia dabei helfen, dass niedere vom Preisverfall und APU bedrohte Segmente mit solchen Features versorgt werden. Ich sags mal ganz einfach. Nvidia bereitet sich seit langem auf die Zeit in 3 bis 5 Jahren vor. Sie helfen mit vielen anderen dabei mit im Low-End Segment zu x86 weitere Alternativen bereitzustellen, sie versuchen das Thema Cloudgaming zu pushen und sie tun alles dafür um im PC Performance und High End Segment Kunden dauerhaft an sich zu binden. Das ist in ihrer Situation mit den Veränderungen außen herum völlig nachvollziehbar und legitim.

Mancko
2014-09-01, 18:38:44
G-Sync hat sich mittlerweile nicht nur einmal verschoben und noch immer gibt es Monitore nur im homöopathischen Dosen. Der zeitliche Vorsprung schrumpft also immer weiter zusammen und für den Aufwand den Nvidia betriebt ist er eigentlich fast schon lächerlich. Da hätte man sich auch gleich gemeinsam für FreeSync entscheiden können, davon würden alle Anwender profitieren.

Und bei Freesync wird natürlich alles On-Time geliefert gelle? :)
Btw. ist die Zielgruppe eh stark eingeschränkt. Es muss keine riesen Auswahl an Monitoren geben. Die paar angekündigten reichen völlig aus, sobald die lieferbar sind und bis jetzt sieht es danach aus, dass dies in Deutschland im September der Fall ist. In den USA gibt es G-Synch schon länger zu kaufen. Und ob alle Anwender profitieren oder nicht ist nicht Nvidia's Aufgabe. Deren Aufgabe ist es dass eigene Anwender profitieren und weitere Anwender von AMD zu Nvidia abwandern oder zumindest eigene Anwender an Nvidia gebunden werden.

Unicous
2014-09-01, 18:47:18
Die Zielgruppe ist stark eingeschränkt?

Wie soll man das denn verstehen?


Die Zielgruppe schränkt Nvidia und die Monitorhersteller bewusst und künstlich ein, indem sie nur Monitore mit der Technik anbieten, die sich die Masse nicht leisten will/kann. Wir reden hier nicht von der Intel Extreme Edition, sondern von einem Konzept, dass jedem Gamer und auch anderen zu gute kommen würde. Die Zielgruppe ist also theoretisch jeder Gamer und nicht nur der "Enthusiast". Diese arrogante Herangehensweise kotzt mich nämlich tierisch an.


Du wiederholst nur Nvidia's eigene Narrative vom Dienstleister der in einer Blase lebt. Nvidia ist kein Dienstleister, sie sind genauso wie AMD, Nvidia und Intel eine Hardwareklitsche denen das Wasser auf Grundeis läuft, weil ihnen zunehmend die Märkte streitig gemacht werden. AMD und Intel öffnen sich eher während Nvidia denkt, dass der Apple-Style die bessere Variante ist. Fehlen nur noch die obligatorischen Patentklagen.:freak:

-/\-CruNcher-/\-
2014-09-01, 18:54:17
Hm - dann macht dieses Virtual VSync wenig Sinn - weil es vor allem für >60 fps gedacht ist. G-Sync/A-Sync helfen ja besonders, wenn man unter die 60 fps kommt. Auch 30-40 fps werden dadurch butterweich. Man hat also mit schwächerer HW ein smootheres Spielerlebnis.
Funktioniert das denn über AMD/NV Karten die über Lucid mit der Intel GPU gekoppelt sind? Damit das geht müsste die Software, die Virtual V-Sync realisiert ja auch mit den Treibern von AMD/NV die gleiche Kommunikation aufbauen können. Denn die berechnen die Bilder ja. Wenn es nicht geht, bringt es um so weniger. Denn mit Intel GPUs >60 fps zu kommen (und damit in den sinnvollen Bereich von Virtual V-Sync) ist schon...herausfordernd. ;)

Ich habe es erst in 2 Spielen getestet - aber bisher muss ich sagen, dass es super funktioniert. :)

Dank NT 6 manipulieren sie den Framebuffer jetzt direkt wie auch Nvidia oder AMD das mit ihren Treiber PP features machen ;)

G-Sync hat sich mittlerweile nicht nur einmal verschoben und noch immer gibt es Monitore nur im homöopathischen Dosen. Der zeitliche Vorsprung schrumpft also immer weiter zusammen und für den Aufwand den Nvidia betriebt ist er eigentlich fast schon lächerlich. Da hätte man sich auch gleich gemeinsam für FreeSync entscheiden können, davon würden alle Anwender profitieren.


Also wenn es keine Unterschiede geben wird währe Nvidia für mich persönlich erst einmal gestorben Gameworks war schon kritisch verständlich aber kritisch nur solche taktiken wie jetzt nach AMDs Konsolen Win zu fahren ist schon echt on the Edge vor allen werden die Leute im Nvidia Ökosystem vor allen die Gamer Enthusiasten gerade voll ausgenommen.
Um die Balance zu wahren würde ich zu AMD springen vor allem Wirtschaftlich gesehen tu ich mir ja auch besser ;)

Allerdings kommt es noch auf die Gesammtbalance gegen Maxwell an wenn die nicht so extrem bad ist bin ich mal wieder bei AMD und mit dabei währ ich schon letztes jahr gewesen aber da gab es die 285 ja noch nicht und Mantle kompensiert ja auch schon recht ordentlich und ist so gesehen Future proof und als Backup ist DX12 support ja gegeben (wenn auch immer noch nicht bekannt welche Features im Juli eigentlich verabschiedet worden freezed von allen IHVs und Microsoft) ;)

Vor allen die Gefahr das Nvidia wieder features aus Wirtschaftlichen gründen wech lässt so gesehen war der Impact nicht so groß aber dadurch wird ja auch nicht voll optimiert es sei denn man kriecht zu Nvidia ;)

So einige täuschungstaktiken seitens Nvidia sind mir schon seit Jahren ein Dorn im Moralischen Auge vor allen direkte Täuschungen der User gab es ja auch zu hauf.

Wenn G-sync das auch wird ist erstmal schluss mit Nvidia dann verbrenn ich meine Maxwell karte wenn ich die bis dahin besitzen sollte.

maximus_hertus
2014-09-01, 18:56:04
Erst einmal muss es G/Freesync Bildschirme geben. AFAIK wurde noch kein IPS 120Hz G/Freesync TFT angekündigt - ergo alles langweilig ^^ Und ein TN Bildschirm für 500+ Euro? Never ;)

Thomas Gräf
2014-09-01, 21:39:48
Herrje das ist natürlich vernüftig so konsequent zu sein. Aber ich wünsche mir sehnlichst einen
soliden grossen Monitor mit flüssiger Bildwiedergabe ohne Bewegungsunschärfe...ich hassse das mitlerweile.

Mancko
2014-09-02, 00:06:28
Die Zielgruppe ist stark eingeschränkt?

Wie soll man das denn verstehen?


Die Zielgruppe schränkt Nvidia und die Monitorhersteller bewusst und künstlich ein, indem sie nur Monitore mit der Technik anbieten, die sich die Masse nicht leisten will/kann. Wir reden hier nicht von der Intel Extreme Edition, sondern von einem Konzept, dass jedem Gamer und auch anderen zu gute kommen würde. Die Zielgruppe ist also theoretisch jeder Gamer und nicht nur der "Enthusiast". Diese arrogante Herangehensweise kotzt mich nämlich tierisch an.


Verstehe ich nicht ganz. Der Audi oder BMW wird auch preislich so plaziert, dass ihn sich eben nicht jeder leisten kann und will. Der Hugo Boss Anzug oder irgendwelche anderen Modeartikel ebenso. Sehe jetzt hier keine Sondersituation.


Du wiederholst nur Nvidia's eigene Narrative vom Dienstleister der in einer Blase lebt. Nvidia ist kein Dienstleister, sie sind genauso wie AMD, Nvidia und Intel eine Hardwareklitsche denen das Wasser auf Grundeis läuft, weil ihnen zunehmend die Märkte streitig gemacht werden. AMD und Intel öffnen sich eher während Nvidia denkt, dass der Apple-Style die bessere Variante ist. Fehlen nur noch die obligatorischen Patentklagen.:freak:

Nvidia ist eben schon seit Jahren nicht mehr der reine Hardwarehersteller oder Designer. Sie sind schon seit Jahren zu einem nicht unerheblichen Teil auch ein Software lieferant und das Ziel ist nun mal eigene Features zur Abgrenzung vom direkten Wettbewerb und ein eigenes Ökosystem. Das ist ihr gutes Recht und nennt sich im übrigen Wettbewerb. Wenn alle das gleiche liefern, dann bleibt doch nur noch der Preiskampf und das Dumping. Gott sei Dank ist das hier nicht der Fall. Dann würde nur noch billige Chinaplagiate oder Nachbauten am Markt überleben. Wenn jemand ein neues Feature gut findet und es ihm was bringt, dann soll er auch einen entsprechenden Preis dafür bezahlen oder es halt bleiben lassen. Es gibt kein Recht für jeden potentiellen Konsumenten auf der Welt bestimmte Dinge in der EDV wie G-Sync sich leisten zu können. Es gibt auch kein Recht auf Lachs oder Kaviar oder schöne Autos.

Unicous
2014-09-02, 00:37:33
Immer diese Autovergleiche die nichts bringen.;D

Ein Auto ist ein Endprodukt, eine Grafikkarte ist nur Teil des Ganzen.

Wenn du schon Analogien nutzen willst sollten sie auch den Standpunkt näher bringen und nicht nur Automarkennamen vergleichen.

Und dass Nvidia seit Anbeginn auch Softwareentwickler ist, so wie jede Hardwarebude, sollte klar sein. Um die Hardware ausnutzen zu können braucht man auch die entsprechende Software. Nichts anderes macht AMD. Du tust ja fast schon so, als hätte Nvidia als Einziger erkannt, dass es ohne Tools, SDKs, etc., nicht mehr geht. AMD und Intel machen das genauso.

Wo auch immer Nvidia diesen Nimbus des alleinigen Trendsetters her hat, erschließt sich mir nicht. Nvidia versucht ein geschlossenes Ökosystem wie Apple aufzubauen. Das funktioniert gut, solange man die unangefochtene Nr. 1 ohne Konkurrenz ist. Aber Nvidia ist nicht allein. Intel ist die unangefochtene Nr.1 und AMD hat auch ein Wörtchen mitzureden.

Nvidia beklagt sich wegen Qualcomm in Europa (jedoch nicht in den USA;)) über Wettbewerbsverzerrung und Ausschließung vom Wettbewerb, aber betreibt Ähnliches im Gaming-Bereich. Sie gehen Verträge ein um in Drittpartei-Software Funktionen einzubauen, die AMD und Intel GPUs nicht nutzen können und verschaffen sich so einen Vorteil. Wo ist da der Unterschied?

Warum haben sie G-Sync nicht als optionale Spec für DP herausgebracht, wenn es eh zwingend benötigt wird. die Implementierung in Hardware hätte jedem Hersteller selbst überlassen werden können. Aber nein, sie fragmentieren künstlich den Markt um Kunden an sich zu binden. Und da können sie mir tausend Mal sagen, sie haben nur das Wohl des Gamers im Sinn. Ich sage Bullshit ihr wollt aus einem guten Konzept Profit schlagen und die Konkurrenz ausschalten. Zwei verschiedene Komponenten, Monitor und GPU, werden auf Gedeih und Verderb aneinander gebunden, wo es vorher keinerlei Verbindung gab (außer der offensichtlichen;)) und dem Kunden wird wieder eine Wahlmöglichkeit genommen. Bei einem Feature, dass dringend benötigt wird und seit Jahren in der ein oder anderen Form versucht wird in Software zu realisieren. Mit eher mäßigem Erfolg.

Ich sage Nvidia hat hier nicht den Gamer im Herzen sondern allein den Profit.


edit zu deinem edit: Was ist denn das für eine neoliberale Denke? Wer redet hier von Recht? Bist du auch der Meinung dass nicht jeder Recht auf Wasser und Unterkunft hat, wenn er es sich nicht leisten kann? Es geht nicht darum, es sich nicht leisten zu können sondern das ein essentielles Feature der Mehrheit der Gamer vorenthalten wird, weil es nur mit Nvidia Hardware funktioniert. Die IHV mischen sich immer mehr in Sachen ein, die sie nichts angehen. Diese Herangehensweise führt zu einem fragmentierten Markt, weil man sich offensichtlich nicht mehr durch die eigentliche Hardware von der Konkurrenz absetzen kann.

Am Ende ist der Kunde... der ach so geliebte Gamer der Gearschte. Weil er nicht mehr frei entscheiden kann sondern zwischen proprietären Lösungen abwägen muss und es ihm verweigert wird, das Spiel einfach zu genießen.

Schaffe89
2014-09-02, 00:53:51
G-Sync hat sich mittlerweile nicht nur einmal verschoben und noch immer gibt es Monitore nur im homöopathischen Dosen. Der zeitliche Vorsprung schrumpft also immer weiter zusammen und für den Aufwand den Nvidia betriebt ist er eigentlich fast schon lächerlich. Da hätte man sich auch gleich gemeinsam für FreeSync entscheiden können, davon würden alle Anwender profitieren.

Nvidia hat sich meiner Meinung damit zum Affen gemacht, anstatt sich hinzusetzen und den gesamten Gamingmarkt zu fördern, werden Nischenprodukte für sehr hohe Preise gelauncht.
Vielleicht mein Nvidia auch hohe Margen sind alles und die Anzahl der verkauften Produkte ist egal.

Gerade der Gamingmarkt schrumpft am PC etwas, da sollte man mit Innovationen auf breites Basis werben.
Zudem ist es sowieso lächerlich dass ein Grafikkartenhersteller bestimmte Monitore an seine Grafikkarte bindet.
Dass man nur mit einer Nvidiakarte auf die Shield streamen kann war auch so ein Fall.

Alles nicht nachvollziehbar.

-/\-CruNcher-/\-
2014-09-02, 00:55:22
Herrje das ist natürlich vernüftig so konsequent zu sein. Aber ich wünsche mir sehnlichst einen
soliden grossen Monitor mit flüssiger Bildwiedergabe ohne Bewegungsunschärfe...ich hassse das mitlerweile.

Banding und 8-Bit stören dich anscheinend überhaupt nicht ;) ?

Hauptsache Vision 3D ;)

zugegeben vom Psychovisuellen faktor ist das V-Sync problem höher zu bewerten aber da warte ich lieber bevor ich Nvidia hier ihren traum erfülle ohne faktische daten gegen die anderen implementationen ;)

Nur weil sie jetzt (anscheinend) als erste abzocken wollen und wenn haben sie sich zum bluten ausgesucht die unwissenden Gamer, na sehr tolle Einstellung.

memoal
2014-09-02, 17:00:40
FreeSync wird jetzt über den DP1.2a auch offiziell unterstützt (als erste offizielle Karte?), dachte die anderen könnten das auch (Hawaii?). Bloss blöd das AdaptiveSync im Desktopbereich nur mit iDP angebunden funktioniert (eDP im Mobilebereich) und es nicht einen Desktopmonitor gibt, der dies derzeit unterstützt (oder wohl bloss die Prototypen die AMD immer zeigt). Die drehen sich im Kreis. Alles eher für zukünftige Anwendungen. Scheint wohl eher sowas wie ein kastrierter überarbeiteter Hawaii zu sein?

Tonga ist jetzt auf dem Level der 770 angekommen was die Tesselationspower angeht, oder hat er mehr oder weniger? In Sniper Elite 3, fast 2mal so schnell wie die 280, naja, wenigstens ein Highlight.

Hätte mir trotzdem was um 130-140w gewünscht.

Thomas Gräf
2014-09-02, 17:05:14
N'ach, richtiges 3D überlasse ich der Rift wenn sie am Markt ist. Werde schon noch warten bis FreeSync zu sehen ist.
Weiß man denn schon was die GeSync Platine alles so drauf hat?
Hat nV damit noch anderes vor in Richtung multiGPU?
Folgendes Szenario angenommen 3x4k Monitore im TripleScreen...wenn das mal 3xGeSync Monitore sind braucht man auch 3xGraka. Teuflischer Gedanke, aber da währe dann ein dreifach SLI ohne MicroStuttering, und 3xGPU's in 2015/16 würden das ganz nett performen lassen. Was meint Ihr?

memoal
2014-09-02, 17:16:53
Multimonitor geht doch? Jetzt soll ja irgendwann der Acer Predator XB280HK (G-Sync für 599, 4k/2k) kommen, damit soll Multimonitorbetrieb gehen (Pivot etc.), oder war das ohne GSync gemeint.

memoal
2014-09-02, 17:24:54
Ich weiß nicht genau wieso PCGH das so in den Hals bekommen hat, aber die nette Folie befindet sich im Deck.
Also Freesync ab Hawaii, oder was bedeutet Projekt? nur dieses iDP ist eben noch nicht bei den Monitortypen angekommen, weil optional und die andere Anbindung (LVDS?) eben noch billiger ist.

Hab da mal den anderen Thread gelesen, so wies da dargestellt wird stimmt es auch nicht. Von wegen weit verbreitet. AdaptiveSync wurde schon 2009 in den Featurestand des eDP gehoben, nur gibt es eben wenige mobile Geräte (Displays) die es wirklich unterstützen, man spricht da von einer Hand voll Displays.

Da tut man ja so als wären fast alle mobile Displays dazu kompatibel, stimmt garnicht, Toshiba ist da wohl derzeit Vorreiter.

Unicous
2014-09-02, 18:00:25
Jeder G-Sync Monitor braucht bis jetzt eine Geforce Karte. Guckt euch doch einfach das Video an, das ich vor einer guten Woche gepostet habe, da wird alles erklärt.

Tom Peterson sagt, das wird sich kurzfristig auch nicht ändern. Soweit ich das richtig interpretiere ist das auch keine Softwarelimitierung.

StefanV
2014-09-02, 18:15:10
Nvidia hat sich meiner Meinung damit zum Affen gemacht, anstatt sich hinzusetzen und den gesamten Gamingmarkt zu fördern, werden Nischenprodukte für sehr hohe Preise gelauncht.
Vielleicht mein Nvidia auch hohe Margen sind alles und die Anzahl der verkauften Produkte ist egal.

Gerade der Gamingmarkt schrumpft am PC etwas, da sollte man mit Innovationen auf breites Basis werben.
Zudem ist es sowieso lächerlich dass ein Grafikkartenhersteller bestimmte Monitore an seine Grafikkarte bindet.
Dass man nur mit einer Nvidiakarte auf die Shield streamen kann war auch so ein Fall.

Alles nicht nachvollziehbar.
ESA war ja auch ein voller/durchschlagender Erfolg. Davon spricht man ja auch heute noch ;)
Aber aus vergangenen Fehlern zu lernen wäre ja einfach, irgendwie...

memoal
2014-09-02, 18:15:18
Jeder G-Sync Monitor braucht bis jetzt eine Geforce Karte.
O.K., dann hab ich das beim Acer Monitor verkehrt verstanden.

Wie ist das jetzt eigentlich, geht der Monitor mit dem GSync-Modul dann garnicht mehr für Multimonitor oder wenn man ihn an eine AMD Karte anschließt?

Drei Montiore und drei Ausgabesignale bei (Tripple) SLI ist dann aber auch Phantasie?

Unicous
2014-09-02, 18:31:14
Ich bin mir jetzt nicht sicher, es ging mir nur um G-Sync, dafür braucht man wie gesagt bei Surround jeweils eine GPU pro Monitor.

Man kann G-Sync aber auch ausschalten und dann sollte der Monitor sich wie ein normaler Monitor verhalten...hoffentlich.

Könnte sogar sein, dass die Frage im Video beim Q&A gestellt wurde.

Gipsel
2014-09-02, 19:19:12
Bloss blöd das AdaptiveSync im Desktopbereich nur mit iDP angebunden funktioniert (eDP im Mobilebereich) und es nicht einen Desktopmonitor gibt, der dies derzeit unterstützt (oder wohl bloss die Prototypen die AMD immer zeigt).
nur dieses iDP ist eben noch nicht bei den Monitortypen angekommen, weil optional und die andere Anbindung (LVDS?) eben noch billiger ist.Verbreite hier mal kein FUD! Die interne Anbindung des Panels ist für AdaptiveSync/FreeSync völlig irrelevant, es funktioniert auch mit LVDS-Panels. Falls Hersteller irgendwann Monitore anbieten, die nur noch Displayport-Anschlüsse haben (also keine anderen mehr), dann werden sie vermutlich auch iDP als interne Anbindung der Panels bevorzugen, aber prinzipiell ist das wie gesagt in keiner Weise erforderlich.

memoal
2014-09-02, 21:25:17
Verbreite hier mal kein FUD! Die interne Anbindung des Panels ist für AdaptiveSync/FreeSync völlig irrelevant, es funktioniert auch mit LVDS-Panels. Falls Hersteller irgendwann Monitore anbieten, die nur noch Displayport-Anschlüsse haben (also keine anderen mehr), dann werden sie vermutlich auch iDP als interne Anbindung der Panels bevorzugen, aber prinzipiell ist das wie gesagt in keiner Weise erforderlich.
Wieso ich?

Das waren völlig andere!!!! Vielleicht sprichst du dann mal mit deinen "Kollegen" (sollten sie das sein) von der CT!
http://www.heise.de/ct/heft/2014-13-aktuell-Peripherie-2230271.html
Technisch soll das Ganze durch Anpassung der vertikalen Synchronisation, genauer über das Blanking-Intervall als Teil der Bildlaufzeit realisiert werden. Adaptive-Sync- respektive FreeSync-kompatible Displays nutzen den DisplayPort 1.2a und intern ein vergleichbares Protokoll: Für Notebooks den embedded DisplayPort (eDP) und bei Monitoren den Internal DisplayPort (iDP) beziehungsweise den sogenannten Direct Drive Monitor (DDM) – beide Monitorvarianten sind aktuell sehr rar beziehungsweise nicht verfügbar. AMD rechnet deshalb frühestens in einem halben Jahr mit FreeSync-kompatiblen Geräten.

Und mal ganz nebenbei, die Vesa hatte schon 2009 in einem Whitepaper dazu Stellung genommen. Da gab es richtig schöne PDF Dateien zu bewundern. Es könnte sein, dass es sogar einen neuen Displaytyp erfordert, aber das weiß ich nicht genau, weil keinen Masterabschluss in Elektotechnik/Elektronik.

Mit dem "FUD" ist das so eine Sache, wenn man nicht der Urheber ist, aber als Solcher mit einer verfolgenden "Absicht" hingestellt wird.

Also mir persönlich irgendeine absichtliche Verunsicherungsabsicht zu unterstellen, bzw. dass ich sie verbreite, die dann wie u.a. einen gewissen Zweck verfolgt, mit solchen Aussagen wäre ich mal vorsichtig.
Fear, Uncertainty and Doubt, eine auf Verunsicherung der Kunden abzielende Marketing-Strategie

@memoal mag zwar von Computern keinen Dunst haben, aber was er sonst so kann, wer weiß das schon? Zudem hätte man es ja erklären können wenn man es weiß.

Aber nichts für ungut, der Neue wieder, der nervt oder wie soll ich das Posting verstehen? :rolleyes: Also falls du mich antrollen wolltest, ja, es ist dir gelungen.

Unicous
2014-09-02, 21:38:43
Tja, heise schreibt Scheiße und wenn du dich nur auf eine Quelle verlässt, die sich ihre "Informationen" aus den Fingern saugt bis du trotzdem selbst schuld.
Denn bis jetzt hat niemand anderes dieses Detailwissen von AMD entlocken können und das "soll" ist ein sehr starker Indikator für Finger in den Po, dann in die Luft halten und dann warten was kleben bleibt.
DFVS wird zum überwältigenden Anteil genutzt und das weiß der heise-Autor sicherlich auch.

memoal
2014-09-02, 21:53:21
Tja, heise schreibt Scheiße und wenn du dich nur auf eine Quelle verlässt, die sich ihre "Informationen" aus den Fingern saugt bis du trotzdem selbst schuld.
Denn bis jetzt hat niemand anderes dieses Detailwissen von AMD entlocken können und das "soll" ist ein sehr starker Indikator für Finger in den Po, dann in die Luft halten und dann warten was kleben bleibt.
DFVS wird zum überwältigenden Anteil genutzt und das weiß der heise-Autor sicherlich auch.
Naja wenn du mir noch erklärt was DFVS ist, gerne auch per PN, wär ich froh. Ich hab nur mal wie schon geschrieben, solche PDF Sachen gesehen. Da waren sogar Displaytypen aufgeführt.

OT: Unwissentheit schütz zwar nicht vor dem Gesetz, aber manche Dinge werden auch dort sehr normell betrachtig, dass richtet sich rein an Verursacherprinzipien aus, egal von wo man postet (mal kurz das Schei...xxx angesprochen, leidenschaftlich aber naja, grenzwertig, da giehts schon beim Stinkefinger los!). Die andere Aussage hier geht mal voll als du "Marktingheini"? erzähl das jemand anderem durch. Nix selbst Schuld!

Wäre schön wenn es so wäre, oder was verdienen so?

Ich sehs in der Aufregung aber nach, also alles gut. Wollte nur mal durch die Blume sagen "ich hab mit keinen hier ein Bier getrunken". Wär an Infos aber rein "privat" interessiert, um zu entscheiden was ich demnächst so kaufe. Auf jeden Fall vor Weihnachten, dass 7950 CF ist keine Option, wie ich festgestellt habe. Suche was anderes.

Unicous
2014-09-02, 22:01:45
Wenn ich nicht gerade einen brainfart gehabt hätte (und dazu noch einen Buchstabendreher) wäre vllt. auch etwas bei google herausgekommen.:wink:
Sry

Ich meinte wie Gipsel ja schon erwähnte LVDS: Low-voltage differential signaling
(DVFS: dnaymic voltage and frequency scaling ist zwar in gewisser Hinsicht auch wichtig aber nicht hier:freak:)

Das ist genauso eine Schnittstelle wie iDP und edP und geschätzt zu 90-99% in heutigen LCD-Displays vorhanden.

Kriton
2014-09-02, 22:03:29
CTs Aussage:

Adaptive-Sync- respektive FreeSync-kompatible Displays nutzen den DisplayPort 1.2a und intern ein vergleichbares Protokoll: Für Notebooks den embedded DisplayPort (eDP) und bei Monitoren den Internal DisplayPort (iDP) beziehungsweise den sogenannten Direct Drive Monitor (DDM) -– beide Monitorvarianten sind aktuell sehr rar beziehungsweise nicht verfügbar. AMD rechnet deshalb frühestens in einem halben Jahr mit FreeSync-kompatiblen Geräten.

stützt aber nicht (sonst müsste da erfordern stehen):

Bloss blöd das AdaptiveSync im Desktopbereich nur mit iDP angebunden funktioniert (eDP im Mobilebereich) und es nicht einen Desktopmonitor gibt, der dies derzeit unterstützt (oder wohl bloss die Prototypen die AMD immer zeigt).

Ohne, dass ich da technisch drin stecke bedeutet der Umstand, dass etwas in Kombination mit einer Spezifikation genutzt wird nicht, dass diese gebraucht wird: Korrelation ist nicht Kausalität.

Und Gipsel hat nur bestritten, dass der Zusammenhang zwingend ist. Das ergibt sich aber auch gerade nicht aus dem Text der CT.

Unicous
2014-09-02, 22:12:06
Um es noch einmal zu verdeutlichen. So sieht die Wirklichkeit aus:

http://www.hy-line.de/uploads/pics/DP8622-Block-Diagram-20110318.gif

memoal
2014-09-02, 22:16:11
Korrelation ist nicht Kausalität.
Ah, o.k., verständlich. Falschinterpretation, darauf läuft es hinaus.

OT: Dann stellt man es richtig und lässt "FUD" (was sich klar definiert, schwaz auf weiß), einfach weg, oder? Kausalität, ja. Kein Handeln ohne Beweggrund.
Laut VESA soll künftig der Internal DisplayPort (iDP) und für rein digitale Monitore der DDM (Direct Drive Monitor) die Weiterleitung der Videosignale zum Panel übernehmen. Geräte mit iDP oder DDM gibt es unseres Wissens noch nicht.
Das hier stimmt dann nicht? Also ist es möglich Freesync auch analog zu übertragen? http://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html

PS: Danke @unicous.
(Quelle?, DeepLinks sind erlaubt, auch Kurzzitate die die eigene Meinung stützen sollen, aber leider keine kopierten Grafiken, soweit sie nicht deiner eigenen Schöpfungskraft entspringen oder du einen Nutzungsvertrag besitzt...mal drüber nachdenken! Kann aber sein es ist von Dir, dann Entschuldigung)

Gipsel
2014-09-03, 18:48:26
Um es noch einmal zu verdeutlichen. So sieht die Wirklichkeit aus:

http://www.hy-line.de/uploads/pics/DP8622-Block-Diagram-20110318.gif

Ah, o.k., verständlich. Falschinterpretation, darauf läuft es hinaus.

OT: Dann stellt man es richtig und lässt "FUD" (was sich klar definiert, schwaz auf weiß), einfach weg, oder? Kausalität, ja. Kein Handeln ohne Beweggrund.

Das hier stimmt dann nicht? Also ist es möglich Freesync auch analog zu übertragen? http://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html

PS: Danke @unicous.
(Quelle?, DeepLinks sind erlaubt, auch Kurzzitate die die eigene Meinung stützen sollen, aber leider keine kopierten Grafiken, soweit sie nicht deiner eigenen Schöpfungskraft entspringen oder du einen Nutzungsvertrag besitzt...mal drüber nachdenken! Kann aber sein es ist von Dir, dann Entschuldigung)
Zu dem Heise-Artikel hatte ich mich schon mal geäußert (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10219848#post10219848).
Bezugnehmend auf das Bild in Unicous' Post, sollte man sich ins Gedächtnis rufen, daß immer davon gesprochen wurde, daß es neue Scaler braucht, um Adaptive/FreeSync zu unterstützen. Der abgebildete "DP to LVDS Converter" ist normalerweise Teil davon. Es kommt ein Signal an (per DP, HDMI oder sonstwie), das wird gegebenenfalls auf die native Auflösung des verbauten Panels skaliert (daher Scaler!) und dann über eine zweite Schnittstelle an das eigentliche Panel weitergeleitet (Backlight-Steuerung usw. ist heutzutage auch noch mit drin, ist aber nicht zwingend und könnte auch extern erfolgen). Wie das Interface zum Panel genau aussieht (also ob es über LVDS [korrekt eigentlich FPD link] oder z.B. iDP mit dem Panel kommuniziert) ist sekundär, beides ist möglich. Momentan gibt es halt eine überwältigende Mehrheit an LVDS-Panels. Aber daß man über LVDS auch variable vblank-Intervalle hinbekommt, zeigt ja nVidia (und die Specs geben es auch klar her) ;). Die tauschen mit ihrem GSync-Modul im Prinzip auch nur die Monitorelektronik mit dem Scaler aus und bauen da einen proprietären (FPGA-basierten) Scaler ein, der das Signal von DP (nV nutzt nicht den AdaptiveSync-Standard sondern irgendwas eigenes, um den variablen Refresh über DP zu codieren, sollte aber relativ ähnlich sein) auf LVDS umsetzt. So oder so, es funktioniert einwandfrei mit LVDS-Panels.

memoal
2014-09-03, 20:49:30
Gut ich dachte ASync bindent sich an DP1.2a und höher. Aber wenns auch anders geht. Bei Tonga wird es definitiv für den DP1.2a Port beworben, wenn man etwas genaueres wissen will wird man von der VESA auf AMDs Seite (http://support.amd.com/en-us/kb-articles/Pages/freesync-faq.aspx) weitergeleitet.

Ansonsten hier (http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-iDP-Dec-2010-rev-2-.pdf) gabs mal eine PDF zu iDP.

Unicous
2014-09-11, 12:30:51
Wenn ich das richtig interpretiere sind AMD Leute und Monitorhersteller ("Taiwan Execs") seit ein paar Tagen in Monterey (nahe San Francisco...IDF lässt grüßen?) bzw. Roy Taylor in Taiwan und verhandeln über...Dinge.

https://twitter.com/amd_roy/status/509993386992889857

What do you prefer, QHD +144Hz or 4K 60Hz ? Taiwan execs value your opinion. Assume same price. @AMDRadeon @NVIDIAGeForce @IntelGaming

bzw. etwas älter:


https://twitter.com/amd_roy/status/509517528570138624

In Taiwan and just got some exciting news on Freesync, dont waste any money on that Gsync monitor till you see whats coming! @AMDRadeon

Roy@AMD ‏@amd_roy

@Antistatic12 @AMDRadeon @nvidia I am itching to tell you more and its not at all bold for whats coming! :) News will be soon (very).

aufkrawall
2014-09-11, 13:19:38
Ob das wohl was mit der bald startenden Produktion eines 144Hz WQHD IPS-Panels zu tun hat.

Unicous
2014-09-11, 13:38:06
So wie ich das interpretiere, quatscht AMD gerade mit Monitorherstellern, was der Markt/die Kunden am Liebsten haben wollen. Andere Tweets zeigen ein Bild wo live-feedback von Twitter gezeigt wird.

AU Optronics liegt natürlich nahe, da sie ein taiwanesisches Unternehmen sind, zu BenQ gehören (auch Taiwan) und der größte LCD-Hersteller sind.

Ich behaupte mal die Implementation eines neuen Scalers ist dabei das kleinste Übel. Das größere Übel ist, die Hersteller davon zu überzeugen, dass es einen Markt dafür gibt.

Aber wenn das stimmt, gäbe es einen weltweiten nerdgasm. Also ich persönlich bin schon ganz horny.*sabber* (Mein 2400PT freut sich über einen ASync-Bruder)

Achso, den gabs ja auch noch:

https://twitter.com/amd_roy/status/509565803121741824

What would you pay for a 4K 32" curved panel with Freesync? Curious Taiwanese Execs want to know!

Ryan Shrout (von PCPer) sagte daraufhin: $8.45 ;)


LOL

BenQ BL3201PT 32" with 4k Resolution AHVA Panel (http://www.tftcentral.co.uk/news_archive/31.htm#benq_bl3201pt)

Das ist ja schon fast ein bisschen zu offensichtlich.:freak:

Screemer
2014-09-11, 14:41:41
also ich wäre ja für nen 144Hz qHD oder besser noch 2560*1600 mit 27'' und dazu freesync. gern nehm ich auch das gleiche wie beim 27'' auf 32'' mit 3.440 × 1.440 und curved :D sabber. 4k packt aber doch eh meine hardware nicht :(

derF
2014-09-12, 11:05:41
27", qHD, 144 Hz, IPS(/OLED), ASync, niedriger Input Lag <15 ms

Das is für <800 EUR gekauft. Schön wäre noch Auswahl zwischen mehreren Herstellern/Modellen für Bildqualität, Input Lag und Blinking Backlight Optionen.

aufkrawall
2014-09-12, 11:09:55
Wenn BenQ das Panel in einen Gaming-Monitor packt, ist naheliegend, dass ihre Strobing-Implementierung mit dabei ist.
Auch ohne G-/FreeSync wär so ein Monitor ein Meilenstein.

fondness
2014-09-12, 17:34:03
About to fly home. Its been a GREAT WEEK, Freesync is going to rock your world, news late next week. Good news. @AMDRadeon #freesync

https://twitter.com/amd_roy/status/510444514620628992

Thomas Gräf
2014-09-12, 17:55:37
Haha, liest sich als ob da Marketing auf Restalkohol trifft. ;)
Na dann warten wir mal auf das Ende der nächsten Woche. :)

clockwork
2014-09-12, 19:11:33
---

passt

Unicous
2014-09-15, 20:52:34
Hmm.

DP 1.3 wurde veröffentlicht.

http://www.displayport.org/pr/vesa-releases-displayport-1-3-standard/

Joel Hruska behauptet:

DisplayPort 1.3 will continue to support the variable refresh rate concept AMD refers to as FreeSync, but no word on when we’ll see that feature debuting in AMD GPUs.
http://www.extremetech.com/electronics/190130-displayport-1-3-unveiled-32-4-gbps-bandwidth-support-for-4k-60-fps-5k-and-8k

Golem behauptet:

Von der Unterstützung von AMDs Adaptive Sync, früher als Freesync bekannt, schreibt die Vesa in ihrer Ankündigung von DP 1.3 nichts. Die Technik für eine dynamische Synchronisierung für weniger Ruckler in Spielen - vergleichbar Nvidias G-Sync - ist jedoch schon seit Displayport 1.2a Teil des Standards.
http://www.golem.de/news/vesa-standard-displayport-1-3-a-v-fuer-5k-displays-ist-fertig-1409-109264.html

Ich schätze mal Hruska macht eine logische Schlussfolgerung DP 1.2a Adaptive Sync-> 1.3. Denn außer der PM scheint VESA ja nichts herausgerückt zu haben.

Wäre doof/dumm wenn Adapaptive Sync erst mit einem Addendum zu 1.3 hinzugefügt wird.

Aber hier könnten die Journalisten ja einfach mal nachfragen.:tongue:

Kartenlehrling
2014-09-15, 21:12:03
Passt ja auch zum Twitter posting vor einer stunde ...

https://twitter.com/amd_roy/status/511571245834326016

@amd_Roy

FREESYNC is going to rock your world, later this week we will share more,
meantime another step; http://www.extremetech.com/electronics/190130-displayport-1-3-unveiled-32-4-gbps-bandwidth-support-for-4k-60-fps-5k-and-8k … @ExtremeTech #Gsync

Thomas Gräf
2014-09-15, 21:17:01
So'n Bauchgefühl...nV hats mit GeSync gemacht, AMD machts jetzt mit FreeSync.
Jo und jeder hat so für sich seine Monitorhersteller. Geht doch auch, oder? ;)

Unicous
2014-09-15, 21:20:45
Kann, muss aber nicht.

Leider sind solche "standards bodies" immer so schrecklich träge. Wenn im Mai Adaptive Sync implementiert wurde heißt das leider nicht, dass es automatisch auch Teil von v 1.3 ist. Jedenfalls befürchte ich das. Andererseits ist ja die Adapative Sync Spec auch schon sicherlich seit Ende letzten Jahres in der Mache.

Na ich hoffe das Beste, befürchte aber das Schlimmste.:freak:


Wehe Roy macht schon wieder großes Brimborium um am Ende zu sagen: Hey Leute, Freesync Monitore gibts ab Anfang nächsten Jahres.:rolleyes:


@Thomas Gräf

Kannst du präzisieren was du meinst?

Gipsel
2014-09-15, 21:30:52
Kann, muss aber nicht.

Leider sind solche "standards bodies" immer so schrecklich träge. Wenn im Mai Adaptive Sync implementiert wurde heißt das leider nicht, dass es automatisch auch Teil von v 1.3 ist. Jedenfalls befürchte ich das. Andererseits ist ja die Adapative Sync Spec auch schon sicherlich seit Ende letzten Jahres in der Mache.

Na ich hoffe das Beste, befürchte aber das Schlimmste.:freak:Was schreibt die VESA in ihrer Pressemeldung?
The Video Electronics Standards Association (VESA®) announced the release of the DisplayPort 1.3 audio / video (A/V) standard. An update to the widely used DisplayPort 1.2a standard, this latest version increases the maximum link bandwidth to 32.4 Gbps, with each of four lanes running at a link rate of 8.1 Gbps/lane—a 50% increase from the previous version of the DisplayPort standard.Es ist kein Update von 1.2 und es gibt dann Adaptive Sync nur mit 1.3a oder so, es beinhaltet alle Features von 1.2a (inklusive AdaptiveSync) und erhöht hauptsächlich die Datenrate (+zusätzlicher offizieller Unterstützung von ein paar neueren Features). Ansonsten wäre die Wortwahl der VESA kaum zu erklären.

Thomas Gräf
2014-09-15, 21:31:41
@Unicous nja ganz einfach AMD war diese Woche mit den Herstellern zusammen. Um einen Standard zu diskutieren der ja schon alt ist?
AMD will vielleicht gar nicht das alles offen geklärt wird, sie kochen ein eigens Süppchen in Sachen FreeSync und haben nur noch nach Partner dafür gesucht. Dünnes Eis das alles sicherlich.

samm
2014-09-15, 21:35:10
Wehe Roy macht schon wieder großes Brimborium um am Ende zu sagen: Hey Leute, Freesync Monitore gibts ab Anfang nächsten Jahres.:rolleyes:Halte diese Möglichkeit sogar für recht wahrscheinlich - spannend für mich wird's eh erst mit was Anderem als TN und >= 120Hz :cool:

Unicous
2014-09-15, 21:39:09
@Gipsel

Jaaa aaaaber... der 1.2a Standard ist von Januar 2010. Adapative Sync ist nur ein optionaler Bestandteil davon, seit Mai diesen Jahres.

Ich bin mir auch nicht sicher, ob DockPort wirklich "Bestandteil" von DP 1.3 ist und nicht nur genannt wurde weil es sich so schön in einer PM liest, denn rückwirkend ist er ja fully backward compatible with all existing DisplayPort devices.

http://www.vesa.org/featured-articles/vesa-releases-dockport-standard/

Man muss da leider vorsichtig sein. Besonders weil auch Tom Peterson dahingehend sehr FearUncertaintyandDoubt verbreitet hat.


Hoffentlich ist es so einfach wie du behauptest, ich traue dem glänzenden Schinken nicht.

@Thomas Gräf

AMD hat meiner Lesart nach mit den Monitorherstellern über konkrete Produkte gesprochen, bzw. was der "Markt" will. Sonst hätte Roy Taylor nicht in die Twitter-Runde gefragt "wie sie's denn gerne hätten".

Ich schätze AMD wird einfach nur Partner vorstellen, vllt. sogar mit Hinweisen auf konkrete Monitore, vllt. sogar erste Prototypen vorstellen. Das wäre ein guter Anfang und ein sehr, sehr wichtiger Schritt.

Denn mit einem hat Tom Peterson recht. Bis jetzt gibt es eben keine FreeSync/Adaptive Sync Monitore.

Gipsel
2014-09-15, 21:42:27
Jaaa aaaaber... der 1.2a Standard ist von Januar 2010. Adapative Sync ist nur ein optionaler Bestandteil davon, seit Mai diesen Jahres.Und genauso ist AdaptiveSync optionaler Bestandteil von DP1.3. Alles Andere macht keinen Sinn.

Unicous
2014-09-15, 22:02:02
Und ich sage dir: Logik ist hier fehl am Platz.:tongue:

Ich hoffe du behältst Recht, allein der Glaube an den allmächtigen "Standards God" fehlt mir.

Anders gesagt: Warum DockPort explizit erwähnen, aber Adaptive Sync dabei vergessen?

Mandalore
2014-09-15, 22:15:26
Rein von der technischen Praxis: Ist FreeSync bzw. ASync genauso gut wie G-Sync oder sogar besser?

Unicous
2014-09-15, 22:20:34
Rein von der technischen "Theorie" sollte es genau das Gleiche machen wie G-Sync. Die "Praxis" ist noch...öööhm... Theorie.


http://www.pcper.com/news/General-Tech/VESA-Releases-DisplayPort-13-Standard

It is official, DisplayPort 1.3 has finished VESA approval and should be hitting the streets in the near future. Freesync support came with 1.2a which is why it was not mentioned, however DockPort has been enhanced with the higher 8.1 Gbps link rate for each of the four lanes present which means you can support a 4k monitor using two of those lanes, leaving the other two available for USB, audio or even power.

Auch wieder so eine Aussage a la "Die Logik diktiert es".:tongue:

Kriton
2014-09-15, 22:29:18
@Unicous nja ganz einfach AMD war diese Woche mit den Herstellern zusammen. Um einen Standard zu diskutieren der ja schon alt ist?
AMD will vielleicht gar nicht das alles offen geklärt wird, sie kochen ein eigens Süppchen in Sachen FreeSync und haben nur noch nach Partner dafür gesucht. Dünnes Eis das alles sicherlich.

Ich halte es da eher mit Unicious (welches eigene Süppchen sollte AMD bei einem Standard auch kochen?):


AMD hat meiner Lesart nach mit den Monitorherstellern über konkrete Produkte gesprochen, bzw. was der "Markt" will. Sonst hätte Roy Taylor nicht in die Twitter-Runde gefragt "wie sie's denn gerne hätten".

Ich schätze AMD wird einfach nur Partner vorstellen, vllt. sogar mit Hinweisen auf konkrete Monitore, vllt. sogar erste Prototypen vorstellen. Das wäre ein guter Anfang und ein sehr, sehr wichtiger Schritt.

Denn mit einem hat Tom Peterson recht. Bis jetzt gibt es eben keine FreeSync/Adaptive Sync Monitore.

Und zu:


Auch wieder so eine Aussage a la "Die Logik diktiert es".:tongue:

Logik ist immer noch mehr als Dein Bauchgrummeln... :P

Locuza
2014-09-16, 20:26:40
Damit Unicous wieder ruhig schlafen kann im Leben:

Die VESA hat gegenüber ComputerBase bestätigt, dass sich ein einzelnes UHD-Display über DisplayPort 1.3 mit 120 Hertz betreiben lässt. Neue Kabel oder Stecker setzt der neue Standard nicht voraus, mit Version 1.2 kompatible Kabel sollen bereits die nötige Bandbreite liefern. Adaptive Sync als Bestandteil von DisplayPort 1.2a wird auch in der Version 1.3 unterstützt.

Eine grobe Prognose für die Veröffentlichung erster Displays und Grafikkarten mit DisplayPort 1.3 ließ sich die VESA ebenfalls entlocken: Vor dem Jahr 2016 ist mit Endgeräten nicht zu rechnen. Zuerst werden ab dem kommenden Jahr Geräte mit DisplayPort 1.2a erscheinen. Die Koexistenz beider Standards ein Jahr darauf schließt das Konsortium nicht aus – „DP 1.3 nicht notwendiger Weise ein Ersatz für DP 1.2a“, heißt es.
http://www.computerbase.de/2014-09/displayport-1.3-ermoeglicht-5k-und-2-display-uhd/

Unicous
2014-09-16, 20:37:40
Ruhig geschlafen hätte ich sowieso.

AT braucht leider immer länger für ihre Artikel, aber wenigstens schreiben sie nicht immer nur die PM um, wie die meisten und machen dann auch noch Fehler (Ja, DockPort wurde mit USB 3.1 spezifiziert TR:rolleyes:)

Meanwhile to no surprise (but always good for clarification), DisplayPort Active-Sync remains an optional part of the specification, so Adaptive-Sync availability will continue to be on a monitor-by-monitor basis as a premium feature.
http://anandtech.com/show/8533/vesa-releases-displayport-13-standard-50-more-bandwidth-new-features

Also nicht nur ich bin skeptisch bei neuen Specs die nur wenige Monate nach einem Addendum der vorhergehenden Spec verabschiedet werden.:wink:


Wrapping things up, like most VESA standards announcements today’s announcement is more of a beginning than an end for the process. Now that DisplayPort 1.3 is standardized manufacturers can begin developing controllers (and GPUs) around it, which traditionally takes several months. This would put the release of the first DP 1.3 devices in 2015, which we would expect to be further aligned to the product refresh cycles for the necessary GPUs and monitors.

Das ist nämlich das doofe an der Sache. Die Spec ist draußen, aber ob es übehaupt eine Sau interessiert ist die Frage.

Hoffen wir mal, dass 1.3 mal ein wenig flotter übernommen wird, als z.B. 1.2a.

Locuza
2014-09-16, 20:53:34
Was mich bei dem Thema aktuell am meisten tangiert ist ein gemeinsamer Standard, wo einer nicht Faggot spielt.
Ich habe keine Lust das sich die Rot/Grün-Entscheidung weiter zuspitzt und man Rot zu FreeSync und Grün zu G-Sync kaufen muss.
Wenn das geschehen sollte, wäre mein kleiner Traum von 4K mit IPS-Panel schon mit 1.2a zu erfüllen.

Unicous
2014-09-16, 21:25:54
Ist ja jetzt nicht so, dass Nvidia und Intel nicht Board Member wären.:wink:

Leider, leider spielt Nvidia immer auf der Flöte "Wir bringen die Innovationen und müssen dafür auch entlohnt werden." (Und Intel "was interessiert mich meine iGPU:freak:)

Denn ich bin mir relativ sicher, dass Adaptive Sync nicht so ein Schnellschuss aus der Hüfte und hilfloser Konter war wie viele behaupten. Dazu ist die Spec viel zu schnell verabschiedet worden.

Der DockPort Standard wurde Anfang des Jahres vorgestellt. AMD hatte Lightning Bolt auf der CES 2012 vorgestellt, iirc. Da sie zu der Zeit schon offene Standards ausnutzen (USB und DP) kann man davon ausgehen, dass sie nicht die Absicht hatten, das kommerziell "auszunutzen", zumal sie ja auch mit TI zusammengearbeitet haben.

Ich behaupte Nvidia wusste ganz genau, dass Adaptive Sync von AMD bzw. VESA "irgendwann" mal als Spec vorgeschlagen wird und hat sich gesagt, dass können wir auch und dabei sogar Geld verdienen.:freak:

Syed Hussain ist seit Ewigkeiten bei Ati/AMD und auch seit 10 Jahren (anscheinend mit Unterbrechung im Board of Directors bzw. seit 2013 Vice Chairman und hat auch an den Specs mitgearbeitet, natürlich auch an

eDP Dynamic Refresh Rate and Panel Self Refresh deployment
http://ca.linkedin.com/pub/syed-athar-hussain/1a/b91/a28

Ich hoffe Nvidia hält das nur ein oder zwei Jahre aus und schwenkt dann auf Adaptive Sync um, bzw. falls G-Sync wirklich Vorteile hat, bringt das in eine erweiterte Spec ein.

Denn G-Sync ist für den Kunden nicht vorteilhaft, es fragmentiert den Markt für ein paar schnelle bucks.

Mir kann niemand erzählen, dass AMD es geschafft hat eine neue Spec innerhalb von einem halben Jahr in eine träge Organization einzubringen. Allein für 1.3 haben sie 2 Jahre gebraucht und allzu revolutionär ist es im Vergleich zu DP 1.2 nicht.

Mandalore
2014-09-18, 14:27:39
FreeSync Monitore Q1/2015, Scaler werden Ende des Jahres produziert


http://www.pcgameshardware.de/LCD-Hardware-154105/News/AMD-Freesync-Monitore-Adaptive-Sync-Veroeffentlichung-1136442/

Unicous
2014-09-18, 14:29:56
Yaaaaay.:uclap:


Cool und anscheinend erst einmal auf FHD und QHD beschränkt.

Finally, the initial Project FreeSync-compatible scalers from MStar, Novatek and Realtek will empower monitor vendors with robust DisplayPort™ receivers accommodating of FHD and QHD panels up to 144Hz, or UHD panels up to 60Hz.

http://finance.yahoo.com/news/industrys-biggest-scaler-vendors-pledge-120000259.html

Akkarin
2014-09-18, 14:43:56
UHD panels up to 60Hz.

Textverständnis ftw.

ndrs
2014-09-18, 14:44:19
Ob die dann, so wie GSync auch, NUR Displayport als Anschlüsse haben?

Akkarin
2014-09-18, 14:51:08
The new scalers from MStar, Novatek and Realtek also will give monitor vendors access to a comprehensive set of features not available with other dynamic refresh technologies. Example features include: picture scaling, on-screen display (OSD), HDMI®/DVI inputs for legacy users and DisplayPort™ High Bit Rate Audio.

Artikel lesen.

Kartenlehrling
2014-09-18, 15:10:06
Das war auf jedenfall das Sinnvollste gleich bei den Zulieferer anzusetzten, wenn in jeden Scaler gleich die möglichkeit besteht es zu aktivieren,
dadurch wird freesync viel schneller in den nächsten Monitor verbaut sein bzw. möglich sein als nur in 2-3 Modelle wie bei g-sync.

Unicous
2014-09-18, 15:28:05
Textverständnis ftw.

Ähm, was willst du mir damit sagen?

@Kartenlehrling

Keine Frage, die Scaler-Hersteller ins Boot zu holen ist fast noch wichtiger als die Monitorhersteller. Denn wenn es die Scaler erst einmal gibt, sind auch die Monitorhersteller eher dazu bemüßigt, sie auch zu verbauen. Dennoch habe ich mir ein bißchen mehr versprochen als nur "Wir haben hundert Scalerhersteller gefragt, was fällt ihnen zu Adaptive Sync ein... xx Hersteller sagten?". Ein paar Monitorhersteller samt Prototypen hätte eine deutlich stärkere Botschaft gesendet.

Mir gefällt dieser Satz z.B. auch nicht:

AMD and its display partners intend to reveal Project FreeSync-ready monitors based on any one of the MStar, Novatek and Realtek scalers through a media review program in 1Q15.

Vorstellung von Monitoren erst im Q1. Hört sich irgendwie nicht so cool an und könnte bedeuten, dass man sie doch erst frühestens im Q2 kaufen kann.

Nightspider
2014-09-18, 15:30:14
Deine Aussage suggeriert das 4K Monitore noch kein FreeSync bekommen, obwohl du wohl nur 144Hz bei 4K gemeint hast.

Akkarin
2014-09-18, 15:30:21
Du sagst dass es erstmal auf FHD und QHD beschränkt ist und postest dann ein Zitat das sagt es läuft auch auf UHD (allerdings eben 60Hz, aber das ist eh die interessante region bei 4K FreeSync).

Unicous
2014-09-18, 15:34:59
Ooops. Sry.

Ich habe QHD@60Hz gelesen.:facepalm:

memoal
2014-09-18, 15:39:09
Warum DockPort explizit erwähnen, aber Adaptive Sync dabei vergessen?
@Gipsel dürfte hier recht behalten, Adaptive Sync wurde bereits als Standard definiert, denke nicht das man Optionalität jedesmal erneut aufzählen muss. Im 1.3 bleibt AS optional, wenns Pflicht wird, wirds auch aufgezählt. Alles andere würde verwirren und den einen oder anderen Kunden nachfragen lassen warum AS fehlt, soweit nicht berücksichtigt durch den Monitorhersteller.

Eine normale Vorgehenseise, braucht dich nicht verunsichern. Zum Thema AS verweist die Vesa eh auf AMDs Seite zu Freesync, dort kann man alles nachlesen.

Kartenlehrling
2014-09-18, 15:50:57
Ein paar Monitorhersteller samt Prototypen hätte eine deutlich stärkere Botschaft gesendet.

Mir gefällt dieser Satz z.B. auch nicht:
Vorstellung von Monitoren erst im Q1. Hört sich irgendwie nicht so cool an und könnte bedeuten, dass man sie doch erst frühestens im Q2 kaufen kann.


Dieser Monitor scheinen sie auf jedenfall für ihre Vorführunge genommen zuhaben, wie weit sie da das Signalmainboard umbauen mussten kann man natürlich nicht sagen.
Aber dieser hat auch nur einen Displayanschluss sonst nix.

http://www.nixeus.com/product/nixeus-vue-27d/

Unicous
2014-09-18, 15:56:57
Sie behaupten, sie hätten nur die Firmware verändert. Aber je nach Quelle konnte der auch nur statische oder dynamische Frameraten zwischen 40-60 fps darstellen.

So einfach ist es also nicht. Theoretisch bräuchten sie also einen Scaler der Adaptive Sync beherrscht. Ich hoffe mal, dass die Scaler-Hersteller da etwas aus der magischen Hinterhand gezaubert haben, denn sie forschen ja anscheinend überhaupt gar nicht daran:wink::wink: und wir vllt. noch einen Prototypen in der nächsten Zeit sehen. AMDs "Interessenvertreter":rolleyes: haben das ja schon unzählige Male versprochen.


Übrigens: Es scheint als hätten sie einen Großteil des Marktes (wenn nicht gar den gesamten Markt) abgedeckt.

Das sind Zahlen von 2010 bzw. 2009 zu Realteks Marktanteil:

LCD Monitor Scaler: Global market share of LCD Monitor
Scaler remained at 25% in 2Q09. Its major competitor, MStar
Semiconductor, held a 60% global market share
http://www.capital.com.tw/support/CFEContent/ContentAtt/%7BA26B17B2-4AD7-4B12-A269-3A1389C872BD%7D/2379%20TT_Realtek_BUY_Capital_20100203.pdf

MStar und Realtek hatten zu der Zeit einen globalen Marktanteil von 85%, zu Novatek finde ich nicht viel, aber sie werden sicherlich auch ihre paar Prozentpünktchen haben. Ist natürlich nicht schwierig eine Einigung zu erreichen, wenn der Markt anscheinend von nicht mal einer Handvoll von Herstellern beherrscht wird. ;)

memoal
2014-09-18, 17:25:06
Die Scaler werden doch jetzt entwicklet und produziert, bzw. nur noch produziert. Kommt eher drauf an wenn man überzeugt das auch zu verbauen und ob man als Monitorhersteller am Layout etwas ändern muss, dass kostet dann ja wieder.

Nixeus ist ganz o.k., aber nicht unbedingt sparsam und billig. AS könnte ja auch Strom sparen, ist jedenfalls im Mobilebereich so.

Unicous
2014-09-18, 17:35:17
Es geht auch darum, dass der Großteil des Scalermarktes das mitträgt (auch wenn es wie gesagt nur sehr wenige Hersteller zu sein scheinen). Wenn du drei Hersteller hast, die haben aber nur einen Marktanteil von 15% und deren Scaler werden auch nur in Billigkisten verbaut, hast du nichts gekonnt.

Wenn du aber MStar mit wahrscheinlich immer noch min. um 50% Marktanteil hast, ist das eine ganze andere Sache. Und dann noch Realtek mit wahrscheinlich immer noch einem Viertel des Marktes.

StefanV
2014-09-18, 21:43:29
Dieser Monitor scheinen sie auf jedenfall für ihre Vorführunge genommen zuhaben, wie weit sie da das Signalmainboard umbauen mussten kann man natürlich nicht sagen.
Aber dieser hat auch nur einen Displayanschluss sonst nix.

http://www.nixeus.com/product/nixeus-vue-27d/
Es gibt doch irgendwo in den Weiten des Webs die Aussage, dass sie das nicht mussten. Ein Firmware Flash vom Schirm würde genügen...

Aber hier sind wir wieder bei den Bildschirm Herstellern und derem Support...

Screemer
2014-09-18, 23:20:59
War das aber nicht nur für fixe frameraten zwischen 30 und 40 hz? Wirklich dynamisch hat man freesync ja noch nicht gesehen. Sollte aber mir den neuen scalern kein Problem mehr sein. Ich denke soagar das eine Firmware Anpassung bei alten scalern drin wäre, aber produktpflege ist da ja eher selten. Man will ja sein zeug an den Mann bringen. Die panels machen das nämlich zu nen guten teil schon mit. Mein Samsung qhd panel in meinem Koreaner kann ich zB auch mit 30hz fahren.

Unicous
2014-09-22, 00:08:45
:rolleyes:

http://www.sweclockers.com/nyhet/19346-nvidia-utlovar-stod-for-g-sync-konkurrenten-adaptive-sync

Googlish:

Nvidia promises support for G-Sync competitor Adaptive-Sync (https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F19346-nvidia-utlovar-stod-for-g-sync-konkurrenten-adaptive-sync&edit-text=)

Nvidia hat bei einer Pressekonferenz (zum GTX 980 Launch, vllt. beim Pressetag) Unterstützung für Adapative Sync zugesagt. Ich dachte es wäre nur eine Spec und G-Sync kann all das und noch viel besser.:P

Konami
2014-09-22, 01:52:36
:rolleyes:

http://www.sweclockers.com/nyhet/19346-nvidia-utlovar-stod-for-g-sync-konkurrenten-adaptive-sync

Googlish:

Nvidia promises support for G-Sync competitor Adaptive-Sync (https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F19346-nvidia-utlovar-stod-for-g-sync-konkurrenten-adaptive-sync&edit-text=)

Nvidia hat bei einer Pressekonferenz (zum GTX 980 Launch, vllt. beim Pressetag) Unterstützung für Adapative Sync zugesagt. Ich dachte es wäre nur eine Spec und G-Sync kann all das und noch viel besser.:P
Das ist ja hochinteressant, wenns stimmt. In diesem Q&A (http://youtu.be/Z_FzXxGVNi4?t=50m55s) hat Tom Petersen noch gesagt, sie hätten keine Pläne dazu.

Und Google Translate kommt immer noch nicht mit germanischer Grammatik zurecht: aus "Till skillnad från Nvidia vill AMD..." ("im Unterschied zu Nvidia will AMD...") wird "Unlike AMD, Nvidia wants to see an open solution" ;D

Unicous
2014-09-22, 02:22:55
Nagut, google übersetzt meines Erachtens stupide die Wörter (Von links nach rechts). Z.B. habe ich mich gewundert was rampjuset sein soll:biggrin:. Es ist ein Schreibfehler, das Wort heißt rampljuset (Rampenlicht) und heißt im Kontext wahrscheinlich die Schau stehlen.

Tom Peterson hat ja unzählige Male wiederholt, Adaptive Sync sei ja nur eine optionale Spec ohne Produkte und sie sehen keinen Grund es zu unterstützen weil sie ja schon G-Sync haben. Darüber hinaus stänkert er, dass Adaptive Sync so schnell keine verbindliche Spec sein wird, weil die Industrie sich dagegen auflehnen würde.

Ein paar Tage/Wochen später die Kehrtwende ist wieder ein typischer dick move und ich frage mich wie sie diese Scheinheiligkeit erklären wollen, falls es wirklich der Wahrheit entspricht.


Aber nichtsdestotrotz eine sehr gute Entwicklung. Da sweclockers einen ganz guten track record hat, gehe ich mal davon aus, dass es stimmt.

Diese Grabenkämpfe um grundlegende Features die der ganzen Gamer-Community zu Gute kommen müssen endlich mal zur Akte gelegt werden.

mironicus
2014-09-22, 12:35:10
Kleine Meldung dazu
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-verspricht-Support-von-AMD-Freesync-1136782/

N0Thing
2014-09-22, 13:15:07
Kleine Meldung dazu
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-verspricht-Support-von-AMD-Freesync-1136782/

Das ist doch nur die übersetzte und kommentierte Meldung von sweclockers. ;)

Unicous
2014-09-22, 15:39:36
Bald gibt es Adaptive Sync übers USB(Type-c)-Kabel.


:biggrin::biggrin::biggrin::biggrin::biggrin::biggrin:


DisplayPort Alternate Mode for USB Type-C Announced - Video, Power, & Data All Over Type-C (http://anandtech.com/show/8558/displayport-alternate-mode-for-usb-typec-announced)


Ich habs schon im Dockport Thread geschrieben: USB 3.1 beherrscht einen Alternate Mode über den man das Displayport Protokoll/Signal über die "USB"-Lanes realisieren kann. DP 1.3 ist schon on board.:D

http://images.anandtech.com/doci/8558/DisplayPortAltMode.jpg

USB Type-C zu DP geht auch.

http://images.anandtech.com/doci/8558/CtoDP.png

D.h. im Umkehrschluss auch, man kann über USB Adapative Sync realisieren und gleichzeitig ist auch sozusagen DockPort über USB realisiert.

http://images.anandtech.com/doci/8558/TypeCExamples.jpg




"One Port to rule them ALL"


:umassa::umassa::umassa::umassa::umassa:

fondness
2014-09-22, 15:42:22
Gibt es die Bilder auch mit "etwas" weniger Auflösung? :ugly:

Unicous
2014-09-22, 15:43:55
Nein, denn DP 1.3 unterstützt bereits 5K. Du kannst dich der Zukunft nicht verwehren.:freak: Ich habe sie von Anandtech geklaut.

FlashBFE
2014-09-22, 18:32:12
Gibt es die Bilder auch mit "etwas" weniger Auflösung? :ugly:
Das Blöde ist, dass die Forumsoftware die Bilder nicht automatisch auf die Fensterbreite herunterskaliert. Ansonsten Daumen hoch dafür, dass in Zukunft alles über Typ-C laufen könnte.

Gipsel
2014-09-22, 18:55:23
Das Blöde ist, dass die Forumsoftware die Bilder nicht automatisch auf die Fensterbreite herunterskaliert.Doch, tut sie, wenn Du es im Kontrollzentrum entsprechend einstellst (Du kannst da die Breite in Pixeln konfigurieren, hier im Abschnitt "Anzeige von Themen" die Option "Bilderbreite beschränken" (https://www.forum-3dcenter.org/vbulletin/profile.php?do=editoptions)).
[/OT]

Locuza
2014-09-23, 20:41:23
Whether the report on SweClockers.com is accurate remains unknown, although given that the Adaptive-Sync standard isn't expected to cost all that much, AMD might just have forced Nvidia's hand. When we reached out to Nvidia for a comment, the company flatly denied that the rumor is true and told us that "NVIDIA is solely focused on delivering the best gaming experience with G-SYNC—which is shipping and available today from leading monitor OEMs."

http://www.tomshardware.com/news/nvidia-amd-adaptive-sync-freesync,27736.html

Roaaahr....

Hoffentlich ist das nur eine dumme PR-Aussage und Nvidia supportet den optionalen Standard frühzeitig.

Unicous
2014-09-23, 20:56:00
Das ist erst einmal nur das offizielle PR Blabla von Nvidia.

"Wir liefern heute Monitore mit G-Sync aus und uns PR-Leute interessiert nicht, was morgen passiert".

Sweclockers behauptet, Nvidia hätte das hinter vorgehaltener Hand erzählt. Also ist es noch nicht spruchreif. Darüber hinaus behauptet Nvidia, ihre GPUs würden nur DP 1.2 unterstützen. Ob das auch der Wahrheit entspricht, wage ich zu bezweifeln. Und der DP 1.3 Support muss im nächsten, spätestens im übernächsten Jahr erfolgen, da kann man dann auch Adaptive Sync gleich mitnehmen. Ich sehe keine Chance für Nvidia sich gegen eine "G-Sync light":wink: Version zu verwehren und das wahre G-Sync weiter zu verkaufen, weil es ja eh viel, viel besser ist. Ob der Kunde es dann letztendlich frisst, ist natürlich eine andere Sache. Und ob es am Ende wirkliche Vorteile gibt, noch einmal eine ganz ganz ander.:tongue:

Locuza
2014-09-23, 21:06:59
Neben Nvidia würde mich auch Intel arg interessieren.
Hoffentlich bietet Intel da auch nicht erst nach Jahren Support für A-Sync, bezüglich dessen habe ich leider überhaupt nichts gehört.

StefanV
2014-09-23, 21:22:16
Es ist ein Standard, von daher würd ich davon ausgehen, dass das von Intel 'bei Gelegenheit' implementiert wird.

Unicous
2014-09-23, 21:26:19
@Locuza

Ich kann mir nicht vorstellen, dass sich Intel dagegen versperren wird. Sie sind fett bei USB-IF und in der VESA vertreten. Und haben vor Jahren Panel Self Refresh vorgestellt, auf dem ja u.a. Adaptive Sync zu basieren scheint.

Aaaber. Leider, leider ist Intel auch ein unendlich träger Verein. Hoffen wir mal dass sie mit Skylake nicht nur HDMI 2.0 unterstützen, sondern auch DP 1.3. Bis jetzt sieht es aber nicht sooo gut aus. Denn der neue TB-Controller soll nur DP 1.2 beherrschen.:frown:

AffenJack
2014-09-23, 21:38:02
DP1.3 bei Skylake kannst du denke ich vergessen. Dafür ist das einfach zu spät verabschiedet worden. Skylake wurde doch schon lauffähig gezeigt und da wird man nachträglich keine Veränderungen mehr vornehmen. AMD ist die einzige Hoffnung die ich habe DP1.3 überhaupt vor 2016 zu sehen.

Godmode
2014-09-23, 21:42:11
Ich finde das furchtbar schade das DP 1.3 so spät erscheint. Ein 4K Monitor mit 120Hz und F/G-Sync wäre meine nächste Anschaffung gewesen. 60Hz sind einfach ungut wenn man mal 120Hz gehabt hat. :/

aufkrawall
2014-09-23, 21:45:51
Ja, man kann damit keine Online-Shooter spielen und zwei Monitore empfinde ich als umständlich. Bleibt für die nächsten zwei Jahre wohl nur 1440p 144Hz...

mironicus
2014-09-23, 21:56:05
Man sollte einfach das nutzen, was es momentan gibt und sich daran erfreuen.

Unicous
2014-09-23, 21:59:04
DP1.3 bei Skylake kannst du denke ich vergessen. Dafür ist das einfach zu spät verabschiedet worden. Skylake wurde doch schon lauffähig gezeigt und da wird man nachträglich keine Veränderungen mehr vornehmen. AMD ist die einzige Hoffnung die ich habe DP1.3 überhaupt vor 2016 zu sehen.

Es ist ja nicht so, als wäre Intel nicht im Board of Directors der VESA. Die grundsätzlichen Rahmenvorstellungen der 1.3 Spec wurden ja nicht erst am 15. September gesteckt. Und Nvidia kann die HDMI 2.0 Spec auch schon implementieren, obwohl die Spec gerade mal ein Jahr alt ist.:wink:

Skylake wird DP 1.3 höchstwahrscheinlich nicht unterstützen, klar. Aber dennoch ist Intel nicht sehr flink wenn es um die Implementierung von Specs geht, die sie selbst mitentwickelt haben (USB 3.0:rolleyes:).

Thomas Gräf
2014-09-24, 00:25:24
Ja, man kann damit keine Online-Shooter spielen und zwei Monitore empfinde ich als umständlich. Bleibt für die nächsten zwei Jahre wohl nur 1440p 144Hz...

Ohoh der Wink mit der Zaunlatte?...Asus Swift ROG und Konsorten für ca. 800euro???
Tja manchmal leben Totgesagte länger und scheinen auf ach so nette Industriestandards nicht viel zu geben.
Stellt sich nur eine Frage, noch vermutlich ein Jahr mit 60HZ und 40ms, oder den Gamechanger jetzt.
nV bietet aktuell einen sexy Chip und G-Sync, beides lockt mit SLI Tauglichkeit, DSR paart sich lückenlos dazu.
Das wird einige Zokker in den nächsten Wochen beschäftigen...

Unicous
2014-09-24, 00:38:32
Aber nur Zocker die min. 750-800 Euro locker haben ( GTX 970 + günstigster G-Sync Monitor von AOC).


Übrigens bei dem AOC kostet das Pendant ohne G-Sync mit ungefähr gleicher Ausstattung/Display um die 200-230 Euro weniger. Finde ich persönlich nicht so cool.

Da warte ich lieber, was 2015 so Schönes bringt.:wink:

Kartenlehrling
2014-09-25, 19:11:09
http://www.pcper.com/reviews/Displays/Acer-XB280HK-28-4K-G-Sync-Monitor-Review
Acer XB280HK 28-in 4K G-Sync Monitor Review

Thomas Gräf
2014-09-25, 19:39:24
Nja schickes Teil. Wer jetzt 4k fürs Gaming haben möchte kriegt wohl in 2014 nichts besseres.
Ich trau mich aber noch nicht ran an den 4k Braten, wie wird bei 4k und 60Hz die BU ausfallen?
Bestimmt nicht besser als jetzt...

PS. Achso mal sehen wann DSR unter SLI geht ;) falls das gar nicht mehr funzen sollte werden 4k Monitore mit G-Sync sicher ihre Kunden finden.

Mandalore
2014-09-26, 17:31:59
4K will man echt nicht nur zum Spielen. Es ist einfach wie mit den High-End Smartphones und MacBookProRetina. Durch die hohe Pixelanzahl kriegt man einfach ein knackscharfes Bild, ohne Pixel zu sehen, und das ist einfach Traumhaft. Für mich und bestimmt auch für viele andere, ist das einfach 100x 144Hz, G-Sync, ULMB usw. vorzuziehen. 4K ist wirklich was echt Besonderes, von dem man sich selber überzeugen muss. Denn ohne sich selber davon zu überzeugen wird man immer diese Meinung vertreten wie "Ach 144Hz sind wichtiger...4K ist nichts Besonderes, da ist OLED viel besser(kriegt man oft zu hören:freak:;D)" und sowas:D

memoal
2014-09-26, 18:19:30
min. 750-800 Euro
Das ist schon harter Tobak, aber bestimmt Enthusiast, man könnte ja auch eine ab der 650ti wählen. Blöd nur den Monitor gibt es erstmal nicht billiger und bei der Auflösung macht so eine "kleine" GPU sicher keinen Sinn.

Bin gespannt wie es Freesync angeht. Dürfte aber erstmal auch nicht viel Preiswerter sein, wenn man die Leistung der 970/980 will. AMD kann ihre Karten nicht immer verschenken. Wenn HBM und so dabei sind, verständlich.

Acer XB280HK 28-in 4K G-Sync Monitor
Hab irgendwo gelesen der offizielle Launch ist in den Oktober verschoben worden. Der lag irgendwann mal um 500-600 Euro?

4K macht auch so Sinn und die Preise sind schon in kaufbare Regionen gefallen (450-600 Euro), vor Monaten sah das noch anders aus.

fondness
2014-09-26, 20:21:23
Ja, man kann damit keine Online-Shooter spielen und zwei Monitore empfinde ich als umständlich. Bleibt für die nächsten zwei Jahre wohl nur 1440p 144Hz...

Oder eben zwei DP 1.2 Ports/Kabel.

Konami
2014-10-02, 14:38:01
Ganz interessant: Linus(TechTips) hat den Acer XB280HK "blind", also ohne FPS-Zähler getestet, während er die Grafikeinstellungen für flüssiges Gameplay getweakt hat. Am Ende hat sich herausgestellt, dass min-FPS von >40 ausreichend waren, um ein 60-fps-artiges Spielgefühl zu liefern.

http://youtu.be/gAfrQ6UAEmU?t=5m38s

Thomas Gräf
2014-10-03, 20:19:19
Schau an die ersten Listungen vom Acer sind 200euro unter dem Asus Swift ROG.

http://geizhals.de/acer-predator-xb280hkbprz-um-pb0ee-005-a1120202.html

...also 4k+G-Sync sind ab Start billiger als 144Hz+G-Sync in 1440p. Ok der Asus hat noch ULMB
eingebaut. Aber schon erstaunlich wie das 120/144Hz Feature die Hersteller zum User melken verleitet...und das ist hier alles noch TN Panel.

Unicous
2014-10-06, 10:48:18
Lol.

BenQ bekommt seinen G-Sync Monitor nicht vor die Tür, aber hat dafür was ganz Tolles entwickelt:


Its selling point is a feature-called GROM (gaming refresh-rate optimization management), which adjusts refresh-rates between steps of 75 Hz, 100 Hz, 120 Hz, and 144 Hz, depending on the content's frame-rate, to minimize stuttering or page-tearing.
http://www.techpowerup.com/206006/benq-outs-the-xl2430t-gaming-pc-monitor.html

Das hört sich nach Frankensteins Monster an, oder besser nach dem Versuch beim G-Sync/Adaptive Sync Hype etwas Kohle zu verdienen. Ich mag BenQ, hab ja selber einen (und würde mir auch einen mit Adapative Sync zulegen) aber das ist wirklich nur :rolleyes::rolleyes::rolleyes: wert.

robbitop
2014-10-06, 10:52:06
Also ich will nie wieder zu 60 Hz (auch bei G-Sync) zurück. Schon in Windows (mein ROG Swift steht direkt neben einem 60 Hz FullHD VA Panel) wirkt der 60 Hz Monitor neben 144 Hz einfach weniger flüssig und weniger scharf in Bewegung.


Ich hätte es nie gedacht, wie viel das doch ausmachen könnte. G-Sync / A-Sync sind wichtig und gut. Aber eine hohe Abtastrate sollte es zusätzlich auch sein.

Also warten auf 4K + DP1.3 (und damit dann 120/144 Hz).

differenzdiskriminator
2014-10-06, 10:54:28
Jupp, das sind auch meine Wünsche. 144 Hz und G-Sync, vllt sogar 4K.

Wobei sich die Frage stellt, ob die Qualität mit FullHD und mehr Details nicht besser ist als nativ 4K.

dargo
2014-10-11, 15:59:39
Unterstützt GM204 überhaupt Freesync? Ich meine da war doch was mit DP1.2a? :uponder: Afaik gibts beim GM204 nur DP1.2.

Unicous
2014-10-11, 16:08:31
Ist das ernst gemeint?

Nvidia unterstützt nur DP 1.2 und selbst wenn sie "a" unterstützen würden hieße das nicht, dass sie auch Adaptive Sync unterstützen, denn es ist nur ein optionales Feature. Und sie haben keine Intention es zu unterstützen.

Aber, ich glaube Grafikkartenseitig wäre es eher ein Software-, als ein Hardware-Problem. Ich glaube Unterstützung für DP 1.2a und 1.3 ließe sich per Treiber herstellen. Auf Monitor-Seite muss es eben der Scaler können.
Und Nvidia hat sicherlich Maxwell auch schon mit DP 1.3 im Hinterkopf entwickelt, schon alleine weil sie auch schon HDMI 2.0 unterstützen, obwohl es glaube ich noch sehr wenige lieferbare Fernseher gibt, der es beherrschen.

Kartenlehrling
2014-10-11, 16:20:58
So ganz kann es ja nicht stimmten sonst würden auch HD7970 vollen gaming freesync unterstützten.

Soo sieht es nur aus das der Monitor erkennt das ein Film mit 24p läuft und der Monitor sich automatisch darauf einstellt.
Aber variable Gaming-FPS wird die HD7970 wohl nie können, mir würde aber schon reichen wenn man die Hz stufenlos "fest" einstellen kann im Spiel/Treiber zwischen 30 -120hz.

Das würde schon viel ausmachen.

Unicous
2014-10-11, 16:30:03
Ich habe mich etwas missverständlich ausgedrückt. Ich meinte primär die DP Spec Unterstützung.

Nvidia behauptet ja nur DP 1.2 zu unterstützen, aber ich denke, dass auch DP 1.2a (ohne AS) bzw. 1.3 (ohne AS) könnte man (treiberseitig) unterstützen, zumal HDMI 2.0 ja afaik von den Specs DP 1.2a sehr ähnlich ist.

Und wie ich schon öfter gesagt habe, unterstützt Nvidia eher unfreiwillig DP bzw. wenn es ihnen explizit nutzt (G-Sync).

aufkrawall
2014-10-11, 16:33:14
Deshalb setzen sie jetzt auch auf 3x DP Ausgänge?

Kartenlehrling
2014-10-11, 16:45:01
Und wie ich schon öfter gesagt habe, unterstützt Nvidia eher unfreiwillig DP bzw. wenn es ihnen explizit nutzt (G-Sync).

Das AMD seit 5 Jahre Displayport verbauen und unterstützen hat ihn aber auch nichts gebracht, selbst jetzt noch gibt es problem wenn der Hauptmonitor am DP ist und ein zweiter am DVI.

Wir sind jetzt erst (2015) an der Stufe angelangt das kein Analoger VGA mehr verbaut wird.

Unicous
2014-10-11, 16:49:01
@aufkrawall

Betonung auf "Jetzt".

Und warum? Weil es wohl zukünftig möglich sein könnte G-Sync von einer Karte auf drei Monitoren einsetzen zu können.

SKUs auf AMD-Basis bieten seit zig Jahren mehr als einen DP-Anschluss und "jetzt" ist es eine Offenbahrung, dass Nvidia drei Ports anbietet die eine Spec unterstützt die es seit 6 Jahren gibt, aber sich einen Dreck um eine Spec kümmert die es seit (edit: ) fast 3 Jahren gibt.

WOOOOOW. Was für ein Fortschritt und wie schnell das ging.


@Kartenlehrling, was an dem Unwillen der Industrie scheitert. AMD und Intel wollten schon 2010 den Support für Analoge Display Interfaces einstellen bzw. auslaufen lassen und LVDS begraben.

http://newsroom.intel.com/community/intel_newsroom/blog/2010/12/08/leading-pc-companies-move-to-all-digital-display-technology-phasing-out-analog

Du siehst ja was 5 Jahre später geschehen ist. Und du siehst auch welcher Name in der PM fehlt. ;)

fondness
2014-10-16, 12:45:18
FreeSync monitors to show up in November
http://www.fudzilla.com/home/item/36048-freesync-monitors-to-show-up-in-november

Unicous
2014-10-16, 13:01:19
Hört sich nach FU(a)D an, aber wäre natürlich toll wenn es der Wahrheit entspräche.

Da AMD aber auch ihre komische Press Review im Q1 machen wollte (also ich schätze mal Retail-Monitore zum Test an Redaktionen verschicken und PR-Arbeit etc. pp.) und u.a. Ryan Shrout da etwas geknickt war, als er das mitbekommen hat (ihm wurde ja für September ein Test-Exemplar von Huddy versprochen :wink:) würde ich die Geschichte doch gerne mit einem Salzsee im Tee genießen.

Wenn ein Hersteller das so schnell hinbekommen hat (Nixeus?) dann Chapeau...ich habe aber da dumme Gefühl, dass die Trantüten bei AMD den Treiber noch nicht fertig haben bis dahin.:rolleyes:



Jedenfalls wäre das Tempo der Implementierung geradezu rasant, wenn man der offiziellen Narrative glaubt. G-Sync vorgestellt mit Prototypen im Herbst/Winter 2013, erste wirklich verfügbare Produkte ca. 3 Quartale später. Freesync Konzept Vorstellung Anfang des Jahres, 5 Monate später die Spec, 6 Monate später (laut FUaD) erste Monitore. Für mich verdichtet sich immer mehr, dass Adaptive Sync schon deutlich länger auf dem Konzeptionstisch lag.

Unicous
2014-10-16, 20:33:29
Apple hat bei ihrem neuen iMac 5K Display einen (neuen) "timing controller" verbaut. Könnte der unter Umständen Adaptive Sync unterstützen und wäre damit ein Freesync-Monitor.;D

Unterstützt der Monitor vllt. (theoretisch) sogar schon DP 1.3?

Mancko
2014-10-16, 20:42:13
@aufkrawall

@Kartenlehrling, was an dem Unwillen der Industrie scheitert. AMD und Intel wollten schon 2010 den Support für Analoge Display Interfaces einstellen bzw. auslaufen lassen und LVDS begraben.

http://newsroom.intel.com/community/intel_newsroom/blog/2010/12/08/leading-pc-companies-move-to-all-digital-display-technology-phasing-out-analog

Du siehst ja was 5 Jahre später geschehen ist. Und du siehst auch welcher Name in der PM fehlt. ;)

Dann hat er doch Recht wenn er sagt, dass es AMD bisher nichts genutzt hat. Unwillen der Industrie hin oder her. Man kann es auch anders formulieren. Nvidia hat das Thema erfolgreich ausgesessen

Unicous
2014-10-16, 20:52:20
Ich warte noch auf die Pointe.

M4xw0lf
2014-10-16, 21:40:02
Apple hat bei ihrem neuen iMac 5K Display einen (neuen) "timing controller" verbaut. Könnte der unter Umständen Adaptive Sync unterstützen und wäre damit ein Freesync-Monitor.;D
Die Idee hatte ich auch grad... mal die Lauscher offen halten.

Kartenlehrling
2014-10-16, 21:54:33
hauptsache die sachen stehen bald im laden, ich will schon seit 1/2 Jahr einen neuen Monitor haben, meine schmerzgrenze ist 1000€, go go GO.

eDP hat ja leider nur in wenigen Laptops einzug gehalten, massentauglich ist es immer noch nicht.

https://www.youtube.com/watch?v=TLMb4VtCzaw#t=26
IDT's Power Saving Panel Self-Refresh Technology at IDF 2011

Unicous
2014-10-16, 21:58:19
@M4xw0lf

Andererseits ist Apple nicht gerade dafür bekannt solche Sachen zu unterstützen und es könnte im Endeffekt doch nur dafür sein, die interne Kommunikation zu verbessern (bzw. eben schnöde die Bandbreite zu erhöhen) um das 5K Display "versorgen" zu können.

Ich frage mich welches Protokoll Apple nutzt. Bei iPad ist es glaube ich eDP (jedenfalls gibt es iPad Displays mit edP Schnittstelle) und es wird ja gemunkelt, dass es auf diesem "Dell" Display basiert (aus Mangel an Alternativen:wink:):

http://www.anandtech.com/show/8496/dell-previews-27inch-5k-ultrasharp-monitor-5120x2880

Jedenfalls lustig, dass das Ding $2499 kostet...genau wie der iMac.:freak:


edit:


Huh.

Much more interesting is how Apple is driving it. Since no one has a 5K timing controller (TCON) yet, Apple went and built their own. This is the first time we’re aware of Apple doing such a thing for a Mac, but it’s likely they just haven’t talked about it before. In any case, Apple was kind enough to confirm that they are driving the new iMac’s display with a single TCON. This is not a multi-tile display, but instead is a single 5120x2880 mode.

This also means that since it isn’t multi-tile, Apple would need to drive it over a single DisplayPort connection, which is actually impossible with conventional DisplayPort HBR2. We’re still getting to the bottom of how Apple is doing this (and hence the sneaky nature of the iMac), but currently our best theory is that Apple is running an overclocked DisplayPort/eDP interface along with some very low overhead timings to get just enough bandwidth for the job. Since the iMac is an all-in-one device, Apple is more or less free to violate specifications and do what they want so long as it isn’t advertised as DisplayPort and doesn’t interact with 3rd party devices.


Meanwhile driving the new display are AMD’s Radeon R9 M290X and R9 M295X, which replace the former NVIDIA GTX 700M parts. We don’t have any performance data on the M295X, though our best guess is to expect R9 285-like performance (with a large over/under). If Apple is fudging the DisplayPort specification to get a single DisplayPort stream, then no doubt AMD has been helping on this matter as one of the most prominent DisplayPort supporters.

http://www.anandtech.com/show/8623/hands-on-apples-imac-with-retina-display

dargo
2014-10-17, 11:28:35
Ist das ernst gemeint?

Natürlich ist das ernst gemeint.

Ich habe mittlerweile festgestellt, dass ich unbedingt einen G-Sync/Freesync Bildschirm brauche. Nichts ist geiler als absolut gesyncte Bildausgabe. Stelle es immer wieder hier fest mit zb. GRID 2 oder Assetto Corsa. Das sieht einfach sowas von geil aus mit 60fps @60Hz und/oder 72fps @72Hz auf meinem Bildschirm mit Vsync. Dieses blöde Vsync geht mir nur auf die Nerven. GRID 2 und Assetto Corsa gehen ja noch einigermaßen da ich das entweder mit Tastatur oder bei AC Lenkrad spiele. Aber einen Shooter kannst du mit Vsync On knicken, Maussteuerung ist viel zu schwammig. Zudem bist du im MP nur Kanonnenfutter. Und ohne Vsync mit limitierten 60fps @60Hz oder 72fps @72Hz kann mans eigentlich auch knicken (zu stark auffallendes Tearing). Dafür halt kein spürbarer Input-Lag.

Da ich mich mit der Technik noch nicht so ausgiebig beschäftigt habe... liege ich richtig mit der Annahme, dass ich mit G-Sync/Freesync immer (oder sagen wir mal bis 40fps runter) keinen Input-Lag spüren werde und gleichzeitig die Bildausgabe flüssig (keine Ruckler) ist?

Wie ist das dann eigentlich mit der Technik bei einem 60Hz Bildschirm oberhalb von 60fps?

THEaaron
2014-10-17, 11:57:25
Da ich mich mit der Technik noch nicht so ausgiebig beschäftigt habe... liege ich richtig mit der Annahme, dass ich mit G-Sync/Freesync immer (oder sagen wir mal bis 40fps runter) keinen Input-Lag spüren werde und gleichzeitig die Bildausgabe flüssig (keine Ruckler) ist?


Zumindest zum Input-Lag gibt es ein paar Werte von Blurbusters:

http://www.blurbusters.com/wp-content/uploads/2014/01/lag-bf4.png

http://www.blurbusters.com/wp-content/uploads/2014/01/lag-csgo.png

http://www.blurbusters.com/gsync/preview2/

dargo
2014-10-17, 12:05:02
Da komme ich nicht mit. :freak:

Warum ist der Input-Lag bei CS: GO mit 300fps fast doppelt so hoch als mit 120fps @G-Sync? Zudem fehlt mir da so ein wenig der Vergleich mit Vsync On. Mich würde es brennend interessieren wie hoch der Input-Lag mit Vsync On tatsächlich ist, so schwammig wie sich das hier anfühlt, trotz prerender Limit 1.

PS: oder arbeitet G-Sync nur bis 120fps einwandfrei?

Kartenlehrling
2014-10-17, 12:42:19
Da der Test ( vor 8! Monaten) mit Mausklick ausgewerte wurde spiel da wohl noch das Mausproblem mit rein, CSgo gehört zu den Spielen die problem machten.
(http://support.microsoft.com/kb/2908279/de)Ich würde aber auch mal testen ob es unterschiede gibt ob man bei den Benchmarks im <60fps bereich teste oder ob man >150fps hat,
aber das was ich nun bei den ganzen Test gesehen hab arbeite g-sync am besten zwischen 45-120fps und
für Spiele mit >150fps würde ich ULMB wohl auswählen schliesslich hat es ja auch seine Daseinsberechigung nur die 144hz finde ich im Moment ein Rattenfänger.

Du bist ja auch Lernresistent Dargo, jedenfallst hab ich das in deinen gefühlten 1000x g-sync SLI gtx970 und GmbH & Co. KG Forumbeiträge festgestellt.

dargo
2014-10-17, 12:59:29
Ich würde aber auch mal testen ob es unterschiede gibt ob man bei den Benchmarks im <60fps bereich teste oder ob man >150fps hat,
aber das was ich nun bei den ganzen Test gesehen hab arbeite g-sync am besten zwischen 45-120fps und
für Spiele mit >150fps würde ich ULMB wohl auswählen schliesslich hat es ja auch seine Daseinsberechigung nur die 144hz finde ich im Moment ein Rattenfänger.

45fps hört sich schon mal gut an. Tiefer liege ich eigentlich nie. Kann man schon diesbezüglich irgendeine Aussage zu Freesync treffen? Ich habe immer noch so mein Problem bei einem Bildschirm sich auf einen IHV (in dem Fall Nvidia mit G-Sync) zu binden. Vorallem wo es dann womöglich um ein Gerät für 1.000€ geht. Momentan ist die Lage noch recht entspannt da es eh nur TN-Schrott mit G-Sync gibt. Wenn aber die ersten 120Hz IPS eintrudeln wirds schwieriger. Am liebsten hätte ich natürlich einen VA mit Freesync. Aber das wird wohl nur mit 60Hz drin sein.

Edit:
Gibt es eigentlich einen besonderen Grund warum sich die Hersteller so bei 60/120/144Hz festgefahren haben? Ich fände zb. 85 und 100Hz Bildschirme mit Freesync auch sehr interessant. Muss ja nicht gleich 120+Hz sein.

PHuV
2014-10-17, 13:31:06
Edit:
Gibt es eigentlich einen besonderen Grund warum sich die Hersteller so bei 60/120/144Hz festgefahren haben? Ich fände zb. 85 und 100Hz Bildschirme mit Freesync auch sehr interessant. Muss ja nicht gleich 120+Hz sein.
Im Rahmen der Globalisierung werden heute möglichst standardisierte Bauteile verwendet, genau wie in der Automobilindustrie auch. Billige Massenfertigung und -verfügbarkeit contra teuren Custom-Designs.

robbitop
2014-10-17, 14:13:29
Ist ein Bug. Aber immernoch ein sehr geringer Inputlag. Und wohl auch nur bei CS:GO (noch ist nicht klar ob es auf die hohe fps Rate zurückzuführen ist oder CS:GO spezifisch ist).

144 Hz führt übrigens zu einem sehr ähnlichen Ergebnis wie G/A-Sync. Durch die hohe Abtastrate juddert auch ohne G-Sync nichts. Auch ist das Tearing fast nie sichtbar. Außerdem sieht alles deutlich smoother aus. Und die persistance ist halt geringer. Also bessere Bewegungsschärfe.

Am besten ist natürlich G-Sync + 144Hz. Aber 144 Hz ohne G-Sync sind immernoch ziemlich gut. 60 Hz + G-Sync wären auch OK. Aber IMO deutlich schlechter als 144 Hz.

dargo
2014-10-17, 14:19:13
144 Hz führt übrigens zu einem sehr ähnlichen Ergebnis wie G/A-Sync. Durch die hohe Abtastrate juddert auch ohne G-Sync nichts. Auch ist das Tearing fast nie sichtbar.
Das hört sich interessant an. Du meinst das Auge kriegt Tearing bei der hohen Frequenz kaum noch mit? Wäre dann natürlich mit Vsync Off ein riesen Vorteil. Der einzige Nachteil ist dann halt wenn man die 144fps nicht halten kann, was bei so einer hohen Framerate recht oft vorkommt. Also ist wieder G-Sync/Freesync Pflicht. Zudem, die Sache mit den 144Hz beschränkt sich schon wieder nur auf TN. Man... immer diese Kack Kompromisse. :mad:

Edit:
Apropo G-Sync @60Hz Bildschirm. Funktioniert G-Sync auch noch einwandfrei wenn man den Bildschirm mit 72Hz "überfährt"?

robbitop
2014-10-17, 14:33:46
Es teart weniger, weil der Framebuffer öfter abgetastet wird. Unabhängig von den FPS. Im Prinzip macht G-Sync ja nur, dass das fertige Bild sofort zum Monitor abgeschickt wird. Durch eine sehr hohe Abtastrate hat man einen ähnlichen Effekt. Diese Beobachtung kann man in soziemlich allen Tests von 144 Hz G-Sync Geräten lesen. Ich kann es bestätigen.

Warum soll man btw ein G-Sync Display nicht mit der Abtastrate "überfahren" können? Wüßte zumindest nicht warum.

aufkrawall
2014-10-17, 14:36:02
Trotzdem gibt es mit 144Hz bei niedrigen fps mehr Tearing als bei hohen.

THEaaron
2014-10-17, 14:38:21
Das hört sich interessant an. Du meinst das Auge kriegt Tearing bei der hohen Frequenz kaum noch mit? Wäre dann natürlich mit Vsync Off ein riesen Vorteil. Der einzige Nachteil ist dann halt wenn man die 144fps nicht halten kann, was bei so einer hohen Framerate recht oft vorkommt. Also ist wieder G-Sync/Freesync Pflicht. Zudem, die Sache mit den 144Hz beschränkt sich schon wieder nur auf TN. Man... immer diese Kack Kompromisse. :mad:


Fluktuationen im Bereich 100-144FPS empfinde ich z.B. in BF4 als unkritisch, erst unter 80FPS bemerkt man wieder unsaubere Bildabläufe. Tearing ist bei der Bildwiederholrate nur ganz oben/unten im Bild zu sehen und tritt natürlich nur für 2.33~ms(?) auf, was dann quasi unsichtbar ist.

robbitop
2014-10-17, 14:38:58
Trotzdem gibt es mit 144Hz bei niedrigen fps mehr Tearing als bei hohen.

Ja das stimmt. Aber man braucht keine >100 fps. FPS, die man sowieso als flüssig empfindet (>45..50 fps) sind aber relativ tearingfrei.
3x FPS sind IMO fast irrelevant, da zu zähflüssig.

aufkrawall
2014-10-17, 14:56:01
Eine deutlich Verbesserung wär für mich kein Ersatz für variablen Blank.
Eigentlich sollte es gar keinen eingeschränkten Refreshratenbereich dafür geben, einige SP-Spiele sind selbst mit Drops auf 15fps noch spielbar.
Kritisch sind so Dinge wie flackernde Lichtquellen, da fällt ohne Sync eigentlich immer Tearing auf.

dargo
2014-10-17, 14:58:55
Warum soll man btw ein G-Sync Display nicht mit der Abtastrate "überfahren" können? Wüßte zumindest nicht warum.
Ich hätte jetzt gedacht bei den 60Hz Bildschirmen wären andere G-Sync Module verbaut als bei den 120/144Hz Bildschirmen. Aber wahrscheinlich verbaut man in allen Bildschirmen das gleiche Modul aus Kostengründen oder?

Kartenlehrling
2014-10-17, 14:59:28
Ist ein Bug. Aber immernoch ein sehr geringer Inputlag. Und wohl auch nur bei CS:GO (noch ist nicht klar ob es auf die hohe fps Rate zurückzuführen ist oder CS:GO spezifisch ist).


Woher weiss du das?
blurbusters.com haben es glaub ich nur bei 3 Spielen geteste, um sowas sagen zu können musste man wirklich ein grossen Querschnitt durch alle Game-engines nehmen.
Vorallem gibt es immer weniger Spiele die einen FPS-Wert jenseits der 150fps erreichen, vorallem auf einem 1440p Monitor.

Die meisten Reviews über den Asus-ROG waren mir zu oberflächlich, die Forum Einträge bestätigen es.

aufkrawall
2014-10-17, 15:01:11
Vor allen Dingen muss man mal wieder mit neusten Treibern testen.

Kartenlehrling
2014-10-17, 15:12:09
Hast du dir angesehen was das für ein aufwand ist mit dem Mausklick auswerten?
Viele machen es ja mit dem Uhrenvergleich gegenüber einen Röhren-Monitor.

Gipsel
2014-10-17, 15:15:42
Trotzdem gibt es mit 144Hz bei niedrigen fps mehr Tearing als bei hohen.Jein. Nicht wirklich mehr Tearing, da die Zeit, in der Tearing auf dem Screen zu sehen ist, bei niedrigen fps sogar kürzer wird. Allerdings wird bei niedrigen fps ist der Unterschied zwischen den aufeinenaderfolgenden Frames im Schnitt größer. Läuft das Game z.B. bei 43fps (und wird beim ersten Frame genau zum Display-Refresh fertig), sieht es mit 144Hz vs 60Hz Monitor z.B. so aus:

Zeit [ms]|Frame|144 Hz|60 Hz
0|1|Beginn Refresh mit Frame 1|Beginn Refresh mit Frame 1
6,94|1|Frame 1 Wiederholung #1| -
13,89|1|Frame 1 Wiederholung #2| -
16,67|1| - |Frame 1 Wiederholung
20,83|1|Frame 1 Wiederholung #3| -
23,26|2|Tearing bei ~35% von oben|Tearing bei ~40% von oben
27,78|2|Beginn mit Frame 2|-
33,33|2|-|Beginn mit Frame 2
34,72|2|Frame 2 Wiederholung #2|-
41,67|2|Frame 2 Wiederholung #3|-
46,51|3|Tearing bei ~70% von oben|Tearing bei ~79% von oben
48,61|3|Beginn mit Frame 3|-
50,00|3|-|Beginn mit Frame 3
55,56|3|Frame 3 Wiederholung #1|-
62,50|3|Frame 3 Wiederholung #2|-
66,67|3|-|Wiederholung Frame 3
69,44|3|Frame 3 Wiederholung #3|-
69,77|4|Tearing bei 5% von oben|Tearing bei 19% von oben
...

Das Tearing ist also bei immer nur kurz auf dem Screen zu sehen, da es schnell durch das vollständige Frame ersetzt wird (statt durch ein wiederum unvollständiges bei hohen fps). Tearing bei 144Hz und niedrigen fps dürfte etwas weniger Auffallen als bei 60Hz. Aber der Persistence-Vorteil von 144 Hz ist weg, weil mehrfach das gleiche Frame dargestellt wird.

aufkrawall
2014-10-17, 15:18:37
Ich weiß, das hattest du schonmal erklärt. In der subjektiven Wahrnehmung würde ich es trotzdem "weniger" nennen.

Gipsel
2014-10-17, 15:33:46
Ich weiß, das hattest du schonmal erklärt. In der subjektiven Wahrnehmung würde ich es trotzdem "weniger" nennen.War oben ein wenig verwirrend formuliert, ist jetzt glaube ich verständlicher. Und wie Du sagst, die Wahrnehmung ist subjektiv. Aber 144 Hz sind schon so hoch, daß bei zufällig verteilten Tearlines das tatsächlich für die allermeisten weniger auffallen sollte. Blöd sieht es nur aus (d.h. das Tearing wird stärker auffällig) wenn die Framerate irgendeinem kleinzahligen Bruch mit der Refreshrate bildet (oder nah dran ist), da dann die Tearlines immer an den gleichen Positionen auftauchen (bzw. langsam über das Bild wandern). Aber das Problem kannst Du ohne Synchronisation des Display-Refreshes (G-/A-Sync) nicht umgehen.
Und sogar extrem hohe fps (sehr viel höher als Refresh) ergeben dann zwar kein deutlich sichtbares Tearing mehr, aber können im Prinzip lustige Artefakte ergeben, z.B. eine Art Rolling Shutter-Effekt (http://de.wikipedia.org/wiki/Rolling-Shutter-Effekt). Aber das ist für normale Sachen eher wenig relevant.

dargo
2014-10-17, 16:10:04
Da es noch mindestens bis 2015 mit den interessanten Bildschirmen dauern wird... wie kann ich den Inputlag bei 60 bzw. 72 gesyncten Frames reduzieren? Gibts da noch irgendwelche Tricks außer Prerenderlimit 1 die ich nicht kenne? Oder ist man hier echt so aufgeschmissen? ;(

aufkrawall
2014-10-17, 16:28:01
Du kannst adaptives Vsync nutzen, das erzeugt etwas weniger Input Lag.
Dürfte für etwas wie Grid 2 reichen, für MP-Shooter taugt das aber auch nicht (außer vielleicht im speziellen AFR-Modus, aber AFR kann man knicken, wie du ja weißt).
Es kann allerdings bei einigen Spielen schlechtere Frametimes als normales Vsync erzeugen, eventuell wurd das aber mittlerweile auch vollständig gefixt. Bevor du ein neues Fass aufmachst.. ;)

Ja, Gaming ist ohne variablen Vblank und Frametimes ala guter API wie Mantle nicht perfekt, 1-2 Jahre müssen wir noch warten.
Aber dann rechne ich mit nem dicken Boost fürs PC-Gaming: Variabler Vblank, DX12/OGL Next und OLED/VR.

dargo
2014-10-17, 16:37:54
Stimmt, adaptiv Vsync völlig vergessen. :freak: Das muss ich mal mit 72Hz testen. :)

Es kann allerdings bei einigen Spielen schlechtere Frametimes als normales Vsync erzeugen, eventuell wurd das aber mittlerweile auch vollständig gefixt. Bevor du ein neues Fass aufmachst..
:tongue:

Ich muss da drüben noch einiges klarstellen diesbezüglich. Ich weiß auch nicht warum mich das vorher nicht so stark gestört hatte und jetzt plötzlich doch. :freak:

PS: weißt du eigentlich warum ich bei meinem Bildschirm auf 72Hz begrenzt bin? Laut Hersteller gehen 50-76Hz. Ich vermute, dass mich hier die 165Mhz bei DVI limitieren. Wie kann ich das umgehen um die 76Hz zu erreichen? Nur mit DP? Hab dummerweise kein DP-Kabel da um das zu testen.

PHuV
2014-10-17, 16:43:46
Nehmen wir mal an, wir hätten ein G-Sync 4k-Monitor wie den angekündigten Acer. Wie teste ich den am besten mit G-Sync und so? :confused:

aufkrawall
2014-10-17, 16:51:28
PS: weißt du eigentlich warum ich bei meinem Bildschirm auf 72Hz begrenzt bin? Laut Hersteller gehen 50-76Hz. Ich vermute, dass mich hier die 165Mhz bei DVI limitieren. Wie kann ich das umgehen um die 76Hz zu erreichen? Nur mit DP? Hab dummerweise kein DP-Kabel da um das zu testen.
Würde dir dringend ein DP-Kabel empfehlen, beim Nachfolger deines Monitors konnte ich auch nur darüber 75Hz erreichen.

@PHuV: Einfach jedes Spiel mit fps zwischen 30-60 testen, das nicht zum Mikroruckeln neigt?

PHuV
2014-10-17, 16:54:52
Kann ich dann in der Grafikkarte wie einer GTX 980 G-Sync als Vergleich an und ausstellen?

aufkrawall
2014-10-17, 16:56:20
Würde mich wundern, wenn das nicht so wäre. Spätestens am Monitor sollte man es ausstellen können. Jemand mit G-Sync Monitor dürfte es genauer erklären können.

dargo
2014-10-17, 17:14:28
Würde dir dringend ein DP-Kabel empfehlen, beim Nachfolger deines Monitors konnte ich auch nur darüber 75Hz erreichen.

Hast du da konkrete Empfehlung? Würde sowas reichen?
http://www.amazon.de/Sentivus-DisplayPort-Verbindungskabel-Stecker-auf/dp/B00MAFSJL0/ref=sr_1_3?ie=UTF8&qid=1413558260&sr=8-3&keywords=displayport+kabel

aufkrawall
2014-10-17, 17:22:52
Ich hatte mir irgendwann einfach mal ein preisgünstiges mit guten Rezensionen geholt. Denke, man kann nichts falsch machen, wenn man nicht gerade das allerbilligste oder eines aus mit Schlangenöl gewichstem Krokodilsleder zum Premiumpreis nimmt.

Unicous
2014-10-17, 17:26:24
Ich persönlich würde nach einem Kabel schauen, bei dem zumindest der Anschein erweckt wird es sei "zertifiziert". (Ich möchte der Firma Sentivus nicht zu nahe treten, aber das Wort alleine weckt Begehrlichkeiten, es wegzulassen halte ich für fahrlässig:tongue:)

Diese Firma behauptet sie hätten zertifizierte Kabel.

http://www.amazon.de/MultiKabel-Displayport-Kabel-vergoldete-Grafikkarten/dp/B00KY40NWM/ref=sr_1_1?s=computers&ie=UTF8&qid=1413559183&sr=1-1&keywords=displayport+zertifiziert

dargo
2014-10-17, 17:43:47
@Unicous

War nur ins blaue geschossen. :wink: Hab jetzt das aus deinem Link bestellt, ist sogar bis 1600p freigegeben. Bei 1080p sollte es ergo keine Probleme geben.

Unicous
2014-10-17, 17:47:41
War nicht böse gemeint, auch nicht der Kommentar von vor ein paar Tagen. ( Eine Seite davor hatten wir ja darüber gequatscht, daher war ich etwas verwundert).

Ich kann dir leider nicht sagen, ob das Kabel im Endeffekt etwas taugt, aber gerade bei HDMI und DP muss man eben aufpassen, weil das ja eigentlich auch nur Meterware ist, es aber entscheidend ist von welchem laufenden Meter Kabeltrommel man abgeschnitten hat.:biggrin:

akuji13
2014-10-17, 23:31:37
Nehmen wir mal an, wir hätten ein G-Sync 4k-Monitor wie den angekündigten Acer. Wie teste ich den am besten mit G-Sync und so? :confused:

Mit der NV Demo und Spielen? :D

PHuV
2014-10-18, 00:05:02
Mit der NV Demo und Spielen? :D
Nein, wie ich das messen kann, mit Frameratenmonitor, Aufzeichnungen (?) und so. Ansonsten kann ich ja nur nach dem subjektiven Eindruck gehen, und darauf achten, wie flüssig mir das Bild erscheint. Und ich lese gerade mal quer, ich sehe nirgends, wie ich G-Sync an und ausschalten kann. Mache ich das bei der Karte selbst, oder im Monitor? Im Handbuch steht dazu nichts drin.

akuji13
2014-10-18, 00:16:36
Das sollte auf jeden Fall im NV control panel aktivierbar sein und dann im Spiel selbst automatisch aktiviert werden.

So ist das zumindest bei unserem Swift, ich denke das Vorgehen wird bei den G-Sync Geräten gleich sein.

PHuV
2014-10-18, 11:01:10
Stimmt, da gibts dann ein separates G-Sync-Menü mit den Einstellungen.

Kennt jemand bei einem Monitor den Parameter "Refesh rate bar" mit "4/8 wide"? :confused:

Beim Acer XB280HK mit G-Sync ist mit der Unigene Demo 4.0 alles unter 30 FPS sehr zittrig. Sobald es darüber ist, butterweich. :eek:

akuji13
2014-10-18, 15:51:25
G-Sync ist unterhalb von 30 fps auch nicht mehr aktiv:
http://www.computerbase.de/2013-12/nvidia-gsync-test/3/

G-Sync kann helfen aber nicht zaubern.

Man darf nicht erwarten das nun 15-30 fps flüssig spielbar werden (aus o. g. Gründen).

Aber es gibt so einige Spiele(engines) die z. B. bei 35-45 fps sehr ruckelig sind, da kann G-Sync ungemein helfen
und es sind dann gefühlte 50-60.

PHuV
2014-10-18, 16:16:49
Kann ich mit Far Cry 3 bestätigen. Mit G-Sync sehr gut spielbar, ohne selbst mit 45 FPS sehr ruckelig und überhaupt nicht schön, eigentlich gar nicht mehr zu ertragen.

Wenn mir jemand vor 2 Jahren erzählt hätte, daß ich mit 3x580er GTX und 2560x1600 ein mieseres Spielgefühl habe als jetzt mit 4K und einer GTX 980er, den hätte ich für verrückt erklärt.

Also der Acer macht hier seine Sache wirklich gut. Perfekt ist das alles noch nicht, aber schon deutlich besser.

derguru
2014-10-18, 16:23:54
Wie ist denn die blickwinkelabhängigkeit und der Kontrast? Da du den Dell daneben stehen hast kannst du es gut vergleichen.

akuji13
2014-10-18, 17:23:08
Wenn mir jemand vor 2 Jahren erzählt hätte, daß ich mit 3x580er GTX und 2560x1600 ein mieseres Spielgefühl habe als jetzt mit 4K und einer GTX 980er, den hätte ich für verrückt erklärt.

Also ich nicht.

Hab mir mal 3-way/4-way SLI bei einem Freund angeschaut...gruselig, da werden die MR nicht um je 25% gesteigert sondern um gefühlte 1000%.

PHuV
2014-10-18, 17:26:19
Wie ist denn die blickwinkelabhängigkeit und der Kontrast? Da du den Dell daneben stehen hast kannst du es gut vergleichen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10392523&posted=1#post10392523

Wenn er waagrecht vor Dir steht, ist es ok, als Pivot nicht gut.
Also ich nicht.

Hab mir mal 3-way/4-way SLI bei einem Freund angeschaut...gruselig, da werden die MR nicht um je 25% gesteigert sondern um gefühlte 1000%.
Ich hab ja jetzt fast 4 Jahre damit so gespielt, so schlimm war es gar nicht, wie alle so behaupten.

akuji13
2014-10-18, 18:21:06
Ist aber Ansichtssache. ;)

Viele stören schon die Ruckler mit 2 Karten und das ist dann auch ok, weil jeder das anders sieht.

Was vor allem bei 3/4 Karten heftig ist ist der Umstand das so mancher Titel schlechter läuft als mit 2 Titeln.

PHuV
2014-10-19, 00:10:00
Das aber auch nur aktuelle Titel, wie gesagt, bisher bin ich sehr gut damit ausgekommen.

Ich teste gerade Crysis 3, hier sehe ich kaum einen Unterschied zu G-Sync. Die CryEngine 3 performt unter 4K selbst mit nur 21-25 FPS wirklich gleichmäßig und gut, ganz anders als bei der Engine von FC3. Ich bin wirklich überrascht.

Nightspider
2014-10-19, 01:08:38
Woran liegt das eigentlich das alle games total unters. auf zB. V-Sync reagieren?

Ich gehe mal davon aus das die Entwickler nicht die Bildausgabe des Spiels an sich an den Bildaufbau-Zyklus den Monitors anpassen können.

PrefoX
2014-10-19, 04:11:21
Das aber auch nur aktuelle Titel, wie gesagt, bisher bin ich sehr gut damit ausgekommen.

Ich teste gerade Crysis 3, hier sehe ich kaum einen Unterschied zu G-Sync. Die CryEngine 3 performt unter 4K selbst mit nur 21-25 FPS wirklich gleichmäßig und gut, ganz anders als bei der Engine von FC3. Ich bin wirklich überrascht.
unter 30fps ist gsync immernoch off, wurde ja schon öfter gesagt. Grund: Das Panel geht nicht unter 30hz.

Nightspider
2014-10-19, 04:29:11
Wird sich das mit dieser 30fps Beschränkung in Zukunft ändern oder wird das vorerst so bleiben?

Unicous
2014-10-19, 05:20:35
Adaptive Sync schert sich darum theoretisch nicht aber die Panels müssen es natürlich auch beherrschen. Ich denke bei G-Sync wäre es auch kein Problem.

Die Display-Hersteller (Scaler-/Controllerhersteller) stünden hier also eher unter Zugzwang Panels herzustellen die 24+ fps "flüssig" darstellen können.

aufkrawall
2014-10-19, 05:55:06
Du meinst ohne Flackern? :)

Rente
2014-10-19, 15:49:15
Vielleicht eine dumme Frage, aber ich konnte keine passende Antwort finden: Wird G-Sync auch bei Vollbild-Videowiedergabe aktiv und passt die Wiederholrate an?

Ist natürlich aufgrund der 30 FPS-Begrenzung aktuell eher irrelevant, ich nehme aber an es funktioniert momentan nur in Spielen bzw. bei 3D-Anwendunge überhaupt.

PHuV
2014-10-19, 17:03:20
unter 30fps ist gsync immernoch off, wurde ja schon öfter gesagt. Grund: Das Panel geht nicht unter 30hz.
Muß das trotzdem so extrem extremes Zittern? Siehe Review hier

Acer XB280HK review (http://www.digitaltrends.com/monitor-reviews/acer-xb280hk-review/)

The benefits of G-Sync were slightly spoiled by a flickering problem. At times, the Acer XB280HK exhibited the worst flickering issues we’ve seen in years. This is an artifact rooted in G-Sync. Tying the refresh rate with frame rate means that the display refreshes very slowly if a game’s FPS drops into the upper 20s.

Sunrise
2014-10-19, 17:10:01
Vielleicht eine dumme Frage, aber ich konnte keine passende Antwort finden: Wird G-Sync auch bei Vollbild-Videowiedergabe aktiv und passt die Wiederholrate an?

Ist natürlich aufgrund der 30 FPS-Begrenzung aktuell eher irrelevant, ich nehme aber an es funktioniert momentan nur in Spielen bzw. bei 3D-Anwendunge überhaupt.
Wenn du madVR als Renderer benutzt könnte ich mir das vorstellen, da madVR auf D3D9 aufsetzt und auch einen D3D10-Pfad benutzen kann. madVR verhält sich exakt so wie ein Spiel. Müsste mal jemand der ein G-Sync Panel hat testen.

Das Problem ist dann aber wie du schon sagst, wenn die Monitorhersteller bzw. NV da nicht unter 30Hz gehen bzw. es anfängt zu flackern, weil nicht korrekt implementiert, nützt uns das nicht viel. Ohne 23.976Hz, 24Hz, 25Hz und 29.970Hz ergibt das nicht viel Sinn außer du würdest die fps des Videos verdoppeln, damit du wieder über den 30Hz bist.

samm
2014-10-19, 18:28:05
Bisschen Schalkreise drüfen im Monitor doch durchaus auch verbraten werden, nicht? Statt des Videos sollte der Monitor die Refresrate mindestens verdreifachen, wenn der angeforderte Refresh <= 30 fps ist und verdoppeln, wenn <= 70 fps.
Wunschkonzert vielleicht, aber wäre gerade bei Lösungen mit strobing backlight für nicht nur Flüssige, sondern auch scharfe Wiedergabe ohne Geflacker nötig.

PHuV
2014-10-19, 19:07:45
Wenn du madVR als Renderer benutzt könnte ich mir das vorstellen, da madVR auf D3D9 aufsetzt und auch einen D3D10-Pfad benutzen kann. madVR verhält sich exakt so wie ein Spiel. Müsste mal jemand der ein G-Sync Panel hat testen.
Wenn Du mir sagt, wie ich das schnell und unkompliziert testen kann, mache ich das gerne für Dich.

Sunrise
2014-10-19, 19:41:19
Wenn Du mir sagt, wie ich das schnell und unkompliziert testen kann, mache ich das gerne für Dich.
MPC-HC (http://sourceforge.net/projects/mpc-hc/files/MPC%20HomeCinema%20-%20Win32/MPC-HC_v1.7.7_x86/MPC-HC.1.7.7.x86.exe/download) oder PotPlayer (http://www.dvbsupport.net/download/index.php?act=download&id=230) (ist meine Empfehlung) herunterladen und installieren, dann madVR (http://madshi.net/madVR.zip) herunterladen und über die enthaltene install.bat im System registrieren, im Player dann madVR als Renderer auswählen. Dann irgendeine Videodatei im Player abspielen.

Während des Abspielens Rechtsklick auf das Video und unter den Filtern dann "madVR Video Renderer" auswählen, dann "Settings" klicken, es öffnet sich ein neues Fenster mit der Konfiguration von madVR, hier unter "rendering" -> "general settings" -> "enable automatic fullscreen exclusive mode" aktivieren.

Jetzt mit Ok bestätigen und wieder zum Player zurück. Video stoppen und neu starten. Dann Video wieder abspielen und Vollbild aktivieren (Fullscreen Exklusive sollte jetzt greifen, steht oben links)

Dann sollte G-Sync greifen.

Nitrojedi
2014-10-20, 09:01:24
Okay, ich habe mir die letzten Seiten urchgelesen und habe eine weitere Theorie:
Kennt/benutzt jemand von Euch SmoothVideo Project als Player?
Dieser nutzt Interpolation; berechnet also Zwischenbilder. Dies ist zwar keinesfalls so gut wie echte 120fps, allerdings ist der Effekt trotzdem spürbar. Zu vergleichen ist es mit dem AfterEffects Plugin Twixtor.
Nun bekommt man dadurch eine gewünschte Anzahl an fps, z.B. 4 x 30 = 120fps. Wäre HIERMIT ein GSync Display ansprechbar?
Ist die ffdshow-Ausgabe in MPC-HC, welche SmoothVideo Project nutzt, auch zusammen mit madVR nutzbar? Dadurch wäre doch rein theoretisch ALLES abgedeckt, oder?

FlashBFE
2014-10-20, 09:56:23
Es sollte doch Nvidia relativ leicht fallen, einfach einen Frame mehrfach zu senden, wenn die FPS unter 30 fallen. Das müsste doch treiberseitig lösbar sein, wenn die Monitore das schon nicht können.

TheGoD
2014-10-20, 15:25:32
Okay, ich habe mir die letzten Seiten urchgelesen und habe eine weitere Theorie:
Kennt/benutzt jemand von Euch SmoothVideo Project als Player?
Dieser nutzt Interpolation; berechnet also Zwischenbilder. Dies ist zwar keinesfalls so gut wie echte 120fps, allerdings ist der Effekt trotzdem spürbar. Zu vergleichen ist es mit dem AfterEffects Plugin Twixtor.
Nun bekommt man dadurch eine gewünschte Anzahl an fps, z.B. 4 x 30 = 120fps. Wäre HIERMIT ein GSync Display ansprechbar?
Ist die ffdshow-Ausgabe in MPC-HC, welche SmoothVideo Project nutzt, auch zusammen mit madVR nutzbar? Dadurch wäre doch rein theoretisch ALLES abgedeckt, oder?
Ich nutze SVP und bin damit extreme zufrieden (niedrige Stufe wegen Artefakten @72 hz), habe jeodch keinen G-Sync-Monitor. Aber ich verstehe nicht warum du dies zusammen mit G-Sync nutzen möchtest. Du kannst SVP ja anweisen soviele FPS zu produzieren die du auch ohne G-Sync für den optimalen Betrieb deines Monitors benötigst. Bei 120 hz halt 120 oder 60. Der einzige Vorteile wäre jetzt wenn du mittels G-Sync auf zum Beispiel 40 - 50 FPS runter gehen würdest das dann etwas mehr Rechenleistung für SVP zur Verfügung stehen würde. Ich bezweifle allerdings ob sich dies im Endeffekt wirklich lohnt.

dargo
2014-10-20, 15:30:21
@aufkrawall

Das mit dem DP-Kabel war wohl ein Griff ins Klo. Auch damit gehen hier max. nur 72Hz. :(

Gipsel
2014-10-20, 16:11:29
Bisschen Schalkreise drüfen im Monitor doch durchaus auch verbraten werden, nicht? Statt des Videos sollte der Monitor die Refresrate mindestens verdreifachen, wenn der angeforderte Refresh <= 30 fps ist und verdoppeln, wenn <= 70 fps.
Wunschkonzert vielleicht, aber wäre gerade bei Lösungen mit strobing backlight für nicht nur Flüssige, sondern auch scharfe Wiedergabe ohne Geflacker nötig.Das funktioniert nur so nicht so. Die Vorteile bei der Bewegungsschärfe mit Backlight-Strobing sind sofort wieder weg, wenn man ein Frame mehrfach darstellt. Außerdem erfordert die Nutzung von Backlight strobing mit variabler Refreshrate entweder deutliche Änderungen an der Backlight-Steuerung (kontinuierliches Blending von strobing backlight bei hohen fps zu quasi-continous backlight bei niedrigen fps), die bisher offenbar keiner machen will (der Grund, warum auch GSYNC nicht mit backlight strobing kombiniert wird, da heißt es entweder oder) oder im Zweifelsfall ein zusätzliches Frame Latenz (man muß ohne die erwähnte Kombination von strobe+kontinuierliches Backlight für die Intensität des Pulses des Hintergrundlichtes bereits wissen, wann das nächste Frame kommt, was bei variabler Framerate ohne ein Frame Puffer schwierig ist).

mironicus
2014-10-20, 17:43:00
GSync mit ULMB geht nicht weil dann das Bild flackert wie Hölle bei niedrigen HZ-Zahlen.

Das sieht man gut bei den Acer 144 Hz-Monitoren die per Hack ULMB mit festen 60 Hz ermöglichen. Das Bild flackert wie früher bei einem CRT. Das ist noch gut aushaltbar bei 60 Hz, aber bei einer ständigen Veränderung des Backlight wäre das wahrgenommene Bild wohl nicht besonders gut.

Gipsel
2014-10-20, 18:04:32
GSync mit ULMB geht nicht weil dann das Bild flackert wie Hölle bei niedrigen HZ-Zahlen.Das ist nur ein Teil des Problems. Man muß auch prinzipiell bereits vorher die Anzeigedauer des Frames kennen, um die Intensität des Lichtpulses einzustellen. Man will ja nicht, daß sich die Bildhelligkeit von Frame zu Frame je nach Anzeigedauer ändert. Also muß bei einem kurz angezeigten Frame die Intensität des Backlight Pulses geringer ausfallen als bei einem länger angezeigten Frame. Aber wie soll das funktionieren, wenn der Monitor noch gar nicht weiß, wann das nächste Frame kommt? Er müßte also warten, bis das nächste Frame kommt => 1 Frame zusätzliche Latenz => schlecht.

PHuV
2014-10-20, 21:11:05
Setting: 2 Monitore, 4k mit G-Sync über DP, 1600p über DVI-D.

Muß ich G-Sync den anderen ohne ausstecken, oder kann ich ihn dranlassen?

Kartenlehrling
2014-10-20, 21:24:11
Das muss du uns sagen :)

Unicous
2014-10-20, 21:33:45
Ich verstehe die Frage nicht ganz? Fragst du ob zwei Monitore, einer mit, einer ohne G-Sync, betreiben kannst?

Wenn ja, dann lautet die Antwort: müsste ganz normal funktionieren. Nur der ohne hat kein G-Sync.:tongue:

PHuV
2014-10-20, 21:45:26
Das G-Sync nur mit dem einen Monitor funktioniert, ist mir schon klar. ;)

Meine Frage zielt dahin, ob die Karte vielleicht G-Sync abschaltet, wenn ein weiterer Monitor dranhängt, und ich wirklich diesen 2. dann abhängen muß. Oder stellt er eben am ersten G-Sync durch, und ignoriert den 2.
Das muss du uns sagen :)
Wenns so einfach wäre. Ich hab ja hier keine LED dran, die mir sagt, ob G-Sync aktiv ist oder nicht, wie der Asus.

Unicous
2014-10-20, 21:48:52
So wie ich das verstanden habe (in einem Video Interview mit Tom Peterson von Nvidia) sollte es kein Problem darstellen.

Es gibt doch eine Test Demo, oder? überprüfe es doch einfach.:wink:


edit: Aber das Control Panel sagt dir doch ob es aktiv ist?

PHuV
2014-10-20, 21:57:17
So wie ich das verstanden habe (in einem Video Interview mit Tom Peterson von Nvidia) sollte es kein Problem darstellen.

Es gibt doch eine Test Demo, oder? überprüfe es doch einfach.:wink:
Diese G-Sync-Demo? Die kackt bei mir voll ab, und ich kann nicht mal G-Sync auswählen, nur V-Sync und off. ;D

edit: Aber das Control Panel sagt dir doch ob es aktiv ist?
Sicher, aber Treiber können viel erzählen, die wissen doch nicht, ob das dann auch beim Monitor so ankommt.

Kartenlehrling
2014-10-20, 22:03:56
Habe ich dir schon einmal geschrieben, im gerätemanager Monitor.inf zwangs-installation durchführen. oder ohne Microsoft signaturabfrage




Acer XB280HK.icm
Acer XB280HK.inf

http://global-download.acer.com/GDFiles/Driver/Monitor/Monitor_Acer_1.0_W8x64W8x86W7x64W7x86_A.zip?acerid=635424680860734747&Step1=MONITOR&Step2=X%20SERIES&Step3=XB280HK&OS=8P1&LC=en&BC=ACER&SC=EMEA_26#_ga=1.27707260.1926815787.1412366025

http://www.acer.co.ee/ac/en/EE/content/drivers
Acer Driver

samm
2014-10-20, 23:43:01
Die Vorteile bei der Bewegungsschärfe mit Backlight-Strobing sind sofort wieder weg, wenn man ein Frame mehrfach darstellt.Der Wechsel Frame A - Frame B müsste doch in der Sequenz A - A - B... mit Strobing immer noch klarer sein als ohne Strobing, weil der Bildaufbau von B verborgen wird. Siehe auch die Beispiele mit Black Frame Insertion bei wenig fps, wo es zwar flimmert, aber schärfer wirkt - wenn es da nun doppelt so schnell flimmert, weshalb sollte der Schärfeeffekt dann ausbleiben? Kurz gesagt bin ich der (nicht verifizierten) Meinung, dass konkret 120Hz Strobing sich auch auf einen mit 30fps bewegten Inhalt positiv auswirkt, was die Schärfe angeht. Sonst wäre man doch auch bei monitoreigenem Strobing / Lightboost auf konstant der "Strobe Rate" entsprechende Framerate angewiesen.

Dieses Problem leuchtet mir hingegen sofort ein:
Außerdem erfordert die Nutzung von Backlight strobing mit variabler Refreshrate entweder deutliche Änderungen an der Backlight-Steuerung (kontinuierliches Blending von strobing backlight bei hohen fps zu quasi-continous backlight bei niedrigen fps), die bisher offenbar keiner machen will (der Grund, warum auch GSYNC nicht mit backlight strobing kombiniert wird, da heißt es entweder oder) oder im Zweifelsfall ein zusätzliches Frame Latenz (man muß ohne die erwähnte Kombination von strobe+kontinuierliches Backlight für die Intensität des Pulses des Hintergrundlichtes bereits wissen, wann das nächste Frame kommt, was bei variabler Framerate ohne ein Frame Puffer schwierig ist).


Wenns so einfach wäre. Ich hab ja hier keine LED dran, die mir sagt, ob G-Sync aktiv ist oder nicht, wie der Asus.
Sicher, aber Treiber können viel erzählen, die wissen doch nicht, ob das dann auch beim Monitor so ankommt.
Wenn man den Effekt ohne extra-Indikator nicht merkt, kann man ja gerade so gut ohne G-Sync mit einem Monitor mit Zusatzled leben, scheint mir...

PHuV
2014-10-21, 01:19:28
Habe ich dir schon einmal geschrieben, im gerätemanager Monitor.inf zwangs-installation durchführen. oder ohne Microsoft signaturabfrage
Ich stell mich vielleicht blöde an: was ist bei Dir eine "Zwangsinstallation"? Ich kann mit diesem Begriff nichts anfangen.

PHuV
2014-10-21, 01:21:42
Wenn man den Effekt ohne extra-Indikator nicht merkt, kann man ja gerade so gut ohne G-Sync mit einem Monitor mit Zusatzled leben, scheint mir...
Das Problem ist immer, daß die Wahrnehmung ja täuschen kann. Wo ich G-Sync ganz klar sehe, ist bei Far Cry 3. Bei Crysis 3 ist wiederum kein Unterschied zu erkennen.

Ich habe gerade mit Sunrise aufwendig den madVR-Filter getestet. Man sieht bei 4k-Filmen subjektiv einen leichten Unterschied, es wirkt flüssiger. Bei einer BR als mkv-Datei sehe ich wiederum keinen Unterschied.

Kartenlehrling
2014-10-21, 02:16:47
Wie wird der Monitor unter deinem Systemmanager erkannt, und mit welchem Treiber?

PHuV
2014-10-21, 02:21:26
Ne, immer nur als PnP-Monitor. Auf dem Anwendungsrechner ist es eine Geforce GTX 750 Ti.

Egal was ich mache, die inf-Datei wird nicht akzeptiert.

Kartenlehrling
2014-10-21, 03:02:21
Wie gesagt eine sauber installation von 344.11 WHQL (http://www.nvidia.de/download/driverResults.aspx/77871/de)

und die Acer XB280HK.inf für den Monitor installieren.

C.D.B.
2014-10-21, 06:25:11
Ich stell mich vielleicht blöde an: was ist bei Dir eine "Zwangsinstallation"? Ich kann mit diesem Begriff nichts anfangen.

Ich vermute, Kartenlehrling meint die alte Installationsroutine für non-pnp-Hardware. Im Gerätemanager unter "Aktion" --> "Legacyhardware hinzufügen" --> "weiter" --> "Hardware manuell aus einer Liste ... " --> "weiter" --> "alle Geräte anzeigen" --> "weiter" --> "Datenträger". (so zumindest bei mir unter Win7)

Nun nur noch den Pfad zur inf + icm auswählen und ein Stoßgebet absetzen. :D

PHuV
2014-10-21, 21:53:00
Ach so, das habe ich ja ewig nicht mehr benutzt. Wenn, dann gehe ich in den Gerätemanager direkt auf das Gerät und installiere dort den Treiber direkt, oder mach das über die übliche rechte-Maustaste-installieren-Weg, hat so bisher immer geklappt.

Aber der Weg funktioniert bei mir auch nicht, der Gerätetreiber wird einfach nicht akzeptiert.
Wie gesagt eine sauber installation von 344.11 WHQL (http://www.nvidia.de/download/driverResults.aspx/77871/de)

und die Acer XB280HK.inf für den Monitor installieren.
Ich verwende bereits 344.16. Unabhängig davon habe ich eigentlich nie einen Treiber für einen Monitor installiert, ich hab das immer so gelassen, wie es war.

Und nochmals, es geht bei mir nicht. Ich bin doch kein Noob, ich kann schon Geräte installieren. ;) Mach das ja fast jeden Tag in der Firma auch als Admin.

Ich hab mir mal die Inf-Datei genauer angeschaut, sieht alles ganz ok aus. Keine Ahnung, warum mein beiden Win 8.1.-Rechner das nicht wollen. Da muß ich doch glatt mal den Acer-Support kontaktieren.

Update:
In Aida kann ich den Monitor mit allen Daten komplett sehen und erkennen. Er kann sogar 70 Hz.

Mausprobleme korrigiert G-Sync übrigens nicht.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10395108#post10395108

Mit Far Cry 3 und G-Sync auf 4k bekomme ich glatt Lust, dieses Spiel nochmal durchzuspielen. :freak:

Gipsel
2014-10-22, 15:33:45
Der Wechsel Frame A - Frame B müsste doch in der Sequenz A - A - B... mit Strobing immer noch klarer sein als ohne Strobing, weil der Bildaufbau von B verborgen wird. Siehe auch die Beispiele mit Black Frame Insertion bei wenig fps, wo es zwar flimmert, aber schärfer wirkt - wenn es da nun doppelt so schnell flimmert, weshalb sollte der Schärfeeffekt dann ausbleiben? Kurz gesagt bin ich der (nicht verifizierten) Meinung, dass konkret 120Hz Strobing sich auch auf einen mit 30fps bewegten Inhalt positiv auswirkt, was die Schärfe angeht. Sonst wäre man doch auch bei monitoreigenem Strobing / Lightboost auf konstant der "Strobe Rate" entsprechende Framerate angewiesen.Ist man im Prinzip auch.

Mal ein kleiner Ausflug: Wie funktioniert das mit dem Strobing bzw. was verursacht die (empfundene) Bewegungsunschärfe bei hold-type Displays und was ist die Verbindung zur echten Bewegungsunschärfe?

Zuerst die normale Bewegungsunschärfe: Ein sich bewegendes (quer zur Sichtlinie), reales Objekt wird kontinuierlich auf einen anderen Ort der Netzhaut abgebildet. Die Lichtsinneszellen dort haben eine begrenzte Reaktionszeit, das Objekt erscheint etwas verschmiert. Was passiert aber, wenn ich dem Objekt mit dem Auge folge (der menschliche Augapfel ist ja nicht umsonst beweglich, und zwar ziemlich schnell)? Dann verbleibt die Abbildung des Objekts am gleichen Ort auf der Netzhaut und es erscheint scharf, obwohl es sich bewegt.
Was passiert an einem Monitor in einer vergleichbaren Situation? Verfolgt man ein sich bewegendes Objekt mit dem Auge, dann erscheint die Abbildung nicht mehr kontinuierlich am gleichen Ort. Warum? Na weil die Darstellung stückweise konstant ist (das Bild bleibt mit dem jeweils letzten Frame erhalten), zwischen zwei Frames gibt es eben keine kontinuierlichen Updates. Beim Nachverfolgen durch Augenbewegungen wird das Objekt also nicht mehr auf genau einen Ort der Netzhaut abgebildet, sondern durch die Bewegung des Auges wird der Eindruck verschmiert (genau wie bei sich bewegendem Objekt und starrem Auge). Backlight-Strobing (oder damals die CRTs) läßt das Bild an einem Ort aber nur kurz aufblinken, am nächsten Ort im nächsten Frame dann wieder. Bei Nachverfolgung durch die Augen erscheinen die allerdings wieder am gleichen Ort der Netzhaut, das Bild erscheint scharf (wenn der Abstand der Lichtpulse allerdings groß wird [sich der Reaktionszeit der Lichtsinnezellen in der Netzhaut nähert] allerdings flimmrig). Wiederholt man allerdings ein Frame (in Deinem Beispiel mit 30fps an einem 120Hz Monitor wird dann jedes Frame sogar gleich vier Mal dargestellt) erhält man Doppel- (60fps), Dreifach- (40fps) oder gar Vierfachbilder (30fps) auf der Netzhaut, die sich genau über den Bereich erstrecken, der bei einem hold-type-Display diese Art der Bewegungsunschärfe verursachen. Bei normalen (nicht zu schnellen) Bewegungen sieht das dann nicht viel anders als bei hold-type Displays aus (weil das Auge bzw. Gehirn diese nah beeinander liegende Bilder integriert/mittelt), bei schnellen siehst Du Mehrfachbilder (falls Du dem Objekt überhaupt noch so schnell folgen kannst). So oder so, kein großer Vorteil mehr.

Das Strobing hilft also eigentlich nur gegen eine Art der Bewegungsunschärfe (wenn man das bewegte Objekt mit dem Auge trackt) und eben nur solange man keine (oder zumindest nicht viele) Frames wiederholt. Außerdem erklärt das auch, daß ich ein Gegner von der in Spielen oft künstlich hinzugefügten Bewegungsunschärfe bin (außer vielleicht bei einigen Fällen aus künstlerisch Gründen hinzugefügter). Zum einen ist das prinzipiell ohne Eye-Tracking gar nicht vernünftig möglich (von den Latenzproblemen mal abgesehen) und zum anderen ist der Effekt generell zu groß (größer als das, was das Auge selber macht und wenn die Framerate hoch genug ist, kreiert unser Auge von alleine eine realistische Bewegungsunschärfe). Also lieber ganz weglassen.

Unicous
2014-10-23, 18:19:10
AMD PR-Leute bei einem Viewsonic-Event.

https://twitter.com/iainbristow/status/525238776399167488


Da Viewsonic gerade den Weg zurück ins "Gaming"-Geschäft beschreitet, könnte AMD ja durchaus für eine Freesync-Implementierung werben. (Es könnte aber auch was total Langweiliges sein.:freak:)

Kartenlehrling
2014-10-23, 18:33:36
Ernsthaft spannende Sachen!

Naja gerade in der Panelenherstellung sehe ich nur Trippelschrittchen, Kängurusprung will ich sehen.
Ich glaube nicht das wir vor April-2015 was von ViewSonic sehen, alles andere wär ein Wunder.

Unicous
2014-10-23, 18:38:43
Ich habe mal kurz über das angegeben Hashtag bei twitter gestöbert... es ist wohl eher wahrscheinlich, dass AMD da nur die Hardware für ein Triple-vg2401mh (neuer 144Hz 24" TN-Monitor*gähn*) bereitgestellt hat und darüber gelabert hat, wie toll doch Eyefinity ist.:rolleyes:

Thomas Gräf
2014-10-23, 21:20:10
Naja gerade in der Panelenherstellung sehe ich nur Trippelschrittchen, Kängurusprung will ich sehen.
Ich glaube nicht das wir vor April-2015 was von ViewSonic sehen, alles andere wär ein Wunder.

Die Panelhersteller werden es nicht schaffen große und gute Displays(120HZ-kein TN) für Konsumer Preise zu bauen.
Vielleicht schafft es aber die Konsumer Rift mit solch ein Wunderdisplay auf den Markt zu kommen.
...aber weißt was, dann döddeln die beiden Möchtegerngroß immernoch mit AFR rum. ;)

Sunrise
2014-10-24, 16:15:42
Die Panelhersteller werden es nicht schaffen große und gute Displays(120HZ-kein TN) für Konsumer Preise zu bauen.
Vielleicht schafft es aber die Konsumer Rift mit solch ein Wunderdisplay auf den Markt zu kommen.
...aber weißt was, dann döddeln die beiden Möchtegerngroß immernoch mit AFR rum. ;)
Das ist es eben. Ich denke die Qualität werden wir in Masse im Rift eher sehen als die Monitorhersteller bereits sind, hier noch (vor OLED) irgendwas weiter zu investieren. Die TNs verkaufen sich ja trotz der Nachteile wie geschnitten Brot...

Gibt auch erst seit kurzem überhaupt einen IPS (IGZO-Backplane), der das überhaupt kann (mal ausgenommen von diesen Overlord-Displays und wie sie alle heißen) und das ist dieser hier:
http://www.tftcentral.co.uk/news_archive/31.htm#nec_pa322uhd

Der kann 120Hz, allerdings auch nur bei Full HD. Und der Preis ist natürlich gesalzen.

Gipsel
2014-10-24, 16:35:36
Gibt auch erst seit kurzem überhaupt einen IPS (IGZO-Backplane), der das überhaupt kann (mal ausgenommen von diesen Overlord-Displays und wie sie alle heißen) und das ist dieser hier:
http://www.tftcentral.co.uk/news_archive/31.htm#nec_pa322uhd

Der kann 120Hz, allerdings auch nur bei Full HD. Und der Preis ist natürlich gesalzen.Was ich ja bald interessant finde, ist daß dort das Backlight-PWM mit (fest?) 20kHz läuft. Endlich!
Das eröffnet Möglichkeiten, auch Backlight-Strobing mit G-/A-Sync zu kombinieren (weil man es so als quasi-kontinuierlich betrachten kann, man es aber trotzdem sehr schnell in einem großen Bereich variieren kann; genau das, was man für die Kombination benötigt). Und man ist das häßliche Geflimmer bei an die Refreshrate gekoppeltem PWM bei niedrigen Frequenzen los.

PHuV
2014-10-25, 00:02:01
In der aktuellen c't 23/14 ist ein Test vom ACER Predator XB270Hb 144 Hz, wo gesagt wird, daß die 4k-Variante XB280HK intern ebenfalls mit 144 Hz betrieben wird.
Zitat:
Auch der bereits in c’t 20/14 getestete XB280HK aus Acers Predator-Serie arbeitet intern mit 144 Hz und Nvidias GSync-Technik.
Woher haben sie diese Infos?

Ich habe den Acer-Support per Mail kontaktiert, weil der Treiber nicht funktioniert, und einige Fragen noch da sind (Was ist Refresh Rate Bar mit "4/8 Pixel" Wide?). Meine Fragen können nur telefonisch beantwortet werden. :freak: Und dann kommt der Verweis auf eine Seite, wie man den Treiber installieren soll (über den Gerätemanager usw.), genau so wie ich es sowieso gemacht habe. Sehr hilfreich. :rolleyes:

Kartenlehrling
2014-10-25, 00:20:55
eigentlich muss es ja reichen wenn du auf die .inf Rechtklick Maus gehst und installieren drückst.

Ich habe auch ein kleines Samsung Monitorinstaller Program,
da werfe ich meine ganzen .inf rein und kann so schnell hin und her wechseln, das finde ich angenehmer und habe einen überblick darüber.

robbitop
2014-10-25, 07:58:35
Gibt auch erst seit kurzem überhaupt einen IPS (IGZO-Backplane), der das überhaupt kann (mal ausgenommen von diesen Overlord-Displays und wie sie alle heißen) und das ist dieser hier:
http://www.tftcentral.co.uk/news_archive/31.htm#nec_pa322uhd

Der kann 120Hz, allerdings auch nur bei Full HD. Und der Preis ist natürlich gesalzen.
AU hat doch für Ende des Jahres ein 1440p IPS Panel, dass 144 Hz kann, angekündigt. Und das wird eher Massenware sein. :)

PHuV
2014-10-27, 10:24:50
eigentlich muss es ja reichen wenn du auf die .inf Rechtklick Maus gehst und installieren drückst.
Wie gesagt, ich bin IT-ler, ich mache so was oft, und habe es schon so probiert oder über den Geräte Manager, es funktioniert so nicht, siehe Erklärung unten.

Ich habe gerade mit dem Acer-Support telefonisch gesprochen, der übrigens überraschend sehr gut und kompetent ist. Es geht also um den Acer XB280HK 4k mit G-Sync.


Diese auf der Homepage hinterlegte Datei ist nicht für Windows gedacht, sondern als Profil für Bildbearbeitungsprogramme etc. Steht nirgends wo drin, habe ich empfohlen mal zu dokumentieren. Für den Betrieb unter Windows soll man nur das PnP-Profil betreiben.
Der Parameter "Refreh Rate Bar" mit "4/8 Pixel Wide" ist für die Darstellung von Programmen gedacht, die nicht im 4K darstellen. Hier wird dann gesagt, wie groß ein Pixel vergrößert werden soll, eben 4x oder 8x so groß.
Die Erklärung ist falsch. Ich habs nun rausgefunden, es ist ein roter Balken, der anscheinend die Refreshrate des Monitors anzeigt, wenn man Overdrive einschaltet. Der ist dann eben 4 oder 8 Pixel breit.
Eine weitere Frage von mir war: "In den Settings des OSD sehe ich bei der Bildschirmauflösung den Wert "Normal", was bedeutet hier normal? Es betriff die Interpolation im Fall von niedrigeren Auflösungen als 4K.

Unicous
2014-10-27, 13:52:41
Parade Tech hat jetzt auch einen Timing Controller für 4K herausgebracht, der Adaptive Sync fähig ist.

http://www.paradetech.com/2014/10/parade-announces-dp667/

The DP667 supports eDP power management features including variable frame rate control protocols compatible with all popular GPUs, and supports the DisplayPort Adaptive Sync feature.

Da frage ich mich was das zu bedeuten hat. Ist der Timing Controller auch "G-Sync fähig oder interpretiere ich da zuviel hinein.:confused:

Kartenlehrling
2014-10-27, 14:12:20
Das wird der Video-Mode sein,
also fester variabler Wert, ... also zb. 24, 30, 48, 50, 60... auf jedenfall sein,
aber ich hoffe das man jeden Wert zwischen 24 - 80Hz (besser 100, 120Hz) unproblematisch einrichten kann,
dann hätte man wenigsten für ältere Grafikkarten auch einen leichten vorteil und ein "smoothes Gameplay".

PHuV
2014-11-01, 00:48:01
Wow, ganz toll heise. :uclap:

Ihr testet G-Sync-Monitore (http://www.heise.de/ct/ausgabe/2014-24-Test-Gaming-Monitore-mit-Nvidias-G-Sync-Technik-2432395.html), vergeßt aber das 4k Modell von Acer. :facepalm:

akuji13
2014-11-02, 07:07:57
Welche testen sie denn?

PHuV
2014-11-06, 00:39:24
Acer XB270HA
AOC g2460Pg
Asus PG278Q
Philips 272G5DYE

Unicous
2014-11-13, 16:21:51
Freesync-Monitore vllt. schon im Dezember bzw. Januar (es kommt aber von Richard Huddy daher mit einer Salzbrezel verdauen:freak:)

http://youtu.be/C_3OAD-Dhs0?t=10m10s

Dazu gibt es einen Monitorhersteller dessen Monitore (oder auch nur ein Modell), Freesync mit einem Firmware Update beherrscht. (Nixeus?)

AMD wird wahrscheinlich im Dezember einen Treiber zur Verfügung stellen (hoffentlich nicht nachdem Freesync-Monitore erhältlich sind:rolleyes:)