PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia könnte mit "G-Sync Compatible" die konkurrierenden ...


Leonidas
2019-01-08, 17:41:55
Link zur News:
https://www.3dcenter.org/news/nvidia-koennte-mit-g-sync-compatible-die-konkurrierenden-sync-standards-vereinen

Marodeur
2019-01-08, 17:53:13
Gibt es irgendwo die Liste mit der Hand voll Bildschirmen die "offiziell" das Siegel erhalten?

EDIT:
Ok, gefunden. Sry.

Complicated
2019-01-08, 18:07:47
"G-Sync Compatible" ein guter Witz. VESA-kompatible Monitore sollen also weiterhin ein Nvidia-Zertifikat anstreben. Nun wurden die Anforderungen runter geschraubt und das Zertifikat mehrstufig gemacht um nicht von der Monitorseite aus dem Markt gedrängt zu werden. Die teure Zertifizierung und das unnütze Gsync-Modul sparen sich die Hersteller halt lieber bei dem Aufpreis. Es wird sich zeigen welcher Aufpreis bei Komponenten notwendig werden wird für die Hersteller und ob sie da tatsächlich besonderen Augenmerk drauf legen und bereit sind den Aufpreis zu zahlen um als "Gsync-kompatiel zu gelten. Es darf bezweifelt werden bei dem hart umkämpften Preisen in diesem Markt. Nvidia weicht lediglich seine Spezifikationen auf weil der Plan au Monitorseite mit abzukassieren nicht geklappt hat und sonst nichts weiter.

Viel mehr ist zu erwarten, dass weniger Hersteller die teuren Modelle mit "Gsync-Ultimate" mit Aufpreis anbieten werden und lieber die 200,- € sparen um dann einfach "Gsync-Kompatible" zu sein und dafür den Preis drücken können. Der Endanwender im Mediamarkt springt darauf an, ganz sicher.

Klevapalis
2019-01-08, 18:13:53
"G-Sync Compatible" ein guter Witz. VESA-kompatible Monitore sollen also weiterhin ein Nvidia-Zertifikat anstreben.
Nichts weiter als "FreeSync". Warum ist das jetzt plötzlich ein Problem? War doch viele Jahre lang die Empfehlung, auch und gerade von dir.

Gast
2019-01-08, 18:28:51
Interessanter dürfte dieser Paradigmen-Wechsel bei nVidia allerdings eher für zukünftige Monitore sein, denn nunmehr können die Monitor-Hersteller gezielt auf jene Klassizifierung "G-Sync Compatible" hinarbeiten, ohne dabei allerdings Lizenzgebühren an nVidia abdrücken zu müssen.

Es ist wohl mit ziemlicher Sicherheit auszuschließen, dass Nvidia die Kompatibilitätstests kostenlos anbietet.

Für ein G-Sync-Logo werden die Monitorhersteller weiterhin entsprechende Gebühren ablegen müssen.
Sie haben in Zukunft nur die Wahl dies mit eigener Hardware zu lösen und müssen nicht mehr zwangsweise das Nvidia-Board verbauen.

G-Sync und Freesync bleiben weiterhin Markenbezeichnungen von Nvidia bzw. AMD, und können nur mit deren Einverständnis verwendet werden, wobei wie es scheint G-Sync weiterhin ein Qualitätsmerkmal bleibt, während pratkisch jeder Hersteller der Adaptive-Sync irgendwie unterstützt ein Logo von AMD bekommt.

Gast
2019-01-08, 18:57:35
Nachdem ein strobing backlight wesentlich wichtiger ist und das nicht mit den ganzen Adaptive Sync Technologien zusammenarbeitet ist es eigentlich ziemlich egal welche davon jetzt unterstützt wird.

Blase
2019-01-08, 19:34:04
Die mit weitem Abstand beste Neuigkeit der CES - und für mich ein Grund zur Freude.

Ich spiele schon lange in WQHD @60Hz und liebäugle jetzt auch schon länger mit einer Nummer größer. Aber als aktuell eher auf nVidia Unterbau fixierter Benutzer schreit alles nach einem Kompromiss. Mein Wunsch: >=30 Zoll, UHD, 144 Hz, G-Sync, HDR,.... wer soll das in auch nur ansatzweise absehbarer Zeit bezahlen?!

Der Hauptkostentreiber in dieser Aufzählung ist ganz klar G-Sync - umso besser, wenn dieser nun hinten runter fällt und durch FreeSync ersetzt werden kann.

Die entsprechenden Monitore werden dann ganz sicher keine 3k-aufwärts kosten... :up:

Jetzt müssen sie nur noch kommen :freak:

MfG Blase

EvilOlive
2019-01-08, 19:37:55
6yCiBbQh2fA

Complicated
2019-01-08, 20:08:01
Nichts weiter als "FreeSync". Warum ist das jetzt plötzlich ein Problem? War doch viele Jahre lang die Empfehlung, auch und gerade von dir.
Wo schreibe ich es sei ein Problem?


Ich schreibe genau das wird den Monitorherstellern ausreichen, warum sollten Sie dann mehr Geld für das Ultimate-Zertifikat ausgeben. Nvidia macht hier gutes Marketing, was nicht heisst, dass wir Foristen oder noch schlimmer die Presse das Marketing mit machen sollte und das was bisher Adaptiv Sync hieß als VESA Standard, umbenennen und plötzlich "Gsync-kompatible" nennt. Etiketten-Klau durch Marketing ist ja nichts neues - folgen muss man dem nicht.

Leonidas Ausblick es würde jetzt weitere Verbreitung von Gsync geben halte ich für kaum haltbar.

Blase
2019-01-08, 20:13:14
Zum Video - wenn ich den Typen richtig verstanden habe, wurde ihm seitens nVidia gesagt, dass bei Monitor 4 auch eine AMD Grafikkarte ein solches Flackern verursachen würde...

Auf einem FreeSync Monitor würde eine AMD Karte ebenfalls solch ein Flackern verursachen? Kann ich mir jetzt beim besten Willen nicht vorstellen. Warum sollten sie?

Ein Kommentar unter dem Video unterstellt dem nVidia Treiber, den Monitor auch unterhalb seines FreeSync Bereichs von 50Hz zu "syncen", während bei AMD der Sync dann schlicht unterhalb von 50 Hz deaktiviert ist.

Kann ich nicht beurteilen, klingt aber nach einer möglichen Erklärung...

EDIT: https://geizhals.de/acer-nitro-xv3-xv273kpbmiipphzx-um-hx3ee-p04-um-hx3ee-p05-a1935862.html

Variable Synchronisierung:
NVIDIA G-Sync Compatible, Adaptive Sync/​AMD FreeSync, 48-120Hz, LFC-Support

Das ging fix :freak:

MfG Blase

MadManniMan
2019-01-08, 20:23:28
Zum Video - wenn ich den Typen richtig verstanden habe, wurde ihm seitens nVidia gesagt, dass bei Monitor 4 auch eine AMD Grafikkarte ein solches Flackern verursachen würde...

Auf einem FreeSync Monitor würde eine AMD Karte ebenfalls solch ein Flackern verursachen? Kann ich mir jetzt beim besten Willen nicht vorstellen. Warum sollten sie?

Ein Kommentar unter dem Video unterstellt dem nVidia Treiber, den Monitor auch unterhalb seines FreeSync Bereichs von 50Hz zu "syncen", während bei AMD der Sync dann schlicht unterhalb von 50 Hz deaktiviert ist.

Kann ich nicht beurteilen, klingt aber nach einer möglichen Erklärung...

DAS wäre dringend zu klären.

Ich kann mir sehr gut vorstellen, dass eine Vielzahl an Freesync-Monitoren bisher nicht auf perfektes Verhalten in allen erdenklichen Lebenslagen geprüft wurde - dafür gibt es einfach zu viele. Aber diese üble Flackern sieht einfach so schlecht um wahr zu sein aus.

Troyan
2019-01-08, 20:55:54
Es gibt kein Standard, der festlegt, wie man sich außerhalb des unterem Bereichs verhalten sollte. Das ist das größte Problem bei Monitoren, deren Range nicht für Frame-Doubling ausreicht.

aufkrawall
2019-01-08, 21:05:07
Es gibt kein Standard, der festlegt, wie man sich außerhalb des unterem Bereichs verhalten sollte. Das ist das größte Problem bei Monitoren, deren Range nicht für Frame-Doubling ausreicht.
Quatsch, der Monitor läuft dann einfach mit höchster Refreshrate. Die Probleme werden daher kommen, dass problematische Panel oder Scaler innerhalb der Range am unteren Ende verkacken. Einfach per Edid die Range nach unten hin verkleinern sollte Abhilfe schaffen.

derF
2019-01-08, 21:07:45
Das Video ist ja behämmert.
Mag ja sein, dass es so kaputte Monitore gibt, aber dann behält den doch niemand, der FreeSync nutzt. Hätten der Hersteller sich die Implementierung also auch sparen können.
Mein AOC hat bei extremen Framedrops oder bei Ladebildschirmen auch ein leichtes Flackern, aber die haben da ne statische Szene und der Bildschirm geht quasi aus? Klingt eher unrealistisch, dass laut nVidia 97% aller FreeSync-Monitore solche Probleme haben sollen. :biggrin:
Aber die Typen im Video scheinen aus Richtung nVidia alles viel zu glauben.

Abgesehen davon hätte AMD definitiv mehr auf die Qualität der Implementierung achten sollen, bevor sie mit Freesync-Logos um sich geworfen haben. ;(

Troyan
2019-01-08, 21:09:35
Quatsch, der Monitor läuft dann einfach mit höchster Refreshrate. Die Probleme werden daher kommen, dass problematische Panel oder Scaler innerhalb der Range am unteren Ende verkacken. Einfach per Edid die Range nach unten hin verkleinern sollte Abhilfe schaffen.

Der Bildschirm tut garnichts. Der Treiber und die Karte steuern den Monitor.

aufkrawall
2019-01-08, 21:13:01
Der Bildschirm tut garnichts. Der Treiber und die Karte steuern den Monitor.
Außerhalb der VRR-Range gibts da ohne LFC gar nichts zu steuern.

Gast
2019-01-08, 21:33:48
Das Video ist ja behämmert.
Mag ja sein, dass es so kaputte Monitore gibt, aber dann behält den doch niemand, der FreeSync nutzt. Hätten der Hersteller sich die Implementierung also auch sparen können.


Jede Menge Freesync-Monitore habe derartige oder ähnliche Probleme, besonders jene aus der "ersten Generation".

Diese sind zwar oft auf bestimmte Szenen beschränkt und treten logischerweise nicht unter allen Umständen auf, ansonsten wäre ja Freesync tatsächlich unbrauchbar, aber sie treten auf.

Und ja, auch die Hersteller selbst wissen davon und warnen auch davor.

https://i.imgur.com/TnnmpLw.jpg

Gast
2019-01-08, 21:54:55
Der Hauptkostentreiber in dieser Aufzählung ist ganz klar G-Sync - umso besser, wenn dieser nun hinten runter fällt und durch FreeSync ersetzt werden kann.

Für einige Hardliner vielleicht, aber die G-Sync Qualitätsmerkmale und Sorgenfreiheit lässt sich der Normalo gerne etwas mehr kosten.

Complicated
2019-01-08, 22:42:51
Für einige Hardliner vielleicht, aber die G-Sync Qualitätsmerkmale und Sorgenfreiheit lässt sich der Normalo gerne etwas mehr kosten. Ja deswegen weicht Nvidia die Zertifizierung ja auch auf. Weil so viele auf den Gsync-Zug aufgesprungen sind.

AMD hat zudem ebenfalls ein Freesync 2 Zertifikat eingeführt um die Qualität zu unterscheiden - im Januar 2017 übrigens:
https://www.amd.com/de/technologies/free-sync
Radeon FreeSync™ 2 legt die Messlatte für Gaming-Monitore erneut höher: vorausgesetzt werden jetzt Bildschirmeigenschaften wie z. B. ein großer, dynamischer Wiederholfrequenzbereich, eine geringe Latenz und ein in der Wahrnehmung doppelt so großer sRGB-Farbraum für mehr Helligkeit und Kontrast. Diese erweiterte Funktionalität sorgt für eine außergewöhnliche Benutzererfahrung bei HDR-Spielen, -Filmen und sonstigen HDR-Inhalten.

Garantierte Unterstützung der Low Framerate Compensation (LFC)
Unterstützung für das Anzeigen von HDR-Inhalt
Niedrige Latenz


Kostenlos.

Leonidas
2019-01-09, 04:44:05
Es ist wohl mit ziemlicher Sicherheit auszuschließen, dass Nvidia die Kompatibilitätstests kostenlos anbietet.



Bisher war hierzu nichts zu erfahren. Dies würde natürlich die Sache verändern - kommt aber auch auf die Höhe des Preises an.

rafterman
2019-01-09, 05:00:11
G-SYNC Compatible (https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/)
am unteren Ende der Liste

tm0975
2019-01-09, 08:21:07
für mich mal wieder ein no-go von nvidia. bin gespannt, wie lange das noch gut geht bei denen. man liest ja überall nur gejammer über die hohen graka-preise...

Lehdro
2019-01-09, 08:22:00
Finde das übrigens beschämend wie das ganze als die große Leistung von NV durch den Großteil der Techpresse hervorgehoben wird. Im Endeffekt kapituliert NV eben DOCH vor dem Industriestandard. Nur umgeht man die eigentliche Kapitulation rhetorisch durch eine (durchaus sinnvolle, soviel sei ihnen zugestanden) Verschärfung des Standards, bevor man sein Siegel drauf klebt. Man wird wohl davon ausgehen können dass auch damit Geld verdient werden soll - umsonst gibt es das sicher nicht.

Das NV jetzt endlich den allgemeinen Industriestandard unterstützt ist keine Leistung von NV, sondern eine der Kundschaft und der Monitorhersteller - bezahlbare und damit absatzkräftige G-Sync Monitore sind rar gesät im Meer der Freesyncmonitore (wobei erst Freesync 2 relativ problemlos ist, aber das ist nicht der Punkt) - das wird auch so manchem Hersteller schwer im Magen gelegen haben. Der Druck von Außen hat hier wohl zur Umentscheidung von NV geführt und eben nicht die "Herzensgüte" von NV. Für die User natürlich ein großer Sieg!

Loeschzwerg
2019-01-09, 08:34:30
Die haben doch nicht kapituliert, sondern im Vorfeld ordentlich Geld gescheffelt und eine neue Marke etabliert.

NV hat, rein wirtschaftlich betrachtet, absolut alles richtig gemacht.

Lehdro
2019-01-09, 08:39:22
Die haben doch nicht kapituliert, sondern im Vorfeld ordentlich Geld gescheffelt und eine neue Marke etabliert.

NV hat, rein wirtschaftlich betrachtet, absolut alles richtig gemacht.
Und trotzdem unterstützen sie das nach eigenen Aussagen unterlegene "Konkurrenzprodukt" auch bekannt als Industriestandard, dem sie sich jahrelang widersetzt haben. Die wirtschaftliche Betrachtung aus NVs Sicht interessiert mich da als Kunden auch so lange nicht, bis ich dafür zahlen muss :cool:

Edit: Sieh es mal so: Als AMD Käufer kann man jetzt die Befürchtung haben für gute Freesyncmonitore mehr zahlen zu müssen da nun unbedingt noch ein G-Sync Sticker drauf muss...

Loeschzwerg
2019-01-09, 08:48:25
Die Aussage "Kapitulation" ist dennoch falsch. Man öffnet sich weil es jetzt wirtschaftlich sinnvoll wird.

Mangel76
2019-01-09, 08:53:36
Der Bildschirm tut garnichts. Der Treiber und die Karte steuern den Monitor.

Dann verkackt es also doch NVIDIA???

Also ich habe bisher 3 verschiedene WQHD-Freesync-Monitore getestet und mit keinem davon habe ich solche Probleme gehabt, wie dort im Video gezeigt wird. (außer Blurring vielleicht, aber dass ist wohl eher von der Qualität des Panels abhängig und hat nichts mit ASync zu tun) Natürlich waren dass nicht die billigsten und hatten alle eine vernünftige Range (alle bis 144 Hz). Aber ich kann mir auch nicht vorstellen, dass andere Monitore solche Probleme mit AMD-Karten haben. Daher bleibt für mich nur der Schluss, dass NVIDIA hier entweder es nicht hinkriegt oder günstige ASync-Monitore absichtlich schlecht aussehen lässt um sein eigenes GSync umso besser erscheinen zu lassen. Fragt sich nur, was davon schlimmer ist?

Sie kapitulieren natürlich nicht vor Freesync, aber sie beugen sich doch dem Zwang, der durch HDMI 2.1 absehbar ist. Nur dass man es jetzt noch als Wohltat hinstellen kann, während es bei der nächsten GPU-Generation mit HDMI 2.1 dann als erzwungen wahrgenommen worden wäre.

Lehdro
2019-01-09, 08:57:05
Die Aussage "Kapitulation" ist dennoch falsch. Man öffnet sich weil es jetzt wirtschaftlich sinnvoll wird.
Das war es auch vorher ;)
Nur jetzt ist der Druck dazu halt viel größer.

Loeschzwerg
2019-01-09, 09:00:44
War es nicht. Der Start von Freesync war jetzt nicht optimal, da gab es schon ein paar Probleme, je nach Setup. NV hat mit G-Sync auf eine eigene Premium-Lösung gesetzt und kann darauf jetzt aufbauen.


Edit: Sieh es mal so: Als AMD Käufer kann man jetzt die Befürchtung haben für gute Freesyncmonitore mehr zahlen zu müssen da nun unbedingt noch ein G-Sync Sticker drauf muss...

Naja, das liegt ja dann an den Monitorherstellern die das so wollen. Dann müsst IHR halt wieder mit dem Geldbeutel voten ;)

amdfanuwe
2019-01-09, 09:07:42
Da bleib ich bei AMD GPUs. Muß ich mir keinen Kopf machen ob der Monitor unterstützt wird oder nicht.

Gipsel
2019-01-09, 11:00:44
Es gibt kein Standard, der festlegt, wie man sich außerhalb des unterem Bereichs verhalten sollte.Ja, da der Standard schlicht nicht vorsieht, daß der Monitor unterhalb (oder allgemein außerhalb) der von ihm kommunizierten Range angesteuert wird. Die Grafikkarte hat demzufolge sicherzustellen, daß das nicht passiert. ;)
Es gibt vermutlich auch keinen Standard, der festlegt, wie genau sich Dein Handy verhalten sollte, wenn Du ihm über den USB-Anschluß direkt 230V Wechselstrom zuführst. Trotzdem kann ich Dir sagen, daß das vermutlich keine gute Idee für dessen Funktionalität ist und Probleme verursachen könnte ;).

=====================================

Edit @Leonidas:
Die Formulierung im Artikel mit der technischen Basis finde ich etwas unglücklich. Technische Basis sowohl von AMDs FreeSync als auch das was nV jetzt "GSync compatible" nennt, ist natürlich der Adaptive Sync Standard (wo sich AMD vielleicht auf die Fahnen schreiben kann, den ordentlich gepusht zu haben). Im Übrigen wurde schon vor Jahren vorhergesagt (auch hier im Forum), daß nV wohl irgendwann GSync 2.0 oder GSync mit Sternchen oder sonstwas unter dem Label GSync einführen wird, was dann auch mit dem Adaptive Sync Standard kompatibel ist. Genau das ist jetzt passiert (bzw. wird es das in ein paar Tagen). Nicht mehr und nicht weniger. An dem Standard ändert sich auch nichts. Sie drücken also mitnichten ihrerseits irgendwelche technischen Grundlagen durch (weil die Grundlage der VESA Standard ist). Allerhöchstens haben die Monitorhersteller jetzt einen zusätzlichen Anreiz, bessere Monitore rauszubringen (um die wohl strikteren Testkriterien für das "GSync compatible"-Logo zu bestehen) ;).

Gipsel
2019-01-09, 11:34:26
Zum Video - wenn ich den Typen richtig verstanden habe, wurde ihm seitens nVidia gesagt, dass bei Monitor 4 auch eine AMD Grafikkarte ein solches Flackern verursachen würde...

Auf einem FreeSync Monitor würde eine AMD Karte ebenfalls solch ein Flackern verursachen? Kann ich mir jetzt beim besten Willen nicht vorstellen. Warum sollten sie?

Ein Kommentar unter dem Video unterstellt dem nVidia Treiber, den Monitor auch unterhalb seines FreeSync Bereichs von 50Hz zu "syncen", während bei AMD der Sync dann schlicht unterhalb von 50 Hz deaktiviert ist.

Kann ich nicht beurteilen, klingt aber nach einer möglichen Erklärung...
Dann verkackt es also doch NVIDIA???Also falls die keinen kaputten Monitor erwischt haben (sowas ist ja im Prinzip immer möglich) oder einen, der seine Range falsch per EDID kommuniziert (gibt da angeblich ein paar Fälle, die AMD übrigens dann per Treiber wieder hinbiegt), sieht das tatsächlich schon etwas danach aus. Auch weil das Flackern aufhört, als er am Ende des Videos die Maus bewegt und sich dadurch vermutlich die Framerate etwas ändert. Da kann man sich des Eindrucks nicht ganz erwehren, daß es da ab und zu Frametime-Spikes gab, die etwas länger als das maximale Refreshintervall des Monitors waren (die der eigentlich an die Grafikkarte kommuniziert und es Aufgabe derselben ist, sich dran zu halten), was dann zu den kurzen Blackouts führte.
Wie andere schon bemerkt haben, kann man so ein Verhalten auch mit AMD-GPUs im FreeSync-Betrieb triggern (wie die Blackouts genau aussehen, kann sich zwischen verschiedenen Monitoren unterscheiden [einige werden auch gleich für 2s schwarz]), wenn man die Range zu stark nach unten erweitert. Also z.B. bei einem 60-144Hz Monitor (Refreshintervall zwischen 6,9 und 16,7ms) als untere Grenze einfach mal 30Hz (33,ms maximales Refreshintervall) per CRU einträgt und den dann auch so langsam füttert. Da ist es dann halbwegs wahrscheinlich, daß der irgendwann z.B. unter 50Hz (also bei 20ms Refreshintervall) aussteigt. Aber das ist dann eben ein Betrieb außerhalb der Specs (den die Grafikkarte durch nicht standardgemäße Ansteuerung zu verantworten hat).
Kann sich noch wer dran erinnern, als mit mobilen Maxwell-GPUs mal GSync auf Notebook-Displays per Mod aktiviert wurde? Da gab es diese Blackouts bei Unterschreiten der Minimalfrequenz des Displays wohl auch. :rolleyes:

Edit:
Sieht so aus, als wenn es tatsächlich ein paar Monitore gibt, bei denen es der Hersteller offenbar versiebt hat und die somit tatsächlich zu solchen Flacker-Aktionen bevorzugt am unteren Ende der Range neigen (und per Treiber biegt es AMD dann anscheinend auch nur punktuell wieder hin, also nicht flächendeckend).

Leonidas
2019-01-09, 11:35:21
Allerhöchstens haben die Monitorhersteller jetzt einen zusätzlichen Anreiz, bessere Monitore rauszubringen (um die wohl strikteren Testkriterien für das "GSync compatible"-Logo zu bestehen) ;).


Genauso so und nicht anders meinte ich das auch.

Gipsel
2019-01-09, 11:40:20
Genauso so und nicht anders meinte ich das auch.Es liest sich bloß etwas anders ;). NV übernimmt die Führerschaft beim Marketing ihres Namens für ihre Umsetzung von Adaptive Sync, nicht die technische Führerschaft in der Frage zwischen GSync-compatible und Adaptive Sync/FreeSync (und wenn das im Thread verlinkte Video die Wirklichkeit widerspiegeln sollte [was ich noch nicht ganz glaube], wäre es wohl technisch eher im Rückstand, weil man die untere Grenze der Range nicht zuverlässig einhalten kann). Und schon die Überschrift ist mißverständlich: "Gsync compatible" vereint nie und nimmer zwei konkurrierende Sync-Standards (Gsync und Adaptive Sync), da es schlicht den Support von Adaptive Sync seitens nV beschreibt (das Testprogramm, damit jemand seinen Monitor mit dem Logo bekleben darf, ist kein Standard [auch wenn z.B. eine klare Kennzeichnung der Features von Async-kompatiblen Monitoren wie der Range schon wünschenswert ist]).

Klevapalis
2019-01-09, 11:48:07
Ich schreibe genau das wird den Monitorherstellern ausreichen, warum sollten Sie dann mehr Geld für das Ultimate-Zertifikat ausgeben.
Kein Beleg, keine Quelle - wahrscheinlich Bullshit die Behauptung.

Nvidia macht hier gutes Marketing, was nicht heisst, dass wir Foristen oder noch schlimmer die Presse das Marketing mit machen sollte und das was bisher Adaptiv Sync hieß als VESA Standard, umbenennen und plötzlich "Gsync-kompatible" nennt. Etiketten-Klau durch Marketing ist ja nichts neues - folgen muss man dem nicht.
Ich finde Massen an Postings von dir, in denen du von "FreeSync" sprichst, allerdings keines, in dem du das identische Vorgehen von AMD kritisiert hast. Selbst im weiteren Posting bejubelst du plötzlich das identische vorgehen durch AMD - wie kommt diese völlig unterschiedliche Wertung zustande?

Troyan
2019-01-09, 12:03:13
Ja, da der Standard schlicht nicht vorsieht, daß der Monitor unterhalb (oder allgemein außerhalb) der von ihm kommunizierten Range angesteuert wird. Die Grafikkarte hat demzufolge sicherzustellen, daß das nicht passiert. ;)
Es gibt vermutlich auch keinen Standard, der festlegt, wie genau sich Dein Handy verhalten sollte, wenn Du ihm über den USB-Anschluß direkt 230V Wechselstrom zuführst. Trotzdem kann ich Dir sagen, daß das vermutlich keine gute Idee für dessen Funktionalität ist und Probleme verursachen könnte ;).


Aha. nVidia soll jetzt also die Probleme fixen, die durch den Standard eingeführt worden sind...

Es ist die Aufgabe von VESA den Standard so zu definieren, dass vor Allem dieses Flackern nicht auftreten darf. Das ist deren Job und nicht die Aufgabe der Quelle nun alle Vorkehrungen treffen zu müssen, weil der Hersteller des Empfängers nicht auf die entsprechende Qualität geachtet hat. Woher soll die Quelle auch ohne weitere Informationen wissen, in welchem Bereichen und unter welchen Bedingungen die Monitore anfangen zu flackern?

Mangel76
2019-01-09, 12:26:36
Aha. nVidia soll jetzt also die Probleme fixen, die durch den Standard eingeführt worden sind...

Es ist die Aufgabe von VESA den Standard so zu definieren, dass vor Allem dieses Flackern nicht auftreten darf. Das ist deren Job und nicht die Aufgabe der Quelle nun alle Vorkehrungen treffen zu müssen, weil der Hersteller des Empfängers nicht auf die entsprechende Qualität geachtet hat. Woher soll die Quelle auch ohne weitere Informationen wissen, in welchem Bereichen und unter welchen Bedingungen die Monitore anfangen zu flackern?

So ein Quatsch! Wenn der Standard vorsieht, dass die Bilder in einem bestimmten (monitorabhängigen) Zeitintervall refresht werden, so hat sich der Zuspieler an dieses Intervall zu halten. Wenn NVIDIA unterhalb der Mindestrate refresht, dann ist das NVIDIAs Problem, nicht dass des Standards. AMD-Karten kennen doch auch den zulässigen Bereich (kann man sich im Treiber ansehen), warum also NVIDIA nicht???

Klevapalis
2019-01-09, 12:28:45
Wenn NVIDIA unterhalb der Mindestrate refresht, dann ist das NVIDIAs Problem, nicht dass des Standards. AMD-Karten kennen doch auch den zulässigen Bereich (kann man sich im Treiber ansehen), warum also NVIDIA nicht???
Bitte Mal einen Beleg für diese These. Klingt stark an den Haaren herbeigezogen.

Troyan
2019-01-09, 12:44:29
Monitore haben keine Probleme mit niedrigen Hz-Einstellungen. Selbst LCD-Fernsehrgeräte von vor 10 Jahren können sauber 23,976hz/24Hz/30Hz ohne Flackern darstellen.

Das Problem liegt an Adaptive-Sync und wie die Geräte sich verhalten. Und das ist etwas, was nur durch die Spezifikation gelöst werden kann.

Mangel76
2019-01-09, 13:13:54
Bitte Mal einen Beleg für diese These. Klingt stark an den Haaren herbeigezogen.
Ich dachte, so war die Aussage zum Grund für derartiges Verhalten???

Wenn die Ansteuerung aber korrekt erfolgt und es trotzdem zum Flackern kommt, dann ist es der Monitor, der sich nicht an den Standard hält und kein Problem des Standards!

hier die Aussagen von Gipsel:

Ja, da der Standard schlicht nicht vorsieht, daß der Monitor unterhalb (oder allgemein außerhalb) der von ihm kommunizierten Range angesteuert wird. Die Grafikkarte hat demzufolge sicherzustellen, daß das nicht passiert.

und
Also falls die keinen kaputten Monitor erwischt haben (sowas ist ja im Prinzip immer möglich) oder einen, der seine Range falsch per EDID kommuniziert (gibt da angeblich ein paar Fälle, die AMD übrigens dann per Treiber wieder hinbiegt), sieht das tatsächlich schon etwas danach aus. Auch weil das Flackern aufhört, als er am Ende des Videos die Maus bewegt und sich dadurch vermutlich die Framerate etwas ändert. Da kann man sich des Eindrucks nicht ganz erwehren, daß es da ab und zu Frametime-Spikes gab, die etwas länger als das maximale Refreshintervall des Monitors waren (die der eigentlich an die Grafikkarte kommuniziert und es Aufgabe derselben ist, sich dran zu halten), was dann zu den kurzen Blackouts führte.

Klevapalis
2019-01-09, 13:43:04
Ich dachte, so war die Aussage zum Grund für derartiges Verhalten???
Ich sehe immer noch keinen Beleg von dir.

Warum sollte der Monitor nicht auch oberhalb der MinRate anfangen zu flackern? Mit Radeons besteht das Problem wie gesagt genauso.

Complicated
2019-01-09, 14:31:51
Ich finde Massen an Postings von dir, in denen du von "FreeSync" sprichst, allerdings keines, in dem du das identische Vorgehen von AMD kritisiert hast. Selbst im weiteren Posting bejubelst du plötzlich das identische vorgehen durch AMD - wie kommt diese völlig unterschiedliche Wertung zustande?
Das liegt daran, dass AMD mit seinem vorgehen keinen proprietären Standard durchdrücken will um die Kunden abzuzocken. Das sollte als Begründung wohl ausreichen und ebenfalls dafür Gsync im Prinzip schon abzulehnen. Mehr dazu in diesem Thread von 2015: *GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync

Klevapalis
2019-01-09, 15:47:48
Das liegt daran, dass AMD mit seinem vorgehen keinen proprietären Standard durchdrücken will um die Kunden abzuzocken.
FreeSync ist nichts weiter als ein proprietäres Label wie G-Sync. Markenrechte liegen bei AMD.

Warum ist es also bei AMD in Ordnung auf einen Standard das eigene Marketinglabel zu drucken, bei NVIDIA nicht? Du bist der Grundfrage ziemlich plump ausgewichen. Sicherlich nicht ohne Grund :P

aufkrawall
2019-01-09, 15:56:27
Monitore haben keine Probleme mit niedrigen Hz-Einstellungen. Selbst LCD-Fernsehrgeräte von vor 10 Jahren können sauber 23,976hz/24Hz/30Hz ohne Flackern darstellen.

Das Problem liegt an Adaptive-Sync und wie die Geräte sich verhalten. Und das ist etwas, was nur durch die Spezifikation gelöst werden kann.
Das ist kompletter Kokolores. Nur weil einige Fernseher es können, gilt das nicht automatisch für Monitore. Ich habe bei zig Monitoren niedrige fixe Refreshraten via Edid ausprobiert und es zeigt sich auch komplett ohne VRR ständig problematisches Verhalten.

Du ziehst hier einfach eine ganz billige Propaganda-Show ab, indem du versuchst, Schwächen von Paneln und Scalern irgendwie auf FreeSync abzuwälzen, um dem Gsync Modul-Schwachsinn im Nachhinein noch irgendeine Art der Legitimation zukommen zu lassen...

MadManniMan
2019-01-09, 16:01:22
Könnten wir die Beschuldigungen zurückfahren und anfangen Artikel zu sammeln, die sich systematisch und nachvollziehbar mit ASync-Monitoren auf Radeons wie Geforces beschäftigen, please?

Troyan
2019-01-09, 16:03:28
Das ist kompletter Kokolores. Nur weil einige Fernseher es können, gilt das nicht automatisch für Monitore. Ich habe bei zig Monitoren niedrige fixe Refreshraten via Edid ausprobiert und es zeigt sich auch komplett ohne VRR ständig problematisches Verhalten.

Einige Fernseher? Wow. Mein Toshiba ZL1 von 2011 hatte schon null Probleme mit 23,976hz.


Du ziehst hier einfach eine ganz billige Propaganda-Show ab, indem du versuchst, Schwächen von Paneln und Scalern irgendwie auf FreeSync abzuwälzen, um dem Gsync Modul-Schwachsinn im Nachhinein noch irgendeine Art der Legitimation zukommen zu lassen...

4K 60Hz G-Sync Panels laufen mit 30Hz. Da gibt es kein Flimmern. Auch das erste G-Sync Modul mit festem Intervall von 30Hz bis 144Hz hatte kein Flimmern bei Spielen sondern einzig nur bei Ladebildschirme mit 0FPS.

Wieso ist das Flackern also bei Adaptive-Sync Monitoren soviel mehr verbreitet?

Klevapalis
2019-01-09, 16:06:34
Wieso ist das Flackern also bei Adaptive-Sync Monitoren soviel mehr verbreitet?
Weil AdaptiveSync ursprünglich nie für den Einsatz framegenaues gaming gedacht war. Egal, was die ganzen Trolle hier Forum behaupten.

Deshalb hat NVIDIA auch G-Sync entwickelt. Denen war ganz klar, dass der VESA-Standard nicht reicht.

aufkrawall
2019-01-09, 16:06:55
Wieso flackert mein PLS-Panel bei <40Hz? Wieso steigen auch ohne VRR manche Scaler bei zu niedriger Refreshrate mit Bildfehlern aus?
Was du da als allgemeingültig zu wissen glaubst, ist schlicht falsch. Hardware-Gsync hat viele Probleme schlicht deshalb nicht, weil es überhaupt nur eine extrem begrenzte Anzahl an Paneln in solchen Monitoren gibt, und die Scaler-Funktionalität halt teilweise durchs Modul ersetzt wurde. Trotzdem gibt es Panel und Scaler, die auch ohne Modul voll VRR-tauglich sind.

Mangel76
2019-01-09, 16:07:10
Ich sehe immer noch keinen Beleg von dir.

Warum sollte der Monitor nicht auch oberhalb der MinRate anfangen zu flackern? Mit Radeons besteht das Problem wie gesagt genauso.

Weil es dann ein Problem des Monitors ist und kein Problem des Standards??? Was kann der Standard dafür, wenn er nicht korrekt umgesetzt wird???

Klevapalis
2019-01-09, 16:10:40
Weil es dann ein Problem des Monitors ist und kein Problem des Standards??? Was kann der Standard dafür, wenn er nicht korrekt umgesetzt wird???
Danke, du hast genau das Problem erkannt, warum NVIDIA eine extra Zertifizierung erfunden hat :up:

AdaptiveSync/FreeSync sind schlicht unzureichend.

Trotzdem gibt es Panel und Scaler, die auch ohne Modul voll VRR-tauglich sind.
Bestreitet doch niemand.

Fakt ist nur: Mit den bekannten Labeln erkennt man diese Modelle nicht.

Gipsel
2019-01-09, 16:13:39
Weil AdaptiveSync ursprünglich nie für den Einsatz framegenaues gaming gedacht war.Das ist völliger Schwachsinn.
Adaptive Sync ist dazu gedacht, den Refresh des Monitors mit dem Bufferflip auf der Grafikkarte zu synchronisieren, wobei der Bufferflip als Trigger des Refreshes dient. Und das in allen Szenarien, also natürlich auch Gaming (was die offensichtliche Anwendung ist, bei denen variable Frametimes vorkommen und man niedrige Latenz wünscht).

edit:
AdaptiveSync/FreeSync sind schlicht unzureichend.Das ist schlicht falsch, wenn Du damit den Adaptive Sync Standard meinst.
Mit den bekannten Labeln erkennt man diese Modelle nicht.Yay, ein neues Label wird uns retten!
Für das Bauen und Vermarkten ihrer Monitore sind eigentlich immer noch die jeweiligen Hersteller zuständig. Wenn die das öfter mal nicht auf die Kette bekommen, ist jetzt kein Argument gegen Adaptive Sync.

aufkrawall
2019-01-09, 16:13:44
Gsync ist ebenfalls kein Garant für problemloses VRR:
https://www.youtube.com/results?search_query=gsync+flicker

Klevapalis
2019-01-09, 16:20:21
Das ist völliger Schwachsinn.
Echt Schwachsinn, was so im eDP Standard von 2009 drin steht. Version 1.1. Dort läuft die Implementierung von AdaptiveSync rein unter Energiespargründen.

Das ist schlicht falsch, wenn Du damit den Adaptive Sync Standard meinst.
Na dann Schieß Mal los, wie es denn dann sein kann, dass ein Monitor mit AdaptiveSync in seinen erlaubten VRR-Ranges anfängt zu flackern. Wie kann das sein?

aufkrawall
2019-01-09, 16:23:10
Hersteller hat Mist gebaut, simple as that.

Gipsel
2019-01-09, 16:35:44
Echt Schwachsinn, was so im eDP Standard von 2009 drin steht. Version 1.1. Dort läuft die Implementierung von AdaptiveSync rein unter Energiespargründen.Und nutzt Du eDP zum Anschluß Deiner Monitore? :rolleyes:
Der Adaptive Sync Standard für DP (hieß das für eDP überhaupt schon Adaptive Sync?) ist von 2014 und zu dem Zweck da, wie ich ihn beschrieb. Ich sag' doch, Du erzählst Schwachsinn.
Na dann Schieß Mal los, wie es denn dann sein kann, dass ein Monitor mit AdaptiveSync in seinen erlaubten VRR-Ranges anfängt zu flackern. Wie kann das sein?AufKrawall hat Dir die Antwort ja schon gegeben: schrottiger Monitor, der seine Specs nicht einhält. Was das mit Adaptive Sync zu tun haben soll, weißt Du noch nicht mal selber.

Munin
2019-01-09, 16:44:47
Der Adaptive Sync Standard für DP (hieß das für eDP überhaupt schon Adaptive Sync?) ist von 2014 und zu dem Zweck da, wie ich ihn beschrieb. Ich sag' doch, Du erzählst Schwachsinn.
Er hat Recht, die AdaptiveSync-Technologie stamm aus dem eDP Standard von 2009 und wurde einfach nur in den normalen DP-Standard 1.2 in 2014 übernommen:
Adaptive-Sync ist bereits seit 2009 Bestandteil des von der VESA standardisierten embedded DisplayPort (eDP).
https://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html

PS: Warum muss man als Moderator so aggressiv auftreten? Gerade, wenn man so im Unrecht ist? :rolleyes:

Gast
2019-01-09, 16:46:12
Aber diese üble Flackern sieht einfach so schlecht um wahr zu sein aus.

Google kaputt?

https://www.google.com/search?q=freesync+flackern

Gast
2019-01-09, 16:51:31
Mehr dazu in diesem Thread von 2015: *GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync

Das wurde schon damals als Unsinn entlarvt, weil Laptops gar keinen Scaler haben sondern die Ansteuerung des Panels direkt über die GPU erfolgt.
DP existiert hier gar nicht, also auch kein DP1.2a.

Freestaler
2019-01-09, 17:14:30
Und trotzdem wurde adaptivSync 2014 in DP nicht für stromsparen definiert sondern eben für die variable frame ausgabe. Soll man den das Rad neuerfinden? Echt, und bringt mal bitte stichhaltig die Fehler des Standards und nicht der Herstellerumsetzung. 1000fach in der Praxis geht es. Und schlechte implementierungen gibts ja auch bei gsync monitoren. Tut also nicht so, als ob es nicht an den Monitorhersteller liegen kann. Scheingeilersch* fantroll sh*

Freestaler
2019-01-09, 17:16:25
Google kaputt?

https://www.google.com/search?q=freesync+flackern

Bei dir auch?
https://www.google.com/search?q=gsync+flackern

*TrollmodeOff*

Troyan
2019-01-09, 17:29:36
Das ist das typische 0FPS Flackern. Das ist nicht vergleichbar mit dem, was nVidia im Video gezeigt hat.

Complicated
2019-01-09, 17:38:17
FreeSync ist nichts weiter als ein proprietäres Label wie G-Sync. Markenrechte liegen bei AMD.

Na und? Das ist lediglich die Bezeichnung des AMD Treibers und der ist nun mal proprietär. Es ist für alle beteiligten kostenlos umd verwendet den VESA Standard. Nur manche kapieren die Zusammenhänge halt nie und verbreiten jedesmal den selben Quatsch. Ebenso verwenden AMD und Nvidia für die selben Funktionen eigene Namen der Implementierung so ziemlich bei jedem Feature, das irgendwie gut vermarktet werden kann

Complicated
2019-01-09, 17:42:14
Das wurde schon damals als Unsinn entlarvt, weil Laptops gar keinen Scaler haben sondern die Ansteuerung des Panels direkt über die GPU erfolgt.
DP existiert hier gar nicht, also auch kein DP1.2a.
Die VRR Funktion liegt auch nicht im Scaler
Und damals wurde das nicht als Unsinn entlarvt sondern als Beweis angesehen, dass keine neuen Scaler benötigt werden für VRR wie Nvidia das behauptet hat. Die Anbindung der Displays erfolgt intern auch über eDP wo Adaptiv Sync eben enthalten ist. Hier DP 1.2a, eine externe Schnittstelle, anzuführen zeugt von mangelndem Verständnis des Standards.

Du hättest den Thread mal lesen sollen bevor du dich dazu äusserst.

Munin
2019-01-09, 17:44:44
Es ist für alle beteiligten kostenlos umd verwendet den VESA Standard.
Was Beides ebenfalls auf "G-Sync compatible" zutrifft. Deine Kritik an NVIDIA ist also tatsächlich an den Haaren herbeigezogen, es gibt keinerlei Unterschied.

Zumal deine Aussage
Ich schreibe genau das wird den Monitorherstellern ausreichen, warum sollten Sie dann mehr Geld für das Ultimate-Zertifikat ausgeben.
du dir damit wohl schlicht aus dem Arsch gezogen hast.

Warum auch immer. Mir nicht ganz verständlich, warum man sich in Foren anmeldet, um dann irgendwelche Märchen sich auszudenken und zu posten.

Nur manche kapieren die Zusammenhänge halt nie und verbreiten jedesmal den selben Quatsch.
Und manche Anderen denken sich Lügen aus ;)

Gipsel
2019-01-09, 18:15:43
Er hat Recht, die AdaptiveSync-Technologie stamm aus dem eDP Standard von 2009 und wurde einfach nur in den normalen DP-Standard 1.2 in 2014 übernommen:

https://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.htmlNur weil etwas irgendwo steht, stimmt das auch nicht immer so ganz genau.
Richtig ist, daß mit eDP Änderungen der Refreshraten optional ohne Modechange im Prinzip schon vorher möglich waren und Adaptive Sync das selbe Funktionsprinzip benutzt, wie dort vorgesehen (das macht GSync im Prinzip übrigens auch, alle nutzen vBlank-Intervalle variabler Länge ;)). Aber meine Frage lautete, ob es 2009 im eDP-Standard "Adaptive Sync" hieß und meine Aussage war, daß Adaptive Sync natürlich für den von mir aufgeführten allgemeinen Zweck gedacht war. Die VESA-Pressemeldung nennt Gaming als allerersten Anwendungsfall. Insofern ist die Aussage von Klevapalis (daß Adaptive Sync nicht für Gaming gedacht ist) schlicht Blödsinn.

Munin
2019-01-09, 18:26:55
Aber meine Frage lautete, ob es 2009 im eDP-Standard "Adaptive Sync" hieß und meine Aussage war, daß Adaptive Sync natürlich für den von mir aufgeführten allgemeinen Zweck gedacht war.
Ja, hieß es bereits. Und die Spezifikation entspricht 1:1 der, die 2014 in die normale DP-Spezifikation übernommen wurde.

Und dass die Technologie im eDP eingeführt wurde, zeigt doch schon, dass der Grund sicherlich NICHT Gaming ist ;)

Daher mal meine Frage: Hast du die VESA-Specs von eDP v1.1 von 2009 und von DP v12 von 2014 vorliegen?

edit: Die Pressemeldung bezüglich Gaming im eDP-Protokoll von 2009 verlinkst du dann mal?

Gipsel
2019-01-09, 18:38:00
Ja, hieß es bereits. Und die Spezifikation entspricht 1:1 der, die 2014 in die normale DP-Spezifikation übernommen wurde.

Und dass die Technologie im eDP eingeführt wurde, zeigt doch schon, dass der Grund sicherlich NICHT Gaming ist ;)

Daher mal meine Frage: Hast du die VESA-Specs von eDP v1.1 von 2009 und von DP v12 von 2014 vorliegen?Offenbar hast Du die ja, da Du behauptest, es würde dort schon so heißen. Mach doch mal einen Screenshot davon und stelle das hier rein!
edit: Die Pressemeldung bezüglich Gaming im eDP-Protokoll von 2009 verlinkst du dann mal?Die VESA-Pressemeldung zu Adaptive Sync ist vom 12. Mai 2014. (https://vesa.org/featured-articles/vesa-adds-adaptive-sync-to-popular-displayport-video-standard/) Im Jahre 2009 gibt es keine dazu (weil es noch nichts mit dem Namen Adaptive Sync gab?). :wink:

Die Pressemeldung sagt, daß die grundlegende Technik im Prinzip per eDP schon vorher verfügbar war (das bestreitet ja auch keiner, auch wenn eDP eine vergleichsweise lockere Spec ist und da viele Optionen und Möglichkeiten bestehen, davon abzuweichen). Heißt das jetzt, daß GSync (was wie gesagt auch variable vBlank-Intervalle nutzt) ebenfalls eigentlich nur zum Stromsparen taugt? :rolleyes:
Oder anders: Adaptive Sync nutzt bereits mit eDP 1.0 vorgesehene Features, um eben den gewünschten Effekt zu ermöglichen. Das bedeutet nicht, daß dies irgendwie limitierend auf diesen gewünschten Effekt wirkt.

Dorn
2019-01-09, 19:34:33
Ist es eigentlich möglich das ein Gsync Monitor nachträglich auch adaptiv Sync mit AMD Grafikkarten kann. Oder geht dies rein technisch garnicht?

Effe
2019-01-09, 19:38:40
Technisch wird es wohl möglich sein, dann musst Du aber über den Treiber Zugriff auf das G-Sync Modul erlangen, was ziemlich ausgeschlossen sein sollte.
Das Modul ersetzt zu großen Teil die "normale" Steuerungstechnik der Monitore. Das macht diese auch so lächerlich teuer.

Complicated
2019-01-09, 21:05:44
Was Beides ebenfalls auf "G-Sync compatible" zutrifft. Deine Kritik an NVIDIA ist also tatsächlich an den Haaren herbeigezogen, es gibt keinerlei Unterschied.zunächst einmal habe ich nicht behauptet es gäbe einen Unterschied...daher auch nichts an den Haaren herbei gezogen.


du dir damit wohl schlicht aus dem Arsch gezogen hast.Was wohl dein mangelndes Textverständis offenbart. Woher nimmst du eine Meinung die du dir bildest? Aus dem Ohr?

Warum auch immer. Mir nicht ganz verständlich, warum man sich in Foren anmeldet, um dann irgendwelche Märchen sich auszudenken und zu posten.


Und manche Anderen denken sich Lügen aus ;)Du scheinst so einiges nciht verstanden zu haben in meinem Beitrag. Gut dass du es zumindest merkst. Erstaunlich ist dass es dich nicht davon abhält mal einfach etwas das du nicht verstanden hast als Lüge zu bezeichnen.

Munin
2019-01-09, 21:19:49
Offenbar hast Du die ja, da Du behauptest, es würde dort schon so heißen. Mach doch mal einen Screenshot davon und stelle das hier rein!Also kurz: Nein.

Die VESA-Pressemeldung zu Adaptive Sync ist vom 12. Mai 2014. (https://vesa.org/featured-articles/vesa-adds-adaptive-sync-to-popular-displayport-video-standard/) Im Jahre 2009 gibt es keine dazu (weil es noch nichts mit dem Namen Adaptive Sync gab?).
Schade, dass du deinen eigenen Link nicht liest:
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. As a result, Adaptive-Sync technology is already incorporated into many of the building block components for displays that rely on eDP for internal video signaling.
Mehr brauchen wir da also wohl nicht zu diskutieren. Klevapalis hat da völlig Recht. Wahrscheinlich auch (wie ich) die DP Spezifikationen vor sich. Dann muss man natürlich nicht einfach herum raten.

Ist es eigentlich normal, dass man als Mod zu einer Urheberrecht- und Lizenzverletzung aufruft? :rolleyes:

zunächst einmal habe ich nicht behauptet es gäbe einen Unterschied...daher auch nichts an den Haaren herbei gezogen.
Dann bliebe der Punkt von Klevapalis ja erhalten:

Warum hast du für das gleiche Vorgehen nie Kritik an AMD geübt?

Was wohl dein mangelndes Textverständis offenbart. Woher nimmst du eine Meinung die du dir bildest? Aus dem Ohr?
In einem anderen Thread war leider ein Link zu TomsHW(.de), in der klar stand, dass die Zertifizierung für G-Sync kostenlos ist. Dies steht diamentral deiner Behauptung von https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11894485&postcount=9hier gegenüber:
Ich schreibe genau das wird den Monitorherstellern ausreichen, warum sollten Sie dann mehr Geld für das Ultimate-Zertifikat ausgeben.
Da du dafür keinen Beleg hast (haben kannst), muss diese Behauptung ja irgendwo her kommen. Mehr fällt mir aktuell als Möglichkeit nicht ein.

Übrigens lagst du fast richtig: Aus zwischen den Ohren ;D

Complicated
2019-01-09, 23:33:29
Dann bliebe der Punkt von Klevapalis ja erhalten:

Warum hast du für das gleiche Vorgehen nie Kritik an AMD geübt?

Wieso weil du den Thread nicht liest?
Das liegt daran, dass AMD mit seinem vorgehen keinen proprietären Standard durchdrücken will um die Kunden abzuzocken. Das sollte als Begründung wohl ausreichen und ebenfalls dafür Gsync im Prinzip schon abzulehnen. Mehr dazu in diesem Thread von 2015: *GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync


Du willst sagen die Monitor-Hersteller müssen Nvidia nichts bezahlen bisher für die GSync-Implementierung?

Complicated
2019-01-09, 23:35:13
Übrigens lagst du fast richtig: Aus zwischen den Ohren ;D
Also eine erfundene Phantasie...ja gar eine Lüge? Welch eine Argumentation....:freak:

Gipsel
2019-01-10, 10:34:27
Also kurz: Nein.Du kannst es also nicht? Okay.
Schade, dass du deinen eigenen Link nicht liest:Schade, daß Du meinen Post nicht liest. Da gehe ich nämlich drauf ein. ;)
Mehr brauchen wir da also wohl nicht zu diskutieren. Klevapalis hat da völlig Recht. Wahrscheinlich auch (wie ich) die DP Spezifikationen vor sich. Dann muss man natürlich nicht einfach herum raten.Beweis durch Behauptung? Ich sehe.
Ist es eigentlich normal, dass man als Mod zu einer Urheberrecht- und Lizenzverletzung aufruft? :rolleyes:Als Lizenznehmer darf man den Standard nicht verteilen, aber das habe ich ja auch gar nicht gefordert. Aber kleine Zitate wie sowas:
https://abload.de/img/dp_toc_smalldjdpm.png
sind durchaus okay (und Du könntest damit Deinen Punkt belegen).