PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 14./15. Januar 2019


Leonidas
2019-01-16, 10:26:03
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-januar-2019

MadManniMan
2019-01-16, 11:43:23
Danke für die Monitor-Tabelle :up:

Wäre super, würde die weiter gepflegt!

Gast
2019-01-16, 11:43:52
Was mich bei diesen Darstellungen immer wundert:

Navi soll im gleichem Prozess wie VEGA7 mit weniger Speicherbandbreite,kleinerem CHip,weniger TDP und klarer Aussrichtung auf den Volumenmarkt die bisherige Highendlösung ersetzen am besten sogar überflügeln?

Das Ganze basiert auf einer einzigen Aussage aus einem Forum wird aber gern verbreitet wie als quasi gesetzt.

Blicken wir mal ein paar Jahre zurück ,da hatten wir eine ähnliche Situation beim Erscheinen von Polaris , dieser ist nicht wirklich an die Fury ( die 980Ti lief hier schon weit ausser Konkurenz ) heran gekommen trotz Sprung von 28 auf 14nm , trotz mehr Speicher und verbesserter Arch und erreichte mit dieserüberlegener Fertigung gerade so Maxwell Effizienz.

Ich denke Navi wird genauso wie damals Polaris als zu "rosig" gesehen und mit zu hohen Erwartungen.
Wenn man von der RX 590 als aktuelle Volumenlösunge ausgeht und den Full HD Index zur Hand nimmt bräuchte es für RTX2080 Level glatt eine Performanceverdoppelung , solche Sprünge sind gerade im Hinblick darauf das der Chip klein, relativ billig und in einem TDP Korset ~ 150W liegen sollte nicht gerade naheliegend. Besonders wenn man sieht das Vega in 7nm schon gezeigt hat das 7nm nicht automatisch AMDs Probleme lösen wird.

Gast
2019-01-16, 12:23:55
Man wirft doch schon in nächster Zeit CPUs und Chipsetätze in den Konsumermarkt die PCIe4 unterstützen und jetzt kastriert man kurz vorher seine eigenen GPUs. Guter Witz, bei AMD hat man leider, oder besser in dem Fall nicht, die große blinde Fanbase die sich dann ein paar Monate später noch mal eine neue GPU als refresh mit PCIe4 kauft. Kundenverarschung in Bestform, man lernt von den großen.

Complicated
2019-01-16, 12:27:22
Und genau da bekommt man den Eindruck eines Fanboys von NVIDIA:

der Qualitätsmaßstab von nVidia ist auch bei "G-Sync Compatible" einfach höher, als es die (minimalen) technischen Spezifikationen von FreeSync vorschreiben.
Den Nonsens verbreitet Nvidia seit Einführung von Gsync. Der Qualitätsstandard von Nvidia kann nicht höher sein wenn weniger Geräte kompatibel sind zu ihren GPUs und Treibern sind. Er ist deutlich schlechter da die Modell-Auswahl begrenzt ist. Dass mit Monitoren von höherer Qualität auch Gsync besser funktioniert ist wohl kaum Nvidias verdienst, solange kein Gsync Modul verbaut ist.

Man sollte hier nicht Nvidias Marketing stützen.

iamthebear
2019-01-16, 12:41:06
Wenn Nvidia einen Monitor als kompatibel einstuft, dann muss der auch voll kompatibel sein und muss den ganzen Testparkour in allen Frameratekonstellationen schaffen.
Ein durchschnittlicher Anwender gibt sich vielleicht mit einem kleinen Mikrohänger auch zufrieden wenn dieser in der Praxis nicht zu häufig auftritt. Von daher stimmt es schon, dass das Limit von Nvidia einfach höher ist.

Was mich interessieren würde ist: Sind die Monitore wirklich so katastrophal dass jeder zweite eine fehlerhafte Implementierung hat und tritt das wie von Nvidia behauptet auch mit AMD Grafikkarten auf?
Oder hat Nvidia hier ein (möglicherweise hardwarebedingtes) Problem?

Birdman
2019-01-16, 12:47:39
Qualitätsmaßstab != Qualitätsstandard

Du solltest deine AMD Brille ablegen, wenn das erkennen des richtigen Wortlautes schwierig wird.
Die von Dir beanstandete Aussage ist zu 100% korrekt und vollkommen objektiv, daher dann auch folgerichtig die nur geringe Kompatibilität von "G-Sync Compatible" zu aktuellen Freesync Monitoren.

Troyan
2019-01-16, 12:53:38
Was mich interessieren würde ist: Sind die Monitore wirklich so katastrophal dass jeder zweite eine fehlerhafte Implementierung hat und tritt das wie von Nvidia behauptet auch mit AMD Grafikkarten auf?
Oder hat Nvidia hier ein (möglicherweise hardwarebedingtes) Problem?

Da nVidia mindesten eine Range von 2,4:1 haben will, fallen doch schon mehr als die Hälfte aller Geräte raus.

Gast Ritis
2019-01-16, 18:03:24
Man wirft doch schon in nächster Zeit CPUs und Chipsetätze in den Konsumermarkt die PCIe4 unterstützen und jetzt kastriert man kurz vorher seine eigenen GPUs. Guter Witz, bei AMD hat man leider, oder besser in dem Fall nicht, die große blinde Fanbase die sich dann ein paar Monate später noch mal eine neue GPU als refresh mit PCIe4 kauft. Kundenverarschung in Bestform, man lernt von den großen.

Beim Gaming sollte alles in den 16GB VRAM passen und die Ladezeiten von PCIe3 nach PCIe4 werden kaum im Unterschied bemerkbar sein, Frameraten jedoch höchstens bei GPUs mit zu wenig VRAM bemerkbar ansteigen wenn das Nachladen während dem Spielen nicht mehr so lange dauert und bremst.

AMD hat wohl einfach Angst, dass die Karte für Compute eingesetzt werden könnte, dort entstehen durch halbe Latenzen und schnellere Anbindung des VRAM schnell Vorteile, der Verkauf der teuren MI50 könnte darunter leiden. Deshalb wohl auch die gekürzte FP64 Leistung am anderen Ende. Bleibt zu hoffen, dass die anderen neuen Features für MI nicht gekürzt werden.
Es soll ja mit DirectX für Machine Learning ab Ostern wieder neues Gadgetfutter geben wo AMD und nVidia sich wieder kloppen können.

Freestaler
2019-01-16, 18:09:19
Jedoch bleibt doch die Frage, wieso die Fehler nur mit NVidia GSync Modus auftreten und nicht mit AMD Freesnyc Graka am gleichen Monitor? Dann ist die Implementierung seitens NVidia doch schlecht? Wenn es der Monitor selbst ist, dann müssten die Fehler auch mit AMD GPU auftauchen.

Mag sein, dass die Liste nun einen hohen Qualitätsstandard erfüllen soll (wo ist dies eigentlich definiert?), nur ist diese im Moment wohl nicht klein weil die Prüfung "hoch/Qualität" verlangt, sondern schlicht, weil die Qualität des NVidia Gsync meistens sch** ist und damit die meistens getesteten "Monitore" natürlich schlecht abschneiden. Ungefähr so, als ob man Monitortest nur mit der Graka macht die nicht mehr als FullHD darstellen kann. Klar haben dann alle Monitore mit mehr als FullHD ein "unscharfes" Bild und fallen durch ausser die 4k Monitore (exakt 4 Mal FullHD und somit wieder exakte Pixel Faktor 4).

Wirklich kritisch hat das noch kein NewsPage angeschaut. Hoffentlich kommt da mal was und nicht nur Marketingmaterial von NVidia (ganz beschämend ist ja der CES NV Aufbau, mit dem Monitor der alle 3 Sekunden ausgeht). Nur dann wird NV nachbessern.

Und zum 2,4 Faktor Range, wieso soll der nun zwingend sein? ist es ja bei GSYNC Monitore bis dato auch nicht. Hat das Nvidia was neues definiert? Z.B https://geizhals.de/acer-predator-xb1-xb321hkbmiphz-um-jx1ee-001-a1367994.html?hloc=de , 1000€ GSync 30 - 60hz...

Troyan
2019-01-16, 18:26:49
Das G-Sync Modul refresht selbstständig. Der Monitor hat keine untere Grenze mit dem Modul. Die Angabe bei Geizhals ist daher falsch.

Freestaler
2019-01-16, 18:42:02
Das G-Sync Modul refresht selbstständig. Der Monitor hat keine untere Grenze mit dem Modul. Die Angabe bei Geizhals ist daher falsch.

Wie muss man dies verstehen? Der Monitor refresht also auch bei 25Hz Ausgabe der Graka, weil dies das GSync Modul kann? Und wieso braucht bei AdaptivSync Faktor 2,4? Die Idee von Snyc (egal ob ASync oder GSync) war ja, dass der Monitor "exakte" Bilder heraus gibt (kein Tearing). Wenn nun das Gsync Modul unter 30hz "Bilder" annimmt, wie soll der den diese ausgeben?

Complicated
2019-01-16, 19:21:07
Qualitätsmaßstab != Qualitätsstandard
Ganz genau. Deshalb ist Nvidia auch nicht der Maßstab sondern sie setzen einen eigenen Standard mit ihren Tests. Siehe präzise Antwort:
Jedoch bleibt doch die Frage, wieso die Fehler nur mit NVidia GSync Modus auftreten und nicht mit AMD Freesnyc Graka am gleichen Monitor? Dann ist die Implementierung seitens NVidia doch schlecht? Wenn es der Monitor selbst ist, dann müssten die Fehler auch mit AMD GPU auftauchen.

Mag sein, dass die Liste nun einen hohen Qualitätsstandard erfüllen soll (wo ist dies eigentlich definiert?), nur ist diese im Moment wohl nicht klein weil die Prüfung "hoch/Qualität" verlangt, sondern schlicht, weil die Qualität des NVidia Gsync meistens sch** ist und damit die meistens getesteten "Monitore" natürlich schlecht abschneiden.
Und da Panel Self Refresh die entscheidende Eigenschaft von Adaptive Sync ist und im eDP-Standard schon in Notebooks vorhanden ist seit 2009 IRC, ist es natürlich Humbug das dem Gsync Modul zuzuschreiben, da alle Freesync-Monitore es eben nicht brauchen.

Man sollte die Qualität der Implementierung daran messen wie viele Mionitore unterstützt werden, solange es ansonsten keine sichtbar besseren Qualitätsunterschiede gibt. Und diesen Beweis hat noch keiner antreten können für Gsync. Daher bei selber Bildqualität zählt die breitere Unterstützung an Monitoren als schlagendes Qualitäts-Argument, da breit anwendbar und nicht zu spezifisch auf bestimmte Hardwareausstattung angewiesen, welche ja an sich die höhere Qualität ist auch ohne Gsync.

Gast Ritis
2019-01-16, 20:18:16
Auch AMD hat einige Monate benötigt um FreeSync mit den vielen Monitormodellen möglichst optimal zum laufen zu bringen.

Dass Nvidia das (noch) nicht schafft zeigt doch nur, dass das eine überhastete Entscheidung war um nicht zu viele Contra Argumente zu liefern. Wahrscheinlich um den hohen Preis der 2060 durchzubringen und weil die RTX Features noch immer eher nutzlos sind.

So langsam müssen wir uns ernsthaft Sorgen machen um die angekündigten DXR und DLSS Software. Gerade DLSS scheint bislang eine reine Luftnummer zu sein und kein aktuelles Spiel wurde gepatched?
Läuft das wenigstens dort oder war das bislang nur eine Demo?

Man wird bei Nvidia wahrscheinlich mit der nächsten RTX Generation nachziehen müssen bevor die 20er Serie das nutzen kann. Man konnte den Eindruck gewinnen die wollten viel schneller sein:

The games that have already been disclosed that will feature real-time ray tracing include:

Assetto Corsa Competizione from Kunos Simulazioni/505 Games
Atomic Heart from Mundfish
Battlefield V from EA/DICE
Control from Remedy Entertainment/505 Games
Enlisted from Gaijin Entertainment/Darkflow Software
Justice from NetEase
JX3 from Kingsoft
MechWarrior 5: Mercenaries from Piranha Games
Metro Exodus from 4A Games
ProjectDH from Nexon’s devCAT Studio
Shadow of the Tomb Raider from Square Enix/Eidos-Montréal/Crystal Dynamics/Nixxes

And the games that will use DLSS include:

Ark: Survival Evolved from Studio Wildcard
Atomic Heart from Mundfish
Dauntless from Phoenix Labs
Final Fantasy XV from Square Enix
Fractured Lands from Unbroken Studios
Hitman 2 from IO Interactive/Warner Bros.
Islands of Nyne from Define Human Studios
Justice from NetEase
X3 from Kingsoft
Mechwarrior 5: Mercenaries from Piranha Games
PlayerUnknown’s Battlegrounds from PUBG Corp.
Remnant: From the Ashes from Arc Games
Serious Sam 4: Planet Badass from Croteam/Devolver Digital
Shadow of the Tomb Raider from Square Enix/Eidos-Montréal/Crystal Dynamics/Nixxes
The Forge Arena from Freezing Raccoon Studios
We Happy Few from Compulsion Games / Gearbox

NVIDIA points out that more titles are on the way as well, but their official support hasn’t been disclosed just yet, so we'll have to wait for those announcements.

Gast
2019-01-16, 23:03:32
Und zum 2,4 Faktor Range, wieso soll der nun zwingend sein? ist es ja bei GSYNC Monitore bis dato auch nicht. Hat das Nvidia was neues definiert? Z.B https://geizhals.de/acer-predator-xb1-xb321hkbmiphz-um-jx1ee-001-a1367994.html?hloc=de , 1000€ GSync 30 - 60hz...


Damit LFC funktioniert.

G-Sync funktioniert damit von 1Hz weg bis zur maximalen Refreshrate des Monitors.

Wenn der Monitor beispielsweise nativ 60-144Hz kann und du gerade 50 FPS hast schickt die Grafikkarte 100Hz mit 2x dem selben Bild.

Wenn der Monitor aber nur 60-100Hz nativ kann, bekommst du ein Problem wenn die Framerate unter 60FPS fällt.
Bei 55FPS müsstest du dann beispielsweise 110Hz schicken, was der Monitor aber nicht kann.

Theoretisch würde das natürlich schon ab einem Faktor 2 funktionieren, dann würdest du aber nahe der unteren Grenze der Refresh range unschönes Stuttering bekommen.

Adaptive Sync funktioniert nämlich unter Ausnützung der Blanking-Time.

Das Bild wird ja nicht als komplettes auf einmal von der Grafikkarte an den Monitor übertragen sondern seriell Pixel für Pixel.

Die Datenrate zwischen Grafikkarte und Monitor bestimmt dabei immer die maximale Wiederholfrequenz, läuft der Monitor also auf 144 Hz werden immer 144Hz übertragen, auch wenn gerade nur 50FPS gerendert werden.

Insofern ist der Hinweis auf den Panel Self Refresh in Laptops nicht ganz richtig. Adaptive Sync baut zwar darauf auf, funktioniert aber durchaus unterschiedlich. Das Ziel beim Panel self refresh ist ja die Datenrate zwischen GPU und Monitor dynamisch zu verringern und damit Energie zu sparen.

Adaptive Sync läuft aber immer mit voller Datenrate und spart damit keinesfalls Energie.

Was passiert ist, dass die Grafikkarte dynamisch die Zeit des Blankings anpassen kann. Die tatsächliche Datenrate zwischen Grafikkarte und Monitor ist nämlich immer etwas höher als für die dargestellte Auflösung notwendig, und der Bereich in dem keine Nutzdaten übertragen werden nennt man Blanking. Anstatt dieses aber fix einzustellen kann die Grafikkarte mit Adaptive Sync ein Signal senden, wann die Übertragung der Pixel startet und wieder endet. Die bits dazwischen werden vom Monitor einfach ignoriert.

Das heißt aber natürlich auch, dass die Übertragung eines neuen Bildes nur beginnen kann, wenn sich der Monitor gerade in der Blanking-Phase befindet.
Der Sinn von Adaptive-Sync ist ja gerade, dass fertig berechnete Bilder sofort ohne Verzögerung gesendet werden können ohne dabei Tearing zu erzeugen.

Hätte man jetzt also nur einen Faktor 2 zwischen niedrigster und höchster Refreshrate, wäre bei einer Framerate nahe der unteren Grenze der Refreshrate, die Wahrscheinlichkeit sehr hoch, dass die Berechnung des nächsten Bildes fertig wird, während gerade Nutzdaten des letzten Bildes zum Monitor fließen.

Man hätte also nur 2 Möglichkeiten:
- Man beginnt trotzdem sofort mit dem Senden des nächsten Bildes --> es gibt wieder Tearing.
- Man verzögert die Übertragung des nächsten Bildes bis das letzte Fertig übertragen ist --> Man hätte die gleiche Verzögerung/Stuttering wie bei herkömmlichen VSYNC On.

Damit ist LFC nur Sinnvoll möglich wenn man ein deutlich größeres Verhältnis als 2 zwischen niedrigster und höchster nativen Refreshrate hat.

Gast
2019-01-17, 01:09:10
Ich lach mich gerade krümmelig Adapt. Sync läuft auf meinem 144 Hz Viewsonic freesyncmonitor mit Ner GTX leicht besser als mit der alten r9 290.
leichtes Brighness Flickerring ( unabhängig vom Hz Bereich ) haben beide, die Radeon aber etwas ausgeprägter in der pendeldemo, tearing gibt's keins rückeln erst ab ca 30 FPS .
Langzeit erträglich ist nur freesync off bei beiden dann ist's verschwunden.

Complicated
2019-01-17, 08:48:09
Insofern ist der Hinweis auf den Panel Self Refresh in Laptops nicht ganz richtig. Adaptive Sync baut zwar darauf auf, funktioniert aber durchaus unterschiedlich. Das Ziel beim Panel self refresh ist ja die Datenrate zwischen GPU und Monitor dynamisch zu verringern und damit Energie zu sparen.Ohne PSR kein LFC. Wo soll das zweite Bild denn sonst her kommen wenn die GPU noch keines geliefert hat?

Freestaler
2019-01-17, 10:14:00
@Gast, Danke für die Ausführung, nur wieso funktioniert LFC bei AMD Karte mit Faktor 2 und bei NVidia wird Faktor 2,4 benötigt? Hast noch immer nicht erklärt. Gemäss deiner Erklärung darf ein Monitor mit Range von 2,01 kein LFC sauber können. Tun sie aber. Ich glaube immer noch, das der Monitor nicht "weiss" ob nun AMD oder NVidia das Bild liefert. Der Monitor kann ja auch keine Bilder aus dem nicht zaubern, egal ob AMD oder NVidia. Er wird das Umsetzen was kommt. Und das gilt auch für die "alten" Gsync Monitore. Wieso geht da das Frame doppeln ohne 2,4 Range?

Troyan
2019-01-17, 10:31:45
Niemand hat 4K G-Sync Monitore gemessen. Der untere Bereich kann also unter 30Hz liegen und somit größer als 2:1 sein.

Ohne PSR kein LFC. Wo soll das zweite Bild denn sonst her kommen wenn die GPU noch keines geliefert hat?

PSR hat eigenen Speicher. Dieser beinhaltet das letzte Bild. Deswegen kann bei PSR auch die Verbindung zwischen GPU und Display unterbrochen werden. PSR wurde dann soweit verbessert, dass nur bestimmte Speicherbereiche überschrieben werden, um den
Datenverkehr zu verringern.

Adaptive-Sync benötigt keinen eigenen Speicher. Hier sendet die GPU aus seinem Speicher das alte Bild erneut.

Gast
2019-01-17, 12:02:06
Ohne PSR kein LFC. Wo soll das zweite Bild denn sonst her kommen wenn die GPU noch keines geliefert hat?

Wie beschrieben, die GPU liefert die Bilder unter der minimalen Refreshrate mehrfach aus.

Gast
2019-01-17, 12:18:30
@Gast, Danke für die Ausführung, nur wieso funktioniert LFC bei AMD Karte mit Faktor 2 und bei NVidia wird Faktor 2,4 benötigt?


Ich habe ja geschrieben, dass es prinzipiell ab einem Faktor 2 funktioniert.
Das geht auch bei Nvidia, unter einem Faktor von 2,4 bekommst du aber kein G-Sync-Logo, und das Ganze ist damit auch nicht automatisch aktiv sondern muss manuell vom User aktiviert werden


Hast noch immer nicht erklärt. Gemäss deiner Erklärung darf ein Monitor mit Range von 2,01 kein LFC sauber können. Tun sie aber.

Wie gesagt, es ist prinzipiell möglich. Es gibt nur in bestimmten FPS-Bereichen Artefakte, die gibt es auch bei AMD. Ich vermute mal, dass man die Übertragung des nächsten Bildes immer erzwingt. Damit gibt es zwar im Zweifelsfall Tearing, was aber weniger wahrnehmbar ist als ein Ruckler im ganzen Bild. Insbesondere mit hoher Refreshrate ist Tearing eh kaum mehr wahrnehmbar.


Ich glaube immer noch, das der Monitor nicht "weiss" ob nun AMD oder NVidia das Bild liefert. Der Monitor kann ja auch keine Bilder aus dem nicht zaubern, egal ob AMD oder NVidia.

Logisch weiß der Monitor das nicht. Es gibt allerdings einige Dinge die mit variabler Refreshrate etwas tricky in der Umsetzung sind, vor Overdrive so hinzubekommen, dass es über den gesamten Bereich gut funktioniert und dabei möglichst wenig Artefakte erzeugt ist nicht so leicht.


Er wird das Umsetzen was kommt. Und das gilt auch für die "alten" Gsync Monitore. Wieso geht da das Frame doppeln ohne 2,4 Range?

Weil da das G-Sync-Modul zwischen Grafikkarte und Panel sitzt.
Die Pixelfrequenz zwischen Modul und Panel ist wesentlich höher als zwischen Grafikkarte und Monitor. Beispielsweise beträgt die Frequenz bei einem 100Hz Monitor zwischen Modul und Panel 300Hz (die Zahlen sind natürlich geraten, ich kenne logischerweise nicht die realen Spezifikationen des Moduls). Das Bild braucht damit also nur 3,33ms vom Modul zum Panel, und die restlichen 6,67ms sind "frei" können also für die doppelte Übertragung der Bilder benutzt werden.

Complicated
2019-01-17, 21:53:43
Adaptive-Sync benötigt keinen eigenen Speicher. Hier sendet die GPU aus seinem Speicher das alte Bild erneut.
Wie beschrieben, die GPU liefert die Bilder unter der minimalen Refreshrate mehrfach aus.
Falsch. Das Bild wird vom Remote Frame Buffer im Display geliefert. Siehe Standard:

http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=31833&d=1422750102

Ab Seite 24 beschrieben: http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-eDP-Dec-2010-v3.pdf
GPU determines when display will not be changing and sends Self-refresh Entry command to display using SDP (secondary data packet); TCON then
enables frame buffer, captures video frame, and then GPU and Main Link turn off

Troyan
2019-01-17, 22:21:48
Und nun noch die Spezifikation für Displayport bitte.

Wie du den Postings der Leute entnehmen kannst, ist Panel Self Refresh eine eDP-Technik. Das hat nichts mit dem Displayport-Standard zu tun.

Complicated
2019-01-18, 07:29:33
Deswegen steht auf den VESA Folien wahrscheinlich gross Displayport unten links auf den Folien. Du hast sicherlich recht...da du die Folien wohl auch nicht gelesen und verstanden hast.

Troyan
2019-01-18, 12:45:06
Du solltest dich erst mal erkundigen, wie VESA beide Standards sieht: http://www.vesa.org/wp-content/uploads/2010/12/PR22309eDP1_1a1.pdf

DP und eDP sind nicht das selbe trotz "DisplayPort" im Namen. Beide Standards werden unabhängig von einander weiterentwickelt.

Complicated
2019-01-18, 19:25:43
Und inwiefern ist das relevant? Ich habe nicht gegenteiliges behauptet. Doch seit DP 1.2a mit Adaptive Sync ist PSR und eDP in den Monitoren Teil des DP Standards. Deswegen ist deine Argumentation von Unkenntnis durchsetzt. Deshalb ist Adaptiv Sync älter als Gsync weil es nicht erst mit DP 1.2a in der Existenz und bei der Vesa aufgetaucht ist. Es war in Notebooks schon vorhanden. Und DP 1.1 konnte kein Adaptiv Sync.