PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Monitor mit dynamischer Bildwiederholrate


AnPapaSeiBua
2013-10-07, 10:19:42
Derzeitige Monitor arbeiten mit einer (quasi) fest vorgegebenen Bildwiederholrate, z.B. 60 Hz bei einem Standard-TFT.

Das verursacht dann das Problem, dass eine Bildausgabe darauf synchronisiert werden muss, wenn man kein Tearing haben will.
Das kann man mit VSync erreichen, wobei das bei Double Buffering zu hässlichen Frame Drops führt und bei Triple Buffering zu einer leicht erhöhten Latenz (wobei das sogar nicht immer funktioniert).
Dann gibt's noch so Zwischenlösungen wie Adaptive VSync, wobei die Frame Drops nur auf Kosten des Tearings eliminiert werden...

Was spricht denn dagegen, bei Hold-Type-Displays das Konzept umzudrehen?
Das Display gibt nur eine Maximalrate vor und die Grafikkarte sagt dem Display: "Hier ist ein neues Bild" und genau dann fängt der Monitor mit dem Bildaufbau dessen an.

Damit bekäme man mit Double Buffering ein Tearing-freies Bild mit maximal möglicher Framerate.

Die derzeitigen Standards (DVI, DisplayPort etc.) scheinen derzeit immer eine fixe Rate vorzugeben. Ist das wirklich so schwer, das anders zu lösen?

Tesseract
2013-10-07, 11:49:45
tearing entsteht nicht nur bei zu wenigen fps sondern auch bei zu vielen, die synchonisation erspart man sich also sowieso nicht.

den refresh am monitor bei zu langsamen frames etwas verzögern um keine volle frameverdoppelung zu haben sondern nur 1 < n < 2 wäre allerdings sicher eine möglichkeit. dazu müsste sich aber wohl an den protokollen und den schaltungen was ändern wärend alle anderen varianten in software lösbar sind.

xxMuahdibxx
2013-10-07, 12:25:10
Dir ist aber auch klar das Tearing auf einem 144 Hz Monitor viel Geringer ist auch bei 30 FPS ?

FlashBFE
2013-10-07, 12:48:32
Außerdem könnte bei einer neuen hypothetischen Schnittstelle der Monitor der Grafikkarte vorher mitteilen, wie viel er maximal schafft, damit die Grafikkarte gar nicht erst mehr berechnet. Eine Synchronisation braucht es dafür nicht mehr, wenn Bilder als Pakete kommen, der Monitor nur noch bei Erreichen das neue Bild ausgibt und keinen eigenen Takt mehr hat.

Sinnvoll ist das nicht nur, um Latenz- und Syncprobleme zu lösen, sondern auch zum Energie sparen. Denn zu viel berechnete Frames kosten Energie und die HF-Digitalschnittstellen sind auch nicht gerade sparsam.

Ein Schritt in diese Richtung wird ja gerade gegangen mit dem Panel Self Refresh (http://www.anandtech.com/show/7208/understanding-panel-self-refresh). Aber das ist nur eine halbgare Lösung, die "nur" das Energieproblem entschärft. Das Problem ist eben: Alle bisherigen Videoschnittstellen, auch DP und HDMI, enthalten im Grunde noch die DNA ihrer analogen Vergangenheit.

Ph0b0ss
2013-10-07, 12:58:00
Die Idee ist sehr gut. So hätte man, gerade im fps-kritischen Bereich bei 30-60fps, immer maximal flüssige Bildausgabe ohne Ruckeln. Die Frage, die sich mir da stellt, ist, ob das subjektiv besser bei 30-60fps als z.B. feste 144Hz (oder meinetwegen 200Hz) mit synchronisiertem strobe-Backlight ist? Beides zusammen wird wohl schwer umzusetzen (oder unmöglich?), also die strobe-Pulse dem dynamischen Refresh anzupassen. Müssten dann bei niedriegen fps ja mehrere pulse pro Frame sein, damit es nicht flimmert!

Milchkanne
2013-10-07, 13:43:51
Genau das wünsch ich mir auch schon seit Jahren. Ich glaube da aber nicht mehr so wirklich dran. Wahrscheinlich bekommen wir eher eigentlich unsinnig hohe 240hz als dynamische Bildwiederholraten.

AnPapaSeiBua
2013-10-07, 14:00:43
Das mit der maximalen Framerate, die der Monitor meldet, hatte ich ja im ersten Post schon geschrieben.

Man könnte es auch etwas anders machen: Der Monitor signalisiert einfach, ob er ein neues Bild annehmen kann. Dann müsste nur darauf synchronisiert werden, womit das Handling einfacher wäre. Sollten die realen fps kleiner als die maximale Rate des Monitors sein, springt das Flag praktisch gleich auf OK, ansonsten eben erst nach einer gewissen Latenz.

Weiter Vorteile gäb's ja auch bei der Videowiedergabe. Eine 24p-Wiedergabe (oder einer beliebigen anderen Framerate) wär damit sauber (im Gegensatz zu irgendwelchen fps-Konvertierungs-Maßnahmen).

Milchkanne
2013-10-07, 14:56:24
Was soll denn daran einfacher sein? Jeder Monitor wird eine maximale Bildrate haben, die er verarbeiten kann. Die sendet man einmal, dann weiß die Graka, wann sie wieder senden darf. Das spart auch einen unnützen Round-Trip bei der Latenz, auch wenn das vielleicht nur 1ms kosten würde.

del_4901
2013-10-07, 15:47:04
Der Monitor als Sklave der Grafikkarte... interessant warum Du gerade jetzt erst darauf kommst...

PatkIllA
2013-10-07, 16:02:47
DVI/HDMI und VGA geben das vom Protokoll schon nicht her.
DisplayPort arbeitet mit TimeCodes und könnte das übertragen.
Gerade bei Monitoren wird aber intern oft mit einer festen Frequenz gearbeitet, weil das einfacher umzusetzen ist.

Außerdem funktioniert nur das ganze sowieso nur bei exklusiver Fullscreenwiedergabe.

AnPapaSeiBua
2013-10-07, 16:11:54
Dass es mit DisplayPort gehen könnte, hört sich ja schonmal gut an.

Im Nicht-Vollbild-Modus könnte man ja weiterhin das alte Verfahren "emulieren", nämlich mit der übermittelten Maximalrate Bilder schicken.

Gipsel
2013-10-07, 17:01:52
Dir ist aber auch klar das Tearing auf einem 144 Hz Monitor viel Geringer ist auch bei 30 FPS ?Fast, das Tearing als Unterschied zwischen den zwei Teilen des Bildes ist genau gleich groß, es ist nur kürzer zur sehen. ;)

SentinelBorg
2013-10-08, 10:22:42
Das Frage ich mich auch schon seit ich meinen ersten TFT mit DVI hatte. Alles etwas Steinzeitlich mit den fixen Wiederholraten.

Fatality
2013-10-08, 10:33:53
Es wird sich eher die 144hz und mehr technik durchsetzen. da kann man vsync auslassen und es kommt erst zu tearing wenn die hardware mehr als 144fps liefert.

AnPapaSeiBua
2013-10-08, 11:17:47
Es wird sich eher die 144hz und mehr technik durchsetzen. da kann man vsync auslassen und es kommt erst zu tearing wenn die hardware mehr als 144fps liefert.

Warum sollte das Tearing bei < 144 fps verschwinden? (Edit: ok, man sieht das zerrissene Bild wesentlich kürzer, daher wird's weniger auffallen)

Aber ich geh auch davon aus, dass sich die Monitor mit hohen fps-Werten durchsetzen. Zumindest sind dann bei double buffering + vsync die Sprünge (im unteren/mittleren fps-Bereich) nicht mehr so schlimm.
(z.B. 240-120-80-60-48-40-34-30... statt 60-30-20)

aufkrawall
2013-10-08, 12:31:59
Wie gesagt, ist mit 144Hz Tearing nicht mehr so akut. Es fällt bei passenden fps eigentlich nur auf, wenn man explizit drauf achtet, reißt einen also nicht aus der Immersion. Deshalb machts wenig Sinn, bei fps unterhalb dieser Refreshrate noch Vsync anzuhaben.

Fatality
2013-10-08, 12:55:42
naja wenn man aktuelle spiele mit maxdetails mit +144fps spielen kann..(Quad SLI) dann braucht man schon wieder vsync ;). aber selbst leute mit 500€ Grafikkarten ohne SLI liegen bei um die 70-100fps, daher ist man mit einem high-hz TFT ganz gut bedient.

aufkrawall
2013-10-08, 12:59:11
Bei 144Hz ist der Input Lag mit DB/adaptivem Vsync jetzt nicht so das Problem, man braucht nie mehr fps.
Bei so hohen fps ist man auch ganz schnell CPU limitiert.

powerofsun
2013-10-12, 12:26:11
Hallöchen.

Momentan gibt es bei den LCD´chen, so ein paar Eigenheiten, die limitierend wirken. Da sich schon seit Ewigkeiten an Displays arbeite, kann ich hier auch meinen Senf beitragen. Hier erstmal zu den Problemchen der LCD-Displaytechnik.
1. Wenn man auf das Panel-Backend schaut, sind das sind die Gate und Sourcetreiber IC´s die bei den LCD´s als Chip on Glass (CoG) auf den LCD gebondet werden. Die CoG Treiber sind leider freuquenzmässig sehr begrenzt einsetzbar, heisst auf den Pixeltakt und auf die h.- und v-frequenz. Typischerweise können diese nur bei Festfrequenzen z.B. 50Hz, 60Hz, 72Hz usw. mit ein paar Prozent Toleranz eingesetzt werden. Ich kenne da Datenblätter mit zum Beispiel fpix.= 31.5-34.5MHz bei einem WVGA-Panel (800x480), bei den FHD-Panel hat man ähnliche Probleme. Betreibt man diese Panel ausserhalb der fPix-grenze schaffen es die Treiber nicht die Pixel korrekt anzusteuern.
Nehmen wir mal an, der Panel-Halbleiterhersteller (z.B. Himax) gibt die sich das Ziel vor den Frequenzbereich zu erweitern, damit er dann dynamisch den Bildraten folgend die v-frequenz hoch und runterschrauben könnte, wäre dann die Frage wie schnell er die Frequnzänderung umsetzen könnte, (wer das Thema also SSC Spread Spectrum Clock kennt...). Wie hoch muss die Bildwiederholfrequenzauflösung sein. 1mHz, 10mHz, oder reichen 100mHz, mit mHz meine ich naturlich Millihertz NICHT Megahertz :-)). Und wie schnell darf er auf die nächste Frequenzauflösung springen?
2. Vor dem CoG-Treiber sitzt der Timingcontroller. Dieser muss die oben genannten Eigenschaften beinhalten um die korrekte Freuquenzumsetzung zu garantieren, welche die Gate.- u. Source driver IC´s benötigen. Vor allem hat dieser einen internen Taktgenerator um das korrekte Timing (CLK,HSYNC, VSYNC, ENABLE usw.) bereitzustellen. Dieser Taktgenerator muss eine interne PLL besitzen, welche in dem Fall einer dyn. Bildwiederholrate mit minimalster Latenz , ich spreche hier von Nanosekunden, nachgeführt werden muss, damit Bildein.- u. Ausgabe synchron laufen.
3. Als big Mothership gibt es dann noch den Displaycontroller, welcher dem Timingcontroller vorgeschaltet ist. Der macht dann z.B. Scalierung, CsC (colorspace conversion) Helligkeit, Contrast aber auch die Ansteurung für Display Enhancements und Overdrive (wenn vorhanden), was aber die Gesamtlatenz erhöht. Auch dieser Diplaycontroller braucht eine stabile Frequnzbasis die allerhöchstens Spread Spectrum-Hübe erlaubt, auch so ein Chip müsste neu gebaut werden.
4. DVI/HDMI/LVDS Strecke:
Die GPU sitzt leider (oder auch Gott sei Dank nicht) in der LCD, die Daten müssen ja über ein Übertragungsstrecke kommen. Die gibt es teilweise sogar zweimal!
a. in dem Kabel den jeder mittels HDMI/DVI an Graka und Monitor usw. anschliesst.
b. in dem Panel internen Bus welcher oft vom Timing Controller zu den Sourcedriver IC´s gehen, dies ist oft ein RSDS-Bus
All diese Busse da sie aus den ursprünglichen digitalen RGB-Signalen (dRGB oder dYUV) mittels eines Serializers eine serielle Hochgeschwindigkeitsstecke etablieren, welche am Ende der Strecke in einen Deserialisier mündet, der die dRGB-Daten wieder extrahiert. All diese Busse benötigen eine sogenannte Lock time, wenn ein grösserer Frequenzsprung angesagt ist, heisst wenn die Framerate einen Sprung nach unten macht, weil gerade massive Action im Spielegeschenen zu sehen ist. Typischerweise schaffen die heutigen LVDS Bausteine 4-6% Frequnzhub (wegen SSC).
5. Flüssigkristall mit maximaler Beweglichkeit, VCOM und Flickereffekt:
Was passiert wenn gerade die Framerate bei 6000fps steht, da gerade keine grossen Bildänderungen zu sehen sind, soll dann die Bildwiederholfrequenz auch bei 6000Hz liegen? Nein, also eine Obergrenze muss her, da die Beweglichkeit der LCD-Kristalle nicht unendlich sind. Momentan sind 200Hz drin, mit OLED´s wird sich das verbessern.
Noch ein Thema ist die VCOM (Common Mode Voltage) Spannung , mit welcher man den Flickerwert des Panels beeinflusst, dieser ist von der Vertikalfrequenz abhängig und wird typischerweise bei der Festfrequenz vom Hersteller abgeglichen , heisst wenn man dynamisch die Bildwiederholfrequenz zieht, muss man sich mit dem VCOM etwas einfallen lassen.

Alles nicht so einfach, ich weiss, aber mit Sicherheit wäre so ein Entwicklung eine ziemliche Herausforderung...

FlashBFE
2013-10-12, 15:41:45
Danke für die umfangreiche Erklärung. Aber ich glaube nicht, dass man es wirklich so umständlich implementieren muss, dass alle ICs variable Taktraten haben. Denn wir wollen ja nur eine dynamische Bildwiederholrate. Die ICs bräuchten alle nur einen konstanten Takt und einen Wartemodus, in dem das letzte Bild weiter angezeigt wird. Der Pixeltakt bleibt dabei gleich. Klar muss auch damit die ganze Elektronik neu ausgedacht werden, aber es ist nicht nötig, dass alles intern voll variabel arbeitet.

powerofsun
2013-10-13, 01:54:09
Hallo FlashBFE,

Du hast recht!
Ich habe ja lediglich den augenblicklichen Stand der Technik, versucht provokativ darzustellen.:-) Eine Lösung wird dann schneller klar.
Die einzelnen Taktgeber zu überlisten ist nicht zielführend...

Ich denke nicht, das die gesammte Elektronik neu entwickelt werden muss.
Anpapaseibua hat recht, es muss lediglich wie schon erwähnt einen Rückkanal geben. Den Wartemodus müsste die Graka realisieren.
Ich würde während des VBI (vertikal Blanking Intervall) diese Info der Graka übermitteln. Das Zeitfenster ist allerdings nicht so groß. Dies muss innerhalb ein paar µs passieren. In der Videotechnik gibt es genlocked Devices, damit sollte sich die Graka auf den Monitor synchronisieren lassen.

Eine Sache zum Panelrefresh:
Ich glaube kaum, dass die wenigsten Monitor-Panelhersteller einen DRAM Speicher integrieren, technisch geht das, aber lohnst sich der Aufwand? Nur um Speicherbandbreite bei der GPU zu sparen, sollen jetzt ein paar MB ins Panel wandern. Da das Kohle kostet, werden die Panelhersteller das bei den grossen Panels nicht so schnell tun, vor allem weil das jetzt den Energiebedarf des Panels erhöht, da ja jetzt ein zusätzliches RAM verbaut ist, welches ja bei der Arbeit bestromt werden möchte...:-)
Auf gut deutsch: Sie müssen fürs Ram blechen, die Lorbeeren der Leistungsreduktion heimsen die Grakahersteller ein.

Konami
2013-10-18, 17:01:48
NVIDIA DID IT

http://www.twitch.tv/pcper
http://www.twitch.tv/linustech

http://abload.de/img/g-sync3roe8.jpg

AnPapaSeiBua
2013-10-18, 17:11:57
Krass wie schnell Nvidia meine Idee umgesetzt hat :D

boxleitnerb
2013-10-18, 17:12:46
Hast es wenigstens patentiert? :freak:

AnPapaSeiBua
2013-10-18, 17:16:53
Verdammt, jetzt weiß ich wieder, was ich diese Woche noch machen wollte...


Der Monitor als Sklave der Grafikkarte... interessant warum Du gerade jetzt erst darauf kommst...
Hast Du vielleicht davon schon gewusst? Weil dann würde für mich das endlich Sinn ergeben. ;)

aufkrawall
2013-10-18, 17:31:56
Sieht so aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9926733&postcount=14

AnPapaSeiBua
2013-10-18, 17:44:36
Die Monitore sollen angeblich ab Q1/2014 verfügbar sein.
Dann kann mein alter 22-Zöller endlich in Rente.
Voraussetzung auf Grafikkarten-Seite: Kepler-GPU (hab ich grad frisch gekauft - und weil damit das Adaptive V-Sync für mich neu war, bin ich überhaupt auf den ganzen Thread hier gekommen :D)

Konami
2013-10-18, 17:48:45
Wirklich interessant finde ich das in Verbindung mit der Oculus Rift. Palmer Luckey sagte in letzter Zeit in Interviews immer, sie haben das Inputlag-Problem komplett in den Griff gekriegt, und ich hab mich immer gefragt "wie das denn plötzlich?". Und jetzt ist John Carmack, Oculus VR CTO, in Montreal bei der G-Sync-Vorstellung... :uponder:

Timbaloo
2013-10-18, 18:09:54
Einen 24" Full-HD mit G-Sync bis 144Hz. Zum mitnehmen. Bar. Danke, Tschüss.

Lunica
2013-10-18, 19:47:10
AMD mit Mantle ist nun keine Konkurrenz mehr.

Die GTX780 & GSYNC Monitor ist 2014 schon so gut wie gekauft!
Für eine erstklassige Wiedergabe durch GSYNC bezahle ich gerne 500€ für eine GPU und nochmal xxx € für den GSYNC Monitor.

Kein Tearing
Keine Stutter
0 Lag

Egal wie viele FPS die Karte ausspuckt.

...perfekt!
Nach Lightboost wohl einer der wichtigsten Fortschritte im GPU Sektor.

FlashBFE
2013-10-18, 19:56:20
Na das passt ja mal wieder wie die Faust aufs Auge! :D

Jetzt ist nur noch die Frage: Wird es sich durchsetzen (nicht nur bei wenigen FHD-Monitoren) und zieht AMD irgendwann auch hinterher?

PatkIllA
2013-10-18, 19:59:18
Gibt es da auch ein paar mehr Infos zu?
Welche Verbindung? Braucht man neue Grafikkarten?

gnahr
2013-10-18, 20:02:58
und zieht AMD irgendwann auch hinterher?das kann man ausschließen. schon beim 3d sind sie mehr als stiefmütterlich und machen keine anstalten den leuten von ligthboost zu erzählen. deshalb sind ja noch so viele sackig auf aktive displays, obwohl nur die das richtige bild bieten können. großer blickwinkel, volle bildpunktzahl und so weiter.

may they were rigth with "The way its meant to be played" :rolleyes:

S940
2013-10-18, 20:32:00
Blöde Frage: Bringt das nun jetzt auch was über 60 fps, oder nur zw. 30 und 60?
Klingt auf alle Fälle gut.

Ich hoff jetzt nur nicht, dass AMD das nicht kopiert und - mangels Patent - ne eigene Monitorlinie rausbringt.

Dann müsste man in Zukunft beim Kartenherstellerwechsel auch noch den Monitor wechseln :freak:

Lunica
2013-10-18, 20:35:09
Na das passt ja mal wieder wie die Faust aufs Auge! :D

Jetzt ist nur noch die Frage: Wird es sich durchsetzen (nicht nur bei wenigen FHD-Monitoren) und zieht AMD irgendwann auch hinterher?


Nvidia Lightboost --- AMD ???
Nvidia Adaptiv-Vsync --- AMD ???
Nvidia Frame Time Management GTX690 --- AMD Prototype Driver (ohne Surround Unterstützung in der EOL Phase der HD7 Serie ;D).

Defintiv nicht. AMD ist sehr sehr weit hinten.
Da ändert auch Mantle und die R9 290X nichts.


GSYNC > REST

Blöde Frage: Bringt das nun jetzt auch was über 60 fps, oder nur zw. 30 und 60?
Klingt auf alle Fälle gut.

GSYNC wird sehr wichtig für 1440P+ und UHD und 4K etc. da man sich dort unterhalb der 60 FPS bewegt.
Durch GSYNC wird die Wiedergabe im unterem FPS Bereich flüssiger.
Also alles unter 60 FPS wird flüssiger da Bilder "instantly" ausgegeben werden vom Monitor.
Über 60 bringt es auch etwas, na klar.

Kein Tearing
Keine Stutter
0 Lag

Immer und überall, in jedem Spiel.

Ich hoff jetzt nur nicht, dass AMD das nicht kopiert und - mangels Patent - ne eigene Monitorlinie rausbringt.

Ist patentiert.
Nvidia hat dafür eine eigene Controler Sync-Unit in Hardware gebaut.

Timbaloo
2013-10-18, 20:37:04
Blöde Frage: Bringt das nun jetzt auch was über 60 fps, oder nur zw. 30 und 60?
Klingt auf alle Fälle gut.

http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

NVIDIA demonstrated the technology on 144Hz ASUS panels, which obviously caps the max GPU present rate at 144 fps although that's not a limit of G-Sync. There's a lower bound of 30Hz as well, since anything below that and you'll begin to run into issues with flickering. If the frame rate drops below 30 fps, the display will present duplicates of each frame.

Also 30 < x < was der Bildschirm kann

Edit: Und da hab ich meinen ersten Ignore-Kandidaten im 3dcenter...

S940
2013-10-18, 20:56:35
AH Danke für den Link.
Das hier beschreibts relativ gut:
The first demo was a swinging pendulum. NVIDIA's demo harness allows you to set min/max frame times, and for the initial test case we saw both systems running at a fixed 60 fps. The performance on both systems was identical as was the visual experience. I noticed no stuttering, and since v-sync was on there was no visible tearing either. Then things got interesting.Also wenn man konstant 60fps hätte bringts nicht viel. Hat man aber natürlich oft nicht -> gute Lösung.

Irgendwie witzig ... AMD bringt Mantle um die FPS zu erhöhen und Nvidia löst das Problem ^^

Auch interessant:

Meanwhile we do have limited information on the interface itself; G-Sync is designed to work over DisplayPort (since it’s packet based), with NVIDIA manipulating the timing of the v-blank signal to indicate a refresh. Importantly, this indicates that NVIDIA may not be significantly modifying the DisplayPort protocol, which at least cracks open the door to other implementations on the source/video card side.Mal schauen ... hört sich jetzt so an, als ob man nen Nvidia-GSync-Monitor nutzen könnte, solange man nur das Signal entsprechend (leicht) abändert.

Frag mich dann nur, wieso es auf Kepler limitert wird, die Zusatzplatine sitzt ja im Montior ...

AnarchX
2013-10-18, 21:03:37
Frag mich dann nur, wieso es auf Kepler limitert wird, die Zusatzplatine sitzt ja im Montior ...
Wurde auf Fermi nicht DP mittels Zusatzchips realisiert?

PatkIllA
2013-10-18, 21:04:02
NVIDIA demonstrated the technology on 144Hz ASUS panels, which obviously caps the max GPU present rate at 144 fps although that's not a limit of G-Sync. There's a lower bound of 30Hz as well, since anything below that and you'll begin to run into issues with flickering. If the frame rate drops below 30 fps, the display will present duplicates of each frame. Warum sollte das flimmern?
Es gibt ja auch noch Video als Anwendungsgebiet und da praktisch alles unter 30 fps.

Konami
2013-10-18, 21:11:03
Warum sollte das flimmern?
Es gibt ja auch noch Video als Anwendungsgebiet und da praktisch alles unter 30 fps.
Flimmern halt wenn Lightboost genutzt wird, nehme ich mal an.

Sven77
2013-10-18, 21:12:18
Aber sicher nicht mit Bildwiederholfrequenz von <30Hz. Im Kino hast du auch 72Hz trotz 24p Film weil das Geflimmer dir sonst die Hosen ausziehen würde. Nvidia scheint eine ähnliche Technik zu benutzen in Kombination mit Lightboost.

FlashBFE
2013-10-18, 23:21:19
und machen keine anstalten den leuten von ligthboost zu erzählen.
Wobei ich dazu sagen muss, dass ich Lightboost auch nur hier aus dem Forum kenne. Auch NV macht da kaum Anstalten, die Technik richtig bekannt zu machen.

Wenn G-Sync wirklich nur eine Manipulation der DP-Timings ist, dann könnte sich AMD, je nachdem, wie weitschweifend das Patent formuliert ist, eine eigene Timingcodierung ausdenken. Dann müsste es aber wirklich NV- und AMD-kompatible Monitore geben. Auch nicht gerade ideal.

gnahr
2013-10-18, 23:36:00
na sie verpacken es logischerweise immer in die werbung für 3d vision (2).
http://www.nvidia.de/object/buy-3d-vision-2-glasses-de.html
echtes area lumining auf dem schirm wurde ja nur im mobilbereich mal gezeigt.

speziell asus war und ist ja bei der auswahl an schirmen gut dabei, aber es bleibt halt ne niesche noch.

Gipsel
2013-10-19, 10:06:38
Ist "LightBoost" im Prinzip nicht nur strobed backlight, was nV einen anderen Marketing-Namen gegeben hat? Das gibt es bei TVs doch auch und funktioniert auch mit AMD-Karten. Ist eben eine Monitortechnologie, im Prinzip genau wie "G-Sync".

DinosaurusRex
2013-10-19, 10:21:44
Das gibt es bei TVs doch auch

Mein TV kann sowas, der nutzt Backlight Scanning um die Bildschärfe bei Bewegungen auf einem maximalen Wert zu halten. Ich stelle das aber aus, weil davon wird mir schlecht.

Gipsel
2013-10-19, 11:02:54
Mein TV kann sowas, der nutzt Backlight Scanning um die Bildschärfe bei Bewegungen auf einem maximalen Wert zu halten. Ich stelle das aber aus, weil davon wird mir schlecht.
TVs kombinieren das natürlich typischerweise noch mit Zwischenbildberechnungen, was man auf einem PC-Monitor eher nicht macht. Und für bessere Trennung der Teilbilder für 3D per Shutterbrille nutzen die das natürlich auch (also meiner tut es).

AnPapaSeiBua
2013-10-19, 11:54:32
http://www.geforce.com/hardware/technology/g-sync/system-requirements

Interessant: Es gibt ein Modification Kit für den ASUS VG248QE

aufkrawall
2013-10-19, 12:12:38
Von dem Monitor kann ich nur abraten, der hat im Vergleich zum BenQ XL2411T ekelhaftes Banding gemacht.
Ich warte erstmal Tests von verschiedenen Monitoren damit und Userberichte ab.

wn612953
2013-10-19, 12:23:46
Krass wie schnell Nvidia meine Idee umgesetzt hat :D


Hast es wenigstens patentiert? :freak:


Verdammt, jetzt weiß ich wieder, was ich diese Woche noch machen wollte...



:rolleyes:

Vielleicht solltest du dir beispielsweise mal Folgendes:

http://www.youtube.com/watch?v=mA03UabRMBI

anhören und aufs Datum achten...

:tongue:

Gipsel
2013-10-19, 13:40:21
Vielleicht solltest du dir beispielsweise mal Folgendes:

http://www.youtube.com/watch?v=mA03UabRMBI

anhören und aufs Datum achten...

:tongue:
Link zum richtigen Zeitpunkt (http://www.youtube.com/watch?v=mA03UabRMBI#t=356).

Aber ich kann mich dunkel dran erinnern, daß sowas schon viel früher diskutiert wurde. Aber da scheiterte es an den VGA-Anschlüssen bzw. weil DVI das nicht vorsieht.

BlacKi
2013-10-19, 20:52:39
Bei 144Hz ist der Input Lag mit DB/adaptivem Vsync jetzt nicht so das Problem, man braucht nie mehr fps.
Bei so hohen fps ist man auch ganz schnell CPU limitiert.

dito, bei der grafikkarten performance kann man einfach aufstocken, bei der cpu seite ist man in vielen spielen so dermaßen limitiert das es einem einfach auf den sack geht.

bei einer full hd auflösung und einer SLI oder CF lösung limitiert immer die dämliche cpu egal welche cpu man kauft. 144fps in crysis3 kann man derzeit nur wegen der cpu nicht realisieren, nichtmal extrem übertaktet.:mad:

andere frage: kann man mit G Sync 200fps + darstellen?

aufkrawall
2013-10-19, 21:07:19
andere frage: kann man mit G Sync 200fps + darstellen?
Nein, aber das würde auch keinen Sinn machen, wenn durch G-Sync der Input Lag entsprechend niedrig ist. Flüssiger kanns ja nicht laufen als die Refreshrate des Monitors mit Vollbildern auszureizen.

BlacKi
2013-10-19, 21:49:07
Nein, aber das würde auch keinen Sinn machen, wenn durch G-Sync der Input Lag entsprechend niedrig ist. Flüssiger kanns ja nicht laufen als die Refreshrate des Monitors mit Vollbildern auszureizen.
axo, ich dachte die neuen monitore hätten keine feste refreshrate mehr. dann hutehfak, 144hzmitVsync is op

aufkrawall
2013-10-19, 22:00:21
Haben sie doch auch nicht mehr mit G-Sync, oder was meinst du? :confused:
Ist halt bei 144Hz Schluss derzeit.

BlacKi
2013-10-19, 22:17:43
ich hab mit vsync keinen inputlaag. bei 30fps vl. da ich lieber details runterdrehe als unter 60fps zu spielen trifft mich das vsync problem scheinbar nicht.

warum zum geier führt man G sync ein? es sollten die spiele einfach auf mehr fps optimiert werden!!! und jeder legt sich nen 144hz moni zu, den 144hz boni hat man dann auch im windows! shaiz auf G sync... da wird man glatt zum amd fanboi

aufkrawall
2013-10-19, 22:21:21
ich hab mit vsync keinen inputlaag. bei 30fps vl. da ich lieber details runterdrehe als unter 60fps zu spielen trifft mich das vsync problem scheinbar nicht.

Na, dann trifft dich wohl die Schwerkraft auch nicht, wenn du sie gerade nicht spürst.


warum zum geier führt man G sync ein? es sollten die spiele einfach auf mehr fps optimiert werden!!!
Äpfel und Birnen...

HarryHirsch
2013-10-20, 00:28:46
Erst erzählen die "grünen" das es keinen Inputlag mehr gibt und jetzt gibt es ihn noch viel weniger, oder was? :freak:
Das würde ja bedeuten mit einer NV-Karte kann man in die Zukunft sehen!
Kauf ich!

Gipsel
2013-10-20, 00:32:54
Ich bitte doch darum, daß man etwas mehr an der technischen Sache bleibt.

Danke.

Blutmaul
2013-10-20, 06:02:26
Das wird immer extreme Nische bleiben und sich erst durchsetzen, wenn es als 1/10 Cent Bauteil als Bestandteil der Großserienfertigung von Monitorelektronik integriert ist, falls das jemals passiert...Konsolenspieler betrifft es wohl garnicht und die große Masse der PC-Spieler hat von V-Sync noch nie was gehört...ein Bauteil für den 0,5% Markt...

Leonidas
2013-10-20, 06:06:13
So gesehen kann man vieles als Nischentechnologie betrachten. Aber hier im Forum wird auch so etwas stark genutzt. Unter den HighEnd-Usern haben wir schon 4,4% 4K-Nutzer - und das obwohl der 4K-Zug gerade erst anfährt.

PatkIllA
2013-10-20, 09:04:47
Es ist doch immer noch nicht klar, warum da so ein großer extra chip nötig sein soll. Für die dynamische refreshrate braucht man das nicht. Da muss vor allem die Panelelektronik mitspielen.

4,4% Prozent 4K Nutzer wage ich doch mal anzuzweifeln. Es gibt gerade mal zwei halbwegs bezahlbare Monitore und die sind abgesehen von der Auflösung nicht mal wirklich gut.

wn612953
2013-10-20, 11:02:50
Unter den HighEnd-Usern haben wir schon 4,4% 4K-Nutzer - und das obwohl der 4K-Zug gerade erst anfährt.


Wie hast du das denn gemessen?

Sagen etwa die Forumszugriffsstatistiken, dass 4,4% der Forennutzer eine Auflösung von 3840x2160 nutzen um das Forum anzuzeigen?

Das könnte auch schlicht an folgendem Thread liegen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

:tongue:

Oder auch beispielsweise an Posts wie folgendem:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7364654&postcount=1140

welchen man sich ja mit beispielsweise 3840x2160 Downsamplingauflösung anschauen muss um es zu testen :tongue:.

BlacKi
2013-10-20, 13:00:46
So gesehen kann man vieles als Nischentechnologie betrachten. Aber hier im Forum wird auch so etwas stark genutzt. Unter den HighEnd-Usern haben wir schon 4,4% 4K-Nutzer - und das obwohl der 4K-Zug gerade erst anfährt.
also 5 leute oder wie?


btt: wenn es solch einen monitor mit G sync geben würde, müsste ich sowas erstmal antesten bevor ich sowas kaufe.

powerofsun
2013-10-21, 07:30:01
Dazu kann ich nur eins sagen:
Coole Sache, Nvidia das...

Und wie gut das meine letzte Karte eine Kepler war.....
momentan ist AMD bei sochen relevanten Features irgendwie immer Lichtjahre zurück oder NVIDIA immer mit Tachyonengeschwindigkeit vorne weg....
verstehe ich nicht.

Vor allem das Feature einstellbare benutzerdefinierte Bildschirmauflösung, welche ich bei meinem 21:9 TV mit der AMD Karte nicht (mehr) einstellen konnte, da half Powerstrip und first level Support bei AMD auch nichts....

Der einige Wermuthtropfen:
Ich brauche auf dem Displayport das schittige Stereo-Signal welcher zum TV geht...ohne das kein Ton auf der Anlage. Extra Kabel ziehen geht nicht kein Platz mehr hinter der Fussleiste. Ich hätte lieber das, wie ich schon sagte, das EDID-Signal lieber multifunktional gemacht und das hergenommen....
Das hätte man dann auch normkonform mit einer Erweiterung der I2C/EDID hinbekommen, und AMD könnte aufsatteln, natürlich könnte es sein, daß NVIDIA das nicht möchte....:-(

PatkIllA
2013-10-21, 09:35:47
Das EDID ist aber nur eine Beschreibung der Fähigkeiten.
Und HDMI hat sehr viele Dinge aus der analogen Welt übernommen, die man typischerweise bei Datenschnittstellen nicht hat. Unter anderem ist die Frequenz abhängig von Auflösung und Refreshrate.
DisplayPort ist dagegen paketorientiert und hat eine feste Frequenz.

Ein paar Bits im DisplayPort-Datenstrom zu manipulieren sollte eine AMD-Karte auch hinbekommen. Wofür man da angeblich eine extra Platine brauchen soll hat ja noch keiner rausgefunden.
Üblicherweise kauft der Monitorhersteller ja auch Panel und die Ansteuerelektronik ja auch zusammen und die sind derzeit in Sachen Frequenzen sehr eingeschränkt. Zumindest der Teil muss dann neudesignt werden. Ein Grund für nennenswerte Mehrkosten fällt mir da aber nicht ein.

Botcruscher
2013-10-21, 11:12:01
Aber hier im Forum wird auch so etwas stark genutzt. Unter den HighEnd-Usern haben wir schon 4,4% 4K-Nutzer - und das obwohl der 4K-Zug gerade erst anfährt.

Mach mal eine Umfrage um deine Zahlen da zu überprüfen. Einen TV mit maximal 30 möglichen FPS wird sich hier keiner zum spielen hinstellen und bei den PC-Monitoren gibt es ganze zwei(weniger gute) Geräte.
Eine andere Möglichkeit für die Auflösung ist Multimonitor. Das ist aber mal was ganz anderes.

Konami
2013-10-21, 13:49:43
Mach mal eine Umfrage um deine Zahlen da zu überprüfen. Einen TV mit maximal 30 möglichen FPS wird sich hier keiner zum spielen hinstellen und bei den PC-Monitoren gibt es ganze zwei(weniger gute) Geräte.
Eine andere Möglichkeit für die Auflösung ist Multimonitor. Das ist aber mal was ganz anderes.
Die Angabe stammt doch aus der letzten Auflösungsumfrage.

PatkIllA
2013-10-21, 14:04:46
Die Angabe stammt doch aus der letzten Auflösungsumfrage.
Die hier (http://www.3dcenter.org/umfrage/welche-monitoraufloesung-steht-fuer-den-spielerechner-zur-verfuegung-0)?
Da gibt es gerade mal 2 Prozent und das ist wahrscheinlich noch Downsampling. Hier im Forum hat sich AFAIK noch niemand gemeldet. Außer SailorMoon der einen im Rahmen des Prad-Tests einen zur Verfügung hatte.

Konami
2013-10-21, 14:18:08
Die hier (http://www.3dcenter.org/umfrage/welche-monitoraufloesung-steht-fuer-den-spielerechner-zur-verfuegung-0)?
Da gibt es gerade mal 2 Prozent und das ist wahrscheinlich noch Downsampling. Hier im Forum hat sich AFAIK noch niemand gemeldet. Außer SailorMoon der einen im Rahmen des Prad-Tests einen zur Verfügung hatte.
38/872 = 4,36%

Unter den HighEnd-Usern haben wir schon 4,4% 4K-Nutzer

PatkIllA
2013-10-21, 14:24:22
An das Highend hatte ich nicht gedacht.
Ich bezweifle die Anzahl aber trotzdem und gehe da weiter von Downsampling oder Multimonitor aus.

powerofsun
2013-10-21, 19:22:29
Hi,

also PatkIllA sehe ich komplett anders.
Die I2C Schnittstelle ist ein Zweidraht-Bus welch Clock und Data beherbergt und über die AUCH die EDID Infos mitgeteilt werden können. Wenn man jetzt dafür sorgt die 128-256Byte der Übertragung nur am Anfang der Komminikation erfolgt (Einschalten von Graka und Mon)
dann kann man thoretisch die restliche Zeit damit verbringen die Graka zu syncen....Vor allem ist die Data-Leitung ja bidirektional und 400kHz kann man bestimmt auch von der elek. Bandbreite vergrössern im Notfall mit einem neuen Kabel. Wenn man die Spec aufbohrt darf man (fast) alles.

Aber zu der benötigten extra Platine hast Du recht:
Deshalb gebe ich hier meine Schätznung ab:
Ich sehe hier ein fettes ASIC oder FPGA, ausserdem mehrere mäandrierende Leitungen zu den oberen drei Bausteinen. Da man diese Mäander bei der Datenübertragung dazu hernimmt um Signallaufzeiten bei HF-Signalen auszugleichen, schätze es handelt sich hier um ein Speicherinterface. Die Bausteine scheinen von Hynix zu sein. Ich erkenne hier mit Abgleich der Hynix Seite:
H5TC2G63FFR-11C was ein 2GBit 16x DDR3-Ram mit 900MHZ wäre, und das in einem FBGA-Gehäuse. Ergibt also 768MByte an einem wahrscheinlich 48bittigen Datenbus. Bei 48Bit ergibt dies eine Speicherbandbreite von10.8GByte/s.
Wofür zur Hölle braucht man so eine hohe Datenrate nur um die Graka zu syncen....? Klar hier ist ein Framebuffer drauf der sogar Bis zu 32Frames in 3840x2160 abspeichern könnte.....diese wäre dann in dem ASUS Monitor verbaut und ergäbe dann 130 Vollbilder die abgespeichert werden könnten (10Bit pro Pixel).
Damit speichert man dann parallel zur Panelausgabe immer mind. das aktuelle Frame ab und löscht dann jeweils das letzte abgespeicherte und nicht mehr benötigte Frame im Bildspeicher.
Eine klar teure Lösung mit der man fette Knete machen kann....
wir hatten ja gedacht die Graka gibt das letzte Frame konstant aus wenn die Framerate in die Knie geht.

PatkIllA
2013-10-21, 19:40:37
also PatkIllA sehe ich komplett anders.
Die I2C Schnittstelle ist ein Zweidraht-Bus welch Clock und Data beherbergt und über die AUCH die EDID Infos mitgeteilt werden können. Wenn man jetzt dafür sorgt die 128-256Byte der Übertragung nur am Anfang der Komminikation erfolgt (Einschalten von Graka und Mon)
dann kann man thoretisch die restliche Zeit damit verbringen die Graka zu syncen....Vor allem ist die Data-Leitung ja bidirektional und 400kHz kann man bestimmt auch von der elek. Bandbreite vergrössern im Notfall mit einem neuen Kabel. Wenn man die Spec aufbohrt darf man (fast) alles.
Die Synchronisation kann man auch einfach ins DisplayPort Signal einbetten. Der Monitor kann sich ja eh nicht dagegen wehren und bidirektional muss es auch nicht sein.
Außerdem hat DisplayPort gar keinen I²C mehr. Zwei Leitungen für das bisschen Bandbreite sind ja auch ziemliche Verschwendung.
HDMI/DVI hätte man komplett verbiegen müssen, wenn man das darüber hätte machen wollen.
Wofür zur Hölle braucht man so eine hohe Datenrate nur um die Graka zu syncen....?Datenrate braucht man für hohe Refreshraten und Auflösung.
Klar hier ist ein Framebuffer drauf der sogar Bis zu 32Frames in 3840x2160 abspeichern könnte.....diese wäre dann in dem ASUS Monitor verbaut und ergäbe dann 130 Vollbilder die abgespeichert werden könnten (10Bit pro Pixel).Aber wofür? Mit bereits angezeigten Bildern kann man nichts anfangen und jedes Zwischenspeichern für irgendwelche Berechnungen erhöhen nur die Latenz.

Lunica
2013-10-21, 22:10:01
Die Synchronisation kann man auch einfach ins DisplayPort Signal einbetten. Der Monitor kann sich ja eh nicht dagegen wehren und bidirektional muss es auch nicht sein.



Die Refresh-Cycle der 60 und 120 Hz Monitore liegt bei fixen 16 oder 8 ms.
Die GPU rendert aber nicht jedes Bild in genau 16 oder 8 ms.

Insofern benötigt es einen Controler der den Monitor dynamisch mit der GPU abgleicht und genau dann das Bild ausgibt wenn es von der GPU gerendert wurde.
12 ms > Output 10 ms > Output > 15 ms > Output

Bislang war das so mit VSYNC
12 ms > Stutter 16 ms > Output 10 ms Stutter 16 ms > Output 15 ms Stutter 16 ms Output.
Und ohne VSYNC war es bislang so
12 ms > Tearing 4 ms (Restwert) + 10 ms vom nächsten Bild (Tearing) Restwert usw. usf.

Das ganze kann man sich ziemlich genau ausrechnen.
VSYNC taugt nichts
kein VSYNC taugt auch nichts
Hz limitieren die GPU

GSYNC setzt dem ein Ende.

PatkIllA
2013-10-21, 22:13:16
Nein.Doch.
Es muss nur der Monitor einmal sagen, was er maximal kann und dann drückt die Grafikkarte das neue Bild innerhalb dieser Grenzen raus, wenn sie fertig ist. Da muss außer dem Handshake nichts bidirektional sein.

Die Grafikkarte ist genaugenommen jetzt auch schon der Taktgeber für das VSync-Signal, nur muss es bei jetzigen Monitoren innerhalb sehr enger Grenzen liegen, damit der Monitor damit zurechtkommt.

Botcruscher
2013-10-21, 23:28:49
Deswegen verstehe ich den Aufwand bei einem LCD nicht. Der Monitor muss das letzte Bild ja nur halten und auf das nächste warten. Wie schnell das geht dürfte bis zur maximalen Herzzahl egal sein.

PatkIllA
2013-10-21, 23:35:35
Deswegen verstehe ich den Aufwand bei einem LCD nicht. Der Monitor muss das letzte Bild ja nur halten und auf das nächste warten. Wie schnell das geht dürfte bis zur maximalen Herzzahl egal sein.
Ein FPGA ist es wohl einfach, weil man das relativ einfach realisieren kann und das Modul, auch Skalierung und Farbmanagement macht und direkt an das LVDS des Panels geht. Wenn man da hohe Refreshraten fährt, dann gehen da schon einige Daten durch. Das kann aber auch mit kompletten Chips gemacht werden, die dann bei ausreichender Masse nicht wirklich teurer sind als jetzt.
Eine Erklärung für den ganzen Speicher gibt es AFAIK immer noch nicht. Vielleicht gibt es keine kleineren Speicher mit entsprechender Datenrate oder der FPGA kommt damit nicht zurecht.

powerofsun
2013-10-22, 00:00:15
Hi,

hmmm, also ich erinnere nochmal an letzte Woche, als es noch kein G-Sync gab (G steht glaube ich für Genlocked, wohl deshalb weil NVIDIA vorher seine Quattros G-SYNC Karten umbenannt hat, diese heissen jetzt Quattro Sync....jajaja immer das Namensumgelabel siehe Radeon Rx-2xx-Tralala).

Da hat nämlich FlashBFE gesagt, das wir eigentlich keine komplzierte HW haben wollen.Wir wollen nur einen Wartemodus, bei dem das letzte Bild angezeigt wird, ohne Tearing und möglichst wenig Stutter. G-Sync ist aufgrund der HW mit 768MB Speicher wohl doch komplizierter.

Gut wir können ja gerne jetzt den anderen Weg beschreiten und versuchen die G-SYNC DIYK zu analysieren. Ich hätte lieber den Threat genutzt um eine einfache Lösung zu belabern...:-)

Ok, ich finde es nur absolut schade das die Grünen jetzt das Audio-Signal im
Datenstrom komplett gekillt haben, die Frage ist nur wieseo, hätte man nicht den AUX-Kanal benutzten können? In der neuen 1.2 Spec schafft dieser sogar einen höhereDatenrate als USB2.0, nämlich galaktische 780MBit/s......falls irgendetwas nicht schnell genug sein sollte, was ich aber nicht glaube, und dieser enthält hier übrigens auch den EDID-Kanal..:-), Jaja ich und meine EDITH....sowie CEC usw...

Also wieso haben die die Audio-Kanäle plattgemacht, doch nicht wohl weil Sie jetzt den GTC (Global Time Control für Audio Lip-Sync) für das syncen nutzen, oder haben Sie dieses rausgeschmissen weil ein Lip-Sync nicht mehr möglich wäre? Also Multichanel-Audio zu opfern, finde ich so als wenn man jetzt einen Ferrari verkauft bekommt und dann aber feststellt das ein VW-Käfer Motor einbaut ist, sorry ihr Grünen musste das sein? Ingeniuersmässig gesehen keine Glanzleistung.

Also PatkIllA, Datenrate benötigt man für hohe Refreshraten und Auflösung:
Ja das ist im Prinzip richtig, ich fragte hier aber nach den 10.8GByte/s, wenn das Modul doch nur immer ein Frame rauswerfen muss, wenn die GPU mit der Prozessiererei des neuen Frames noch nicht fertig ist. Die Angaben wieviele Frames in den Speicher passen waren nur anschaulich gemeint.

Also ich sehe hier mehrere Möglichkeiten warum man so eine Bandbreite und Größe für das Speicherinterface benötigt.

-Processing der Verschlüsselung DCDP (AES) oder HDCP von z.B. Blue Ray während G-Sync auch funktionieren soll.
-Extraktion der Video-Daten aus den Micropacket-stream, der im schlimmsten Fall sehr viele Kanäle enthält..also Daisy Chain vielleicht auch gehen soll.
-G-Sync Prozessor arbeitet garantiert nicht aus dem Flash heraus, da viel zu langsam um das DP zu beackern, die Treiber.- u. Applikation-SW muß daher ins RAM kopiert werden und wird von dort ausgeführt....
-Und G-Sync OSD ersetzt das ASUS OSD in dem VG248QE und fügt einen Monitor Control Command Set hinzu mit dem man vom PC aus den Monitor einstellen könnte....utilities werden aber nicht mitgeliefert (Wieso eigentlich nicht?)
Heisst also: Das OSD-Modul im ASUS wird wahrscheinlich ausgestöpselt und die G-Sync Platte wir eingesteckt. Da das Modul weitere Steuerungaufgaben erledigen muss, braucht man hier ebenfalls SW...und damit RAM.

Und da die Zeiten von Assembler lange vorbei sind...schon sind die 768MB
verballert.... http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/baeh.gif

PatkIllA
2013-10-22, 00:11:12
Das neue G-Sync steht für GPU-Sync.
Es ist ein FPGA, weil der die komplette Eingangselektronik ersetzt und damit doch ein bisschen was machen muss und ASIC für den Anfang wohl nicht die nötigen Stückzahlen hat. Aber selbst wenn die das alles mit Java SE ersetzen dürfte der Speicher noch massig sein. VIelleicht kann der FPGA auch nichts anderes. Ich kann mir sehr gut vorstellen, dass man dann einfach was nimmt, was die beteiligten Entwicklern kennen.

Audio über den AUX-Channel würden alle bisherigen Geräte aber nicht erkennen.

powerofsun
2013-10-23, 21:54:04
Das mit dem ASIC und FPGA ist korrekt.
Hmmm, woher kommt die Info mit G-Sync wie GPU-Sync, da passt Genlock-Sync besser, vor allem weil in den Quattro Datenblättern bei G-Sync massiv genlock erwähnt wird, aber kein GPU-Sync. siehe http://www.nvidia.com/docs/IO/40049/Quadro_GSync_install_guide_v4.pdf
Aber um so einem Killefit streit ich mich nicht. Hier gehts ja um Inhalte.

Und was heist "Vielleicht kann der FPGA auch nichts anderes"?
Ein FPGA ist erst mal ein Stück HW welches aus zig-tausend Logikelementen besteht, welche per Beschreibungssprache eine IP eingehaucht bekommt, diese IP wird in einen ser. Flash abgelegt ist, und daraus immer gebootet, bis dahin kennt das FPGA kein JAVA....
Aber wie in Herrgottsnamen kommt jemand darauf, das man mit einer verschissenen (ahmmm, sorry aber ist doch so!) Java VM hier einen Blumentopf gewinnen kann?
Java...Sorry geht gar nicht, wer wagen sollte einen embedded Soft-Prozessor (z.B NIOS bei Altera Cyclone) einzusetzten und darauf JAVA laufen lässt, kann gleich 40-60% aller Logikeinheiten aus dem Fenster werfen, der arme NIOS tut mir jetzt schon leid, das ist genauso als wenn Du einen Bugatti Veyron SS nimmst und den mit zwei Monsterketten am Empire State Builing festkettest!!!! Ist doch wahr.

Das ist eine Monsterbremse, weiß Gott was sich Oracle hier ausgedacht hat, wahrscheinlich ein Vertrag mit der HW-Industrie um den Absatz von neuen Prozessoren und Speicher anzukurbeln. Ich spring gleich aus dem Fenster, echt.

NIEMAND verbaut JAVA in Video-HW Systeme welche auch Echtzeitfähigkeit besitzen muss, und bei der es um so hohe Datenraten geht, wir sprechen hier ja von zig GBit/s! Auch Linux ist nur mit massiven Problemen real time capable, bei videorelevanten Systemen wo Deinterlacing, Motion-interpolation, Scaling, Inputlags, Stutter, Tearing, Farbraumkonvertierung, Audio-Lipsync blablabla nötig ist, braucht man ein RTOS und C. Deshalb sind ja fast alle RTOS in C coded worden.
Ich meine hier, wirklich niemand der video-relevante HW baut, denkt ersthaft daran einen AM-LCD-Controller in JAVA aufzusetzten, bei einer passiven Technik für 2zoll Cardisplays sieht das anderns aus, da braucht man geringe Updatenraten....

Ich kann nur sagen wenn eine Java-VM eingesetzt wird laufen auf den Speicherbussen massige Burst-Read und -Write Zugriffe auf, das einem schlecht wird....d.h dein Speicher mag von der Größe ausreichend sein, ABER von der Speicherbandbreite verballerst Du hier etliches, von der Energiebilanz will ich gar nicht sprechen, ein HighSpeed-Bus der so gestresst wird, benötigt Energie, ist doch klar.

Zum Thema Audio auf dem AUX-Kanal.....
Wer redet davon, das Audio auf den AUX Displayport Kanal umgeschaltet werden soll?
Ich nicht....ich meine Multichannel Audio im Stream belassen und ALLES andere über die 780MBit/s-Strecke kommunizieren...die Frage steht immer noch im Raum warum MultiChannel-Audio gekillt worden ist.

Konami
2013-10-23, 22:01:43
Das mit dem ASIC und FPGA ist korrekt.
Hmmm, woher kommt die Info mit G-Sync wie GPU-Sync, da passt Genlock-Sync besser, vor allem weil in den Quattro Datenblättern bei G-Sync massiv genlock erwähnt wird, aber kein GPU-Sync. siehe http://www.nvidia.com/docs/IO/40049/Quadro_GSync_install_guide_v4.pdf
Aber um so einem Killefit streit ich mich nicht. Hier gehts ja um Inhalte.
Dass es für "GPU-Sync" steht, hat Tom Peterson persönlich gesagt. Mit der Quadro-Geschichte hat das nix zu tun, die haben den Begriff einfach recyclet.

PatkIllA
2013-10-23, 22:03:37
Hmmm, woher kommt die Info mit G-Sync wie GPU-Sync, da passt Genlock-Sync besser, vor allem weil in den Quattro Datenblättern bei G-Sync massiv genlock erwähnt wird,
Das es für GPU-Sync steht hat der NVIDIA-Mensch in dem Video gesagt. Da haben die den Begriff nochmal verwendet. Außerhalb von Videostudios kennt das eh keiner. Innerhalb der schmalen und festen Grenzen locken Monitore ja jetzt auch schon auf VSync-Signal der Grafikkarte. Allerdings darf das praktisch nicht schwanken. Bei Genlock kommt der Takt ja von außen in die Grafikkarte.

Und was heist "Vielleicht kann der FPGA auch nichts anderes"?
Trotzdem kann nicht jeder FPGA jede Speicherart ansprechen. Was sind denn so die kleinsten DDR3 Chips die man bekommt?

Aber wie in Herrgottsnamen kommt jemand darauf, das man mit einer verschissenen (ahmmm, sorry aber ist doch so!) Java VM hier einen Blumentopf gewinnen kann?
Das mit JAVA war nicht wirklich ernst gemeint.
Wer redet davon, das Audio auf den AUX Displayport Kanal umgeschaltet werden soll?
Das mit dem Audio auf AUX Channel meinte StefanV. War aber wohl der andere G-Sync-Thread.

powerofsun
2013-10-26, 15:07:27
Hi,

also ich habe das 1.5h Interview mit Petersen auf PCperspective angeschaut, dort war nicht von GPU-Sync die Rede oder ich hab was an den Lauschlappen.

Mal so nebenbei....dabei hat der sich und seine Kollegen ziemlich beweihräuchert....wie war das nochmal: Hochmut kommt vor dem Fall oder Bescheidenheit ist der Anfang aller Vernunft.....:-)

So, ich habe die DP1.1a (1.2 hab ich nicht, Frage in den Raum: Wer hat Sie?) gecheckt, um auf den Grund des nicht mehr vorhandenen Audio zu kommen..
Über das VB-ID Register Bit4 wird das Audio Mute Flag gesetzt (und über das Flag 3 kann mitgeteilt werden ob Video übertragen wird)
Also die Audio Daten können während aktiv Video, als AUCH während der Blanking Phase übermittelt werden, d.h. es ist kein isochroner Abstand nötig, allerdings müssen die Daten während der Blanking Zeit äquidistant sein, hier besteht also keine Limitation.

Audio wird hier unterteilt in:
-Audio Stream Packet
-Audio Time-stamp Packet
-Audio InfoFrame Packet
Dabei muss das Audio-Time Stamp packet mehr als einmal pro Frame übertragen werden...

Ausserdem werden bei der Übertragung von Video und Audio die Daten "konstant" übertragen, erst wenns knapp wird mit der Grafikpower wird, wirds spannend.
Bei G-Sync kann jetzt aber aufgrund von Verhinderung von Stutter usw. Audio vielleicht nicht immer konstant übertragen werden...mit der Konsequenz das auch die Audiosamplerate (bis 192kHz) bis in letzter Instanz auch variabel sein müsste....
Das Spielgeschehen ist aber immer linear auch wenn mehrere gleiche Frames
hintereinander übertragen werden müssen. Audioruckler (Audio-Cadence) werden vom menschlichen Hörapparat gnadenlos abgestaft, die akustische Empfindlichkeit ist wesentlich höher als die visuelle Empfindlichkeit....ausserdem alles war mehr als 30-50ms, je nach pers. Gusto, A/V-Delay vorhanden ist, wird non-Lip-Sync hörbar, mit dem Effekt das man(n) im worst-case Fall vielleicht einen Leierkasten vor sich hat....:-)

Dem steht gegenüber, das hier auch ein Audio-Timestamp (GTC) übertragen wird, d.h. die zeitliche Zuordung kann IMMER gewährleistet werden. Ausserdem ist der Audiotreiber ja auch in der Hand der Grünen....der Audio-CODEC/DSP ist ja auf dem Chip.

Vielleicht haben die Grünen zu wenig Erfahrung mit Audio, und wollten sich nicht an diese Herausfoderung heranwagen....
Ausserdem:
Man überlege was denn die internen nicht-Kepler Soundkarten machen:
Die samplen audiotechnisch schön brav, so wie es DirectX und die Spieleprogrammier vorsehen, die Audiodaten auf den Soundchips runter. Da gibt es keine Audiounterbrecher wenns im Spielgeschehen hoch her geht, erst wenn es zu massiven Stutter kommt, wird der Sound auch kompromitiert.

Iruwen
2013-10-26, 16:28:38
Ich frag mich jetzt primär was die Aussage dieses Textwalls sein soll.

powerofsun
2013-10-26, 21:42:26
Wieso, gefällt es nicht....*grins*
Ist ja schon gut ich hör auf.....

Was die Aussage ist?
Ohne zweifel ist G-Sync ein tolles Feature, wenn es so funktioniert wie gedacht.
Naja, so toll das auch mit dem neuen Feature ist, trotzdem finde ich es
echt schade, daß man ein neues Feature, gegen ein anderes elementares
(Audio) einfach wegschmeisst. Ich denke es wäre auch anders gegangen.

Jetzt kann man nur hoffen das es AMD besser macht und Audio mit dynamischer Bildwiederholrate vereint.

FlashBFE
2013-10-26, 23:30:53
Jetzt kann man nur hoffen das es AMD besser macht und Audio mit dynamischer Bildwiederholrate vereint.

Eigentlich wäre eine neue Version vom Displayport, die diesen Modus explizit vorsieht, passender. Wenn die Grakahersteller mit ein paar Monitorbauern jeweils eigene Süppchen mit teurer Zusatzhardware kochen, setzt sich das Ganze längst nicht so schnell durch.

Zephyroth
2013-12-12, 18:19:58
Holla! Das ist doch genau das geforderte...

http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-g-sync-im-praxistest/

Grüße,
Zeph

Botcruscher
2013-12-12, 21:49:52
Na mal sehen wann es UHD, 27", 120/144Hz samt brauchbarem Übertragungsstandard zu guten Preisen gibt. Wenn die 3. Stufe von UHD erst nach 2020 kommen soll haben wir ja genug Zeit...

Nighthawk13
2013-12-18, 15:12:36
Anandtech hat auch nen Artikel:
http://www.anandtech.com/show/7582/nvidia-gsync-review
With a G-Sync enabled display, when the monitor is done drawing the current frame it waits until the GPU has another one ready for display before starting the next draw process. The delay is controlled purely by playing with the VBLANK interval.
[...]
You can only do so much with VBLANK manipulation though. In present implementations the longest NVIDIA can hold a single frame is 33.3ms (30Hz). If the next frame isn’t ready by then, the G-Sync module will tell the display to redraw the last frame.


Hiermit ist das VBLANK zwischen GSync und LCD-Panel gemeint nehm ich an? (Also NICHT das VBLANK zwischen Grafikkarte und GSync-Modul)

Falls jemand noch nen technischen detaillierten Artikel kennt, nur her damit;)

Iruwen
2013-12-18, 15:25:23
Es gibt einen G-Sync Thread.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546127&page=49