PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G-SYNC - Mark Rein: "most amazing thing made by Nvidia"


Seiten : 1 2 3 4 [5]

Sunrise
2014-01-06, 16:17:26
Für aktuell jetzt gerade in diesem Moment ja, aber bereits mittelfristig, also die nächsten 4-6 Jahre ist es halt nen Schuss ins eigene Knie.

Man behindert sich und den Markt den man bedienen will ständig selbst. Damit verkrault man die eigene Kundschaft. Das ist nicht gerade eine solide Firmenausrichtung.
Ich sehe wirklich nicht, wo NV sich da irgendwas vergraulen sollte, noch, wie sie sich damit ins eigene Knie schießen, kannst du das mal weiter ausführen?

Die NV-Käufer wissen (oder wissen es nicht, sie möchten es aber) weiterhin auf NV setzen, weil es aktuell keine gravierenden Nachteile, sondern eher Vorteile gibt. Auch ich zähle mich da seit Jahren dazu.

Sowas wird dir ja nicht zum Nachteil, weil du kein NV kaufst (und dann hast du eben Pech gehabt), sondern eher der Hintergedanke NVidias, der dir sagen will "wir haben eben die besseren Optionen für Spieler bzw. für eine bestimmte Zielgruppe an Anwendern, sofern du auch zu unseren Grafikkarten greifst".

Klar wäre ein offener Standard besser, aber NV arbeitet in letzter Zeit besonders daran, die Margen ihrer Grafiklösungen zu steigern, was aufgrund der harten Konkurrenz nur dadurch möglich ist, sie auch mit Features aufzublasen, die die Konkurrenz eben nicht hat. Die Geschwindigkeit alleine, die Bildqualität sind immer auch ein wichtiger Faktor, aber wenn man exklusive Features bietet, die praktische Verbesserungen bringen, will man da als Anwender eigentlich nicht mehr zurück.

Wenn es auch anders implementierbar ist, dürfte das so oder so auch als nicht-G-Sync-proprietäre Lösung kommen. Das wäre zumindest mein Wunsch. Dann hätten auch alle etwas davon.

Laut den letzten Infos basiert das ganze wohl auf SLI, deswegen auch die Einschränkung auf 650 Ti Boost und höher.
Umso besser für NV. Eine proprietäre Lösung setzt eine andere proprietäre Voraus. Und ob das jetzt stimmt ist sogar eigentlich zweitrangig. Dann hat man die entsprechenden Margen um Mittel-Hochpreis-Segment noch besser unter Kontrolle. Mit Desktop Low-End wird sich NV wohl immer weniger abgeben, ergibt auch immer weniger Sinn.

Skysnake
2014-01-06, 17:05:15
Ich sehe wirklich nicht, wo NV sich da irgendwas vergraulen sollte, noch, wie sie sich damit ins eigene Knie schießen, kannst du das mal weiter ausführen?
...

Sie haben den GPGPU-Markt abgewürgt. Der hatte mit Ati-Stream (?) angefangen, nVidia hat es mit CUDA richtig nach vorne geprügelt durch ne gescheite API usw. und mit OpenCL hätte das Ding durch nen breiten Softwaresupport richtige Högenflüge machen können.

nVidia ist da aber als Bremse aufgetreten und der ganze GPGPU-Markt ist zwar noch gewachsen, aber die Goldgräberstimmung ist weg. Ganz im Gegenteil, die Leute schauen sich nach Alternativen wie XeonPhi um, um vom zersplitterten GPGPU-Markt und insbesondere nVidia weg zu kommen. So Aktionen wie Fermi haben auch ihre Spuren hinterlassen.

Mit HSA hätten Sie jetzt ne zweite Chance gehabt sich gegen Intel zu positionieren. Aber NEIN die nutzen Sie ja nicht....

Jetzt ist halt die Frage ob HSA ein Erfolg wird, und die Chancen stehen nicht schlecht.

nVidia steht im großen und ganzen einfach allein da. Auf der einen Seite Intel, die unabhängiger von dGPUs werden wollen und damit von nVidia&AMD, dann auf der anderen Seite AMD, dazu noch die gesamte ARM-Fraktion wie Qualcomm, Apple und Samsung und von hinte maschieren auch noch die Chinesen mit MIPS daher, und auch noch IBM, ARM und Intel/AMD ins Schwitzen bringen könnten.

nVidia stößt halt mehr oder weniger an allen Fronten den Leuten vor den Kopf. Mal mehr mal weniger deutlich.

Und ja, AMD steht auch auf Messersschneide. AMD ist wohl nicht mehr zwingend neben Intel nötig als x86 Lieferant. Die Welt hat sich geändert. Die setzen halt sehr viel in HSA, und es könnte ihre Rettung aber auch ihr Untergang werden, wobei Sie mit ARM+x86+GPUs schon sehr breit aufgestellt sind. Die Mittel sind aber halt echt richtig eng. Wenn HSA aber nen Fail wird, wird AMD wieder wichtiger als Ausgleich gegen Intel... Könnte also "Systemrelevant" sein, und daher gerettet werden. Es ist aber ein Tanz auf der Rasierklinge, das muss einem bewusst sein.

nVidia klammert sich aktuell doch nur an IBM, aber die haben ihre goldene Zeit auch hinter sich... Und im ARM-Umfeld versagen Sie am laufenden Band. Das ist einfach ne GANZ andere Gewichtsklasse als AMD im GPU-Markt.

Verstehste was ich sagen will?


Klar wäre ein offener Standard besser, aber NV arbeitet in letzter Zeit besonders daran, die Margen ihrer Grafiklösungen zu steigern, was aufgrund der harten Konkurrenz nur dadurch möglich ist, sie auch mit Features aufzublasen, die die Konkurrenz eben nicht hat. Die Geschwindigkeit alleine, die Bildqualität sind immer auch ein wichtiger Faktor, aber wenn man exklusive Features bietet, die praktische Verbesserungen bringen, will man da als Anwender eigentlich nicht mehr zurück.

Wenn es auch anders implementierbar ist, dürfte das so oder so auch als nicht-G-Sync-proprietäre Lösung kommen. Das wäre zumindest mein Wunsch. Dann hätten auch alle etwas davon.

Das Steigern der Marge gerät aber aus der Not heraus und funktioniert nur eine kurze Zeit. Die Leute sind nicht dumm. Der Markt bricht eh immer weiter weg, und durch die hohen Margen kaufen die Leute noch zusätzlich weniger. Genau damit macht sich nvidia aber auch das Image kaputt, mit dem Sie die hohen Margen überhaupt realsieren können.

Sie treiben ihre eigenen Kunden halt da hin, sich andere Sachen an zu schauen, und andere Väter haben halt auch schöne Töchter, und an einem Topf an dem man geschleckt hat und der gut war, bleibt man hängen.



Umso besser für NV. Eine proprietäre Lösung setzt eine andere proprietäre Voraus. Und ob das jetzt stimmt ist sogar eigentlich zweitrangig. Dann hat man die entsprechenden Margen um Mittel-Hochpreis-Segment noch besser unter Kontrolle. Mit Desktop Low-End wird sich NV wohl immer weniger abgeben, ergibt auch immer weniger Sinn.
Ja genau, wir reduzieren den Absatzmarkt für die Gerätehersteller, damit die nicht wirklich bereit sind dafür Lizenzgebühren usw zu blechen...

Stell dir doch mal vor, JEDER PC-Monitor würde das bekommen, weil es mit jeder GPU-Funktioniert. Das würde gewaltige Kaufanreize schaffen. Was glaubste was für feuchte Höschen die Monitorhersteller bekommen würden... Und nach 2 Jahren bringste es in den TV Bereich für 50% der Lizenzgebühr.

Dann realisierste über nen Patent die Sache noch so, das AMD auch eine lizenz braucht, genau wie Intel und holst dir pro Geräte 1-5$. Da rollt der Rubel und zwar sicher über Jahre...

Unterm Strich wird da deutlich mehr raus fallen, als die je mit ner propritären Lösung generieren können. Vor allem bei den Displayherstellern könntest du richtig abgreifen. Die hätten nämlich nen echtes Verkaufsargument....

nVidia schlachtet lieber die Kuh, statt Sie schön kräftig zu melken....

Sunrise
2014-01-06, 17:44:03
...Verstehste was ich sagen will?
Err, ja, aber was hat das jetzt mit G-Sync im Speziellen zu tun?

Das Steigern der Marge gerät aber aus der Not heraus und funktioniert nur eine kurze Zeit. Die Leute sind nicht dumm. Der Markt bricht eh immer weiter weg, und durch die hohen Margen kaufen die Leute noch zusätzlich weniger. Genau damit macht sich nvidia aber auch das Image kaputt, mit dem Sie die hohen Margen überhaupt realsieren können.

Sie treiben ihre eigenen Kunden halt da hin, sich andere Sachen an zu schauen, und andere Väter haben halt auch schöne Töchter, und an einem Topf an dem man geschleckt hat und der gut war, bleibt man hängen.
Da kann ich dich beruhigen. Da bleibe ich auch weiterhin bei NV hängen, solange es alternative NV-Produkte gibt. Ich habe mir das bei der 7970-Vorstellung oder TITAN angeschaut, kurz ungläubig geschaut, gelacht und wieder weggeschaut und gewartet, bis NV Alternativen vorgestellt hat. So schnell wird man nicht vergrault. Man hatte schon immer nur die Wahl aus Pest und Cholera. Und wenn man damals das schnellste wollte, musste man auch ordentlich auf den Tisch legen, daran hat sich nicht geändert.

In anderen Bereichen wird NV auch schon sehr genau schauen, was sie verlangen können. Und du siehst ja, wie die Leute auf TITAN abgegangen sind, trotz des hohen Preises.

...Was glaubste was für feuchte Höschen die Monitorhersteller bekommen würden... Und nach 2 Jahren bringste es in den TV Bereich für 50% der Lizenzgebühr.
...
Dann realisierste über nen Patent die Sache noch so, das AMD auch eine lizenz braucht, genau wie Intel und holst dir pro Geräte 1-5$. Da rollt der Rubel und zwar sicher über Jahre...
Theoretisch klingt das alles sehr gut, da hätte ich auch absolut nichts dagegen. Das klingt aber irgendwie ein wenig nach "Geschichten aus dem Bilderbuch".

Du weißt doch noch garnicht genau, was NV da überhaupt macht. Und warum weißt du das nicht? Wenn das, was NV da macht, nun SLi direkt oder indirekt erfordert, warum wirst du mit einem offenen Standard da wohl Probleme bekommen? Hast du das mal weiter gedacht?

Warum ist SLi denn KEIN offener Standard? Warum wohl? Weil es NV bisher zum Nachteil wurde?

Im Übrigen wird man auch die Monitorhersteller aktuell zur Kasse bitten, denn das Modul wird aktuell sicher nicht zum Selbstkostenpreis verkauft.

NV wird schon aus gutem Grund erstmal vorsichtig da rangehen und den Hebel bei Kepler setzen. Du siehst ja, was das für Diskussionen erzeugt. Leider gibt es derzeit ja keine wirklichen Praxistests von Endanwendern.

Skysnake
2014-01-06, 18:07:36
Also 179€ für GSync laut CB. (http://www.computerbase.de/news/2014-01/displays-mit-nvidias-g-sync-kommen-spaeter/)

Na ob sich das rechnet/lohnt....

Knuddelbearli
2014-01-06, 18:22:19
wohl kaum, wobei tn so oder so indukitabel ist ^^

Mancko
2014-01-06, 20:51:19
wohl kaum, wobei tn so oder so indukitabel ist ^^

Nicht fürs Gamen. Da ist es die optimale Wahl. Ich würde sagen der Trend zum Zweitmonitor wurde gerade gesetzt :), wenn es den nicht ohnehin schon gab. Gibt ja auch genügend Leute die sich beide Konsolen gekauft haben. Ich hätte auch lieber ein IPS Panel. Leider gibt es das noch nicht. Eventuell ist es auch eine technische Einschränkung. Dann muss eben erstmal zusätzlich ein TN Panel her.

Übrigens für die Monitorhersteller doch ganz gut. So verkauft man noch das ein oder andere Gerät mehr.

Mancko
2014-01-06, 20:54:13
Also 179€ für GSync laut CB. (http://www.computerbase.de/news/2014-01/displays-mit-nvidias-g-sync-kommen-spaeter/)

Na ob sich das rechnet/lohnt....


Wer bereit ist alle 2 Jahre eine neue Grafikkarte einzubauen, der wird keine Probleme haben einen Aufpreis für Gerät zu zahlen, dass er mit Sicherheit erheblich länger als die 2 Jahre im Einsatz haben wird. Glaube nicht, dass es immer bei den 179 Euro bleiben wird. Nvidia testet das jetzt erstmal bei den FPS Junkies wie mir. Geld spielt bei der Kundschaft kaum eine Rolle. Da werden auch Mäuse und Tastaturen für je 100 Euro gekauft. In dem Bereich gibt man gern Geld aus um einen kleinen Vorteil im Multiplayer zu haben. Wenn es morgen eine Soundkarte gäbe, mit der ich in CS & Co. plötzlich weiter hören könnte als die große Mehrheit, dann würde ich dafür auch 500 Euro ausgeben - mir scheiss egal. Andere verrauchen das Geld binnen weniger Wochen. Leute wie ich geben es halt fürs Multiplayerzocken aus.

Schaffe89
2014-01-06, 20:56:09
Sie mit ARM+x86+GPUs schon sehr breit aufgestellt sind.

AMD ist nirgends mehr gut aufgestellt. Kaveri wird ein Reinfall erster Güte, dazu muss man sich nur mal die Produktposition anhand des Preises ansehen.
Die Preise sind kaum höher wie bei Richland.

Skysnake
2014-01-06, 21:12:34
Wer bereit ist alle 2 Jahre eine neue Grafikkarte einzubauen, der wird keine Probleme haben einen Aufpreis für Gerät zu zahlen, dass er mit Sicherheit erheblich länger als die 2 Jahre im Einsatz haben wird. Glaube nicht, dass es immer bei den 179 Euro bleiben wird. Nvidia testet das jetzt erstmal bei den FPS Junkies wie mir. Geld spielt bei der Kundschaft kaum eine Rolle. Da werden auch Mäuse und Tastaturen für je 100 Euro gekauft. In dem Bereich gibt man gern Geld aus um einen kleinen Vorteil im Multiplayer zu haben. Wenn es morgen eine Soundkarte gäbe, mit der ich in CS & Co. plötzlich weiter hören könnte als die große Mehrheit, dann würde ich dafür auch 500 Euro ausgeben - mir scheiss egal. Andere verrauchen das Geld binnen weniger Wochen. Leute wie ich geben es halt fürs Multiplayerzocken aus.
du spielst multiplayer in nem Bereichwo es sich lohnt Geld dafür aus zu geben und dann biste mit <60 Herz zufrieden, wo GSync besonders was bringt, und nimmst den Lag duech den FPGA in kauf statt einfach vsync aus zu mache. Und den minimal möglichen outpulag zu haben?

Sehr seltsam.

aufkrawall
2014-01-06, 21:13:07
Nein.

N0Thing
2014-01-06, 21:59:44
du spielst multiplayer in nem Bereichwo es sich lohnt Geld dafür aus zu geben und dann biste mit <60 Herz zufrieden, wo GSync besonders was bringt, und nimmst den Lag duech den FPGA in kauf statt einfach vsync aus zu mache. Und den minimal möglichen outpulag zu haben?

Sehr seltsam.

Im Review zu g-synv von pcper klingt es eher nach gefühlter Lag-Reduzierung:

With G-Sync eliminating the tearing that is so painfully obvious at 60 Hz rates, while keeping latency lower than even vsync-off levels, the effect of G-Sync becomes increasingly apparent as you drop towards and even below 60 FPS. The difference is immediately apparent on just about any game with settings adjusted to achieve a 40-60 FPS range. Latency improvement is a half-again increase when compared to a vsync-on/off toggle on a 60 Hz display, and every frame is drawn as if vsync were on

Wo hast du denn her, daß sich der Lag durch g-sync vergrößern soll? In allen mir bekannten Reviews wurde bisher nur eine Verbesserung erwähnt.

Hugo78
2014-01-06, 22:37:25
Skysnake weiß selber nicht wovon er da schreibt.
Lass ihn trollen.

Skysnake
2014-01-07, 00:30:22
Stimmt, wenn ich ein Signal durch einen Schaltkreis jage, oder durch ein längeres Kabel statt einem kürzeren, dann hab ich mein Signal schneller am Ziel :rolleyes:

Was gibts daran zu rütteln. Mit VSync off hast du keinerlei Verzögerung des Outputs und musst nicht durch irgendwelchen Komplexen Schaltungen.

Wenn du nen 2m DVI/HDMI oder what ever Kabel nimmst und im Vergleich dazu ein 50cm Kabel, dann ist die Latenz des 2m Kabels halt auch schlecht als die des 50cm Kabels.

Pro Meter Leitungslänge hat man ne zusätzliche Latenz von ~3,3-5 ns. Also ohne jedweden Schalter, einfach nur nen dummes Kabel. Wenn du noch Schaltungen dazu nimmst, dauerts halt noch länger.

Je nachdem wie schnell die Transistoren schalten und ob du alle auf einmal schalten kannst, oder ne Verarbeitung in mehreren Takten hast. Ob du FiFos hast oder nicht. Ob du SerDes hast, oder nicht usw usw usw.

Ihr seid doch alle die Megakompetetiven ProGamer Roxxer, die selbst den Unterschied in einzelnen Zeilen wahrnehmen können, bei 1080p und 60Hz also im 15,4 µs Bereich.

Denk mal drüber nach, was alles auf der Platine drauf ist. Insbesondere an die Speicherchips denken. FPGAs haben oft nur Taktraten im Bereich von 250Mhz. Bei 250 Mhz ist jeder verschissene Takt schon ne Latenz von 4ns. Für eine Zeile Unterschied bei gerade mal 60 Hz sind das gerade mal 3850 Takte. Wenn du das von euch so hochgejubelte 120/144 Hz System nimmst (mit was anderem kann man ja eh nicht "gescheit" zocken) dann sind es sogar nur 1925/1604 Takte...

Wie bei mehr als FullHD aussieht kannste dir ja selbst ausrechnen, das schaffste sicherlich...

Also laber nicht nen Scheis, dass das völlig wumpe ist. Wir leben in einer realativistischen Welt mit endlicher Lichtgeschwindigkeit, und da ist absolut nie was scheis egal.....

Schaffe89
2014-01-07, 00:32:38
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

Und schon kommt AMD mit Free Sync, was dann auf AMD und Nvidia GPU´s funktionieren wird.
Damit kann Nvidia sich G-sync in de Haare schmieren, wenn sie die Funktionalität auf ihre Karten beschränken.

Rente
2014-01-07, 00:37:13
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

Und schon kommt AMD mit Free Sync, was dann auf AMD und Nvidia GPU´s funktionieren wird.
Damit kann Nvidia sich G-sync in de Haare schmieren, wenn sie die Funktionalität auf ihre Karten beschränken.
Das ist erst mal nur in engen Grenzen vergleichbar, vor allem gibt es wohl erst einmal 0 Hardware (Monitore) außerhalb von Smartphones und Tablets, die diese Variante unterstützt.

G-Sync kann darüber hinaus noch etwas mehr als "Free Sync".

schreiber
2014-01-07, 00:37:13
Wenn es so simpel getan wäre mit dem Displayportstandard, dann hätte das nvidia auch gemacht. Oder meinst, die entwickeln Gsync zum Spaß obwohl dafür schon ein Standard existiert?!

Akkarin
2014-01-07, 00:44:35
Das ist erst mal nur in engen Grenzen vergleichbar, vor allem gibt es wohl erst einmal 0 Hardware (Monitore) außerhalb von Smartphones und Tablets, die diese Variante unterstützt.

G-Sync kann darüber hinaus noch etwas mehr als "Free Sync".

Es gibt auch quasi keine G-Sync monitore. Was kann G-Sync denn mehr als FreeSync ?

r-or
2014-01-07, 00:56:02
Wenn es so simpel getan wäre mit dem Displayportstandard, dann hätte das nvidia auch gemacht. Oder meinst, die entwickeln Gsync zum Spaß obwohl dafür schon ein Standard existiert?!
vielleicht weil ein DP Standard offen ist, im Gegensatz zu einem proprietaeren Chip?

Schaffe89
2014-01-07, 01:03:03
Wenn es so simpel getan wäre mit dem Displayportstandard, dann hätte das nvidia auch gemacht. Oder meinst, die entwickeln Gsync zum Spaß obwohl dafür schon ein Standard existiert?!

Ja, das denke ich, ich sehe G-sync als riesige Werbeverarschung, dass Nvidia ihre teure Zusatzhardware verbauen kann und Geld generieren kann, zudem nutzen sie das für Publicity.
Es war schon länger vor allem im mobilen Bereich geplant so etwas zu unterstützen, da dies Strom spart, gibt auch schon einen VESA Standard dazu, die VBLANKS zu kontrollieren.

Wenn ich mir das Zeug kaufe, kann ich es mit einem AMD Karte nicht verwenden und wenn in 2 Jahren eh die meisten Monitore Free Sync unterstützen kann ich mir das wohl gleich sparen, dafür mein Geld zu opfern, lieber einen ordentlichen 240 Hertz Monitor mit schwarzem zwischenbild.

aufkrawall
2014-01-07, 01:10:57
Hört sich jetzt eher nach Orakel an.

Schaffe89
2014-01-07, 01:19:31
Zu was nimmst du jetzt Bezug? Der VESA Standard existiert doch schon länger.

aufkrawall
2014-01-07, 01:21:32
Erst mal abwarten, was es in zwei Jahren so für Displays geben wird.
Ich wär mal nicht so optimistisch, dass außer 4k noch unbedingt was brauchbares kommen muss.

Schaffe89
2014-01-07, 01:30:14
Na G-sync ist bei den News allem Anschein nach schonmal jedenfalls für mich unbrauchbar, wenn es Hoffnung gibt dass es

a) günstiger wird
b) auf beiden Grafikherstellern nutzbar ist
c) ohne zusätzlichen teuren Schnickschnack funktioniert der scheinbar eh nur ein Dummy ist, schließlich kann das keiner wirklich wissen.

Mich wundert schon für was Nvidia da ne riesen Platine extra entwickelt, wahrscheinlich ein Geniestreich von Huang.

Skysnake
2014-01-07, 01:33:00
bla.
Trotzdem ist nVidia damit aufgeschlagen, und dafür gebührt Ihnen durchaus auch Lob. Genau wegen solchen Ideen, wo Sie die Branche etwas anstacheln, will ich nVidia am Markt auch nicht missen.

Das Einzige was man halt wieder kritisieren kann, und mir persönlich auch auf den Sack geht, ist das WIE von nVidia.

Ich hoffe jetzt atmen ein paar Leute auch nochmal gepflegt durch die Hose und überlegen sich mal, ob die Anfeindungen gegenüber Gipsel und mir nicht vielleicht doch etwas unangemessen und übertrieben waren, als wir gesagt haben, dass das total übertrieben ist, was nVidia da macht und es an sich nicht viel brauchen sollte um das zu realisieren.

Ich halt mich bewusst zurück, weil man definitiv erst noch einen Direktvergleich zwischen den beiden Systemen abwarten sollte, eventuell gibt es doch noch irgend nen fancyshit den nVidia macht, aber drauf wetten würde ich nicht.

Die Frage ist halt, wie nVidia damit um geht, und vor allem auch insbesondere ASUS aber auch Phillips und so weiter. Die stehen jetzt nämlich durchaus mit heruntergelassenen Hosen da, wenn sich zeigt, das man das mit ner AMD GPU und nem entsprechenden, scheinbar durchaus verbreiteten Display, rein durch Treiber gebacken bekommen kann.

Das würde wohl ziemlich böse am Image kratzen. Aber warten wir mal Blindvergleiche zwischen den Systemen wie gesagt ab.

Sunrise
2014-01-07, 02:03:00
27"-WQHD-Monitor mit IPS-Panel, 120 Hertz, 1ms und G-Sync von Asus

http://www.computerbase.de/news/2014-01/27-wqhd-monitor-mit-g-sync-und-120-hertz-von-asus/

Ziemlich gute Daten auf dem Papier (wobei da noch einiges fehlt), dann noch der extrem schmale Rahmen. Ich stehe zwar sonst nicht auf dieses Asus ROG-Zeug, aber das Teil macht echt was her. Suche schon nach einer Weile einen guten Gamer-Ersatz für meinen 24" Eizo-Grafikmonitor mit IPS. Das Ding könnte super passen. Bin mal auf Tests gespannt.

schreiber
2014-01-07, 02:05:32
Steht nicht fest, dass es IPS ist. Ich würde da auch eher von TN ausgehen.

Sunrise
2014-01-07, 02:08:23
Steht nicht fest, dass es IPS ist. Ich würde da auch eher von TN ausgehen.
Stimmt, das hab ich wohl gekonnt überlesen. ARGH :rolleyes:

Ein TN für diesen Preis wäre aber ein Witz, den können sie sich dann echt schenken.

Schaffe89
2014-01-07, 02:14:29
Trotzdem ist nVidia damit aufgeschlagen, und dafür gebührt Ihnen durchaus auch Lob. Genau wegen solchen Ideen, wo Sie die Branche etwas anstacheln, will ich nVidia am Markt auch nicht missen.


Solange daraus druck für offene Lösungen entsteht, ist das immer prima und muss Nvidia hoch angerechnet werden.!

Das würde wohl ziemlich böse am Image kratzen. Aber warten wir mal Blindvergleiche zwischen den Systemen wie gesagt ab.

Vor allem bei Usern die schon Geld in G-Sync investiert haben.

Skysnake
2014-01-07, 09:34:28
Ok, nVidias Marketingabteilung, äh.... PCPer hat ne Einbauanleitung für das GSync Modul gebracht. (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-DIY-Upgrade-Kit-Installation-and-Performance-Review/Installat-0)

Das Ding geht mal gar nicht. Wirklich die reinste Bastellösung. Schaut euch mal die Abdeckung für den Stromanschluss an, die beigelegt wird. Die hat keine Bohrungen... PCPer hat dann einfach die Alte genommen und jetzt ist das Gerät halt offen :crazy2::nono:

Auf den anderen Bildern sieht man auch wohl ein internes Netzteil, wenn ich das richtig interpretiere. Die Schaltung mit der braun/gelblichen Platine meine ich. Das kannste doch keinem Endanwender in die Hand drücken :ucrazy:

Sie haben auch Bilder vom FPGA. Das seltsame, man findet die Typebezeichnung nicht wirklich bei Altera (http://www.altera.com/products/devices/dev-format.html).

5AGXMA... ist die Bezeichnung. An sich spricht das wohl für nen Arria, nen Arria GX und auch ArriaII sind es aber nicht, die haben andere Typebezeichnungen. Das ist wohl nen ArriaV GX (http://www.altera.com/devices/fpga/arria-fpgas/arria-v/arrv-index.jsp), der noch nicht in der Liste aufgeführt ist :freak:

Mit der GX Serie, würde es sich um die einfachste Variante handeln von den ArriaV. Das ist das neueste Midrange Produkt von Altera. Also kein Cyclone Low-Cost Ding, sondern eins, das schon richtig Geld kostet.

Also ich hab mal jetzt mich wirklich auf die Suche gemacht, und FAST den richtigen Chip gefunden bei Altera. Der hier verlinkte Chip ist ganz leicht besser, sollte aber Preislich kaum was ausmachen.

http://de.mouser.com/ProductDetail/Altera-Corporation/5AGXBB3D4F31I5N/?qs=sGAEpiMZZMvoScKlWpK8TBFFO0FjFVkjth2CpKI1N%2fY%3d

Und wisst ihr was der kostet? RATET MAL!


1.058,21€ PRO FPGA!

Die haben doch nen SCHADEN.... :uwoot::ucrazy3:

Coda
2014-01-07, 11:01:50
Ist doch wohl klar, das NVidia da bessere Konditionen bekommt, wenn sie sagen wir 100000 abnehmen.

Das Die ist ja nicht besonders groß.

Skysnake
2014-01-07, 12:18:00
Da ist aber noch keine Platine dabei, noch keine Stromversorgung, noch kein Netzteil, noch kein DDR RAM noch keine Abdeckung usw.

Und FPGAs sind teuer. Sooo klein ist der Chip auch gar nicht. Das ist eben nicht einer aus dem Low-Cost segment, die wirklich relativ billig sind, sondern einer der größeren Klopper.

Klar, es ist kein Stratix, aber der passt ja nichmal mehr auf einen DIE.

Ich hab jetzt auch die Maße für das Package gefunden. (http://www.altera.com/literature/sg/sg-arria-v.pdf) (S. 3) 31x31mm ist das groß. Ausgehend davon ist der DIE 12,82x12,50 mm, also 160,25mm² groß. Also ich würde das nicht als klein und unbedeutend bezeichnen. Das liegt in der DIE size ziemlich genau zwischen GK107 (118mm²) und GK106(214mm²).

Ich hab btw. jetzt sogar noch ne bessere Seite von Altera gefunden um die Specs sich an zu schauen (http://www.altera.com/literature/hb/arria-v/av_51001.pdf) (Seite 6).

Der FPGA den nVidia verwendet, hat zwar weniger Logik, dafür aber PCI-E und DRAM Controller mit drin im Vergleich zu dem, den ich verlinkt habe. Dafür hat er mehr 362k Logic elements und der von nVidia nur 156k. Auf der anderen Seite sind die Transceiver beim nVidia FPGA doppelt so schnell wie bei dem von mir verlinkten. Auch der Speedgrad ist mit 3 die höchste Stufe bei dem von nvidia und dem von mir mit 5 die zweit schlchteste (=drittbeste).

Und gerade die Sachen lässt sich Altera eigentlich ganz gut was kosten.

EDIT:
So toll, diese ... Seite von Mouser... Per händischer Suche finde ich jetzt den Chip... Vorher hat er mir den nicht ausgespuckt... Und die Sortierfunktion für die Preise ist AUCH am Arsch... Ey wie ich mich so kaputte Seiten aufregen...
Das ist jetzt GENAU der Chip den nVidia verbaut. http://de.mouser.com/ProductDetail/Altera-Corporation/5AGXMA3D4F31I3N/?qs=sGAEpiMZZMsWE4XtJSx%252bsfXAlOnd8f6tTyRJOBH6yVE%3d

Kostet sogar "nur" noch 635,54€.

So und jetzt zu deinem Einwand:
Klar wird nVidia das etwas billiger bekommen, aber auch nicht umsonst. Selbst wenn du 50% Rabatt bekommst, wovon ich nicht wirklich ausgehen würde, immerhin hat Altera nichts zu verschenken, und der Chip den nVidia sich da ausgesucht hat, hat zwar wenig Logik, aber die Transceiver sind schon nicht schlecht, genau wie so manches andere auch an dem Chip. Das ist also kein "Abfallchip". Der teuerste macht bei Mouser 1.568,-€, der billigste aber nur 165,66€. Bei so nem Chip aus dem preislichen Mittelfeld kannste den Preis nicht beliebig drücken.

Btw. falls ich es vergessen habe, das versteht sich natürlich OHNE MwSt.

Da wirds für nVidia schwer, alles in allem wirklich ernsthaft mit mehr als ner schwarzen Null raus zu gehen aus der Geschichte. Das Ding ist halt einfach viel zu komplex.

Coda
2014-01-07, 12:22:47
Ich geh nicht davon aus, dass sie mehr als 100-150$ für die Hardware bezahlen. Wofür wird das Zeug verkauft?

Sunrise
2014-01-07, 12:38:40
Ich geh nicht davon aus, dass sie mehr als 100-150$ für die Hardware bezahlen. Wofür wird das Zeug verkauft?
Der Endpreis liegt wohl so um die 150-180 EUR. Für den ASUS wurde $175 im PCPer-Artikel genannt.

@Skysnake:
Die Frage ist, ob die erste Version, die auch im DIY-Kit schneller rausgehauen werden musste (um es den ersten Käufern auch schnell zu ermöglichen, das zu testen) der Version entspricht, die bald in mehreren Monitoren direkt integriert ist. Die Verschiebung von G-Sync könnte damit evtl. zusammenhängen.

Das erste FPGA-Modul war wohl eher so eine Labor-Prototypen-Version, wo man evtl. in Kauf genommen hat, dass man hier erstmal ordentlich drauf zahlt. Vielleicht wollte man bei dem Ding einfach gewissen Freiheiten haben, die man jetzt enger abgesteckt hat.

Skysnake
2014-01-07, 12:42:37
Was wird denn groß verkauft bisher?

Man sollte ja nicht außer Auge lassen, dass die 1. AMD damit ziemlich in die Parade gefahren sind und 2. erstmal nur ASUS dran ist, und die anderen erst in Q3/14 kommen sollten. So war meine Info, und bis dahin haben die für sowas relativ simples wohl auch nen ASIC gebastelt.

Ich würde nicht erwarten, dass wir in den GEräten ab Q3 noch einen FPGA finden werden. Das ist einfach zu teuer, und weder Altera noch Xillinx sind große Wohltäter. Die wissen was die Entwicklung von ner funktionierenden FPGA Implementierung kostet, und dass die Alternativen halt noch teurer wären. Die Kunden haben halt schlicht keine andere Wahl, daher sind die Preise da auch so gesalzen.

Was mich ja vor ALLEM! interessieren würde ist, ob in dem ASUS Monitor, der direkt mit GSync ausgeliefert wird überhaupt noch nen FPGA drauf ist, oder nicht. Wenn ja, wird die Verfügbarkeit beschissen sein.

Sehen wirs mal so. nVidia hatte schnell was, und mehr als ein paar hunder, oder tausend FPGAs werden die wohl nicht abnehmen. Halt die Leute anfüttern, und dann warten bis der ASIC fertig ist, oder man es siehe FreeSync nicht doch auch irgendwie anders gelöst bekommt.

Das wird ECHT spannend wenn der ASUS Monitor draußen ist, und ich hoffe echt, das jemand das Ding auseinanderbaut. Ich würde da echt nicht drauf wetten wollen, was man vorfindet.

schreiber
2014-01-07, 12:43:16
Der Monitor ist nicht lieferbar und derzeit für 529 Euro gelistet. Daraus 150 € Aufpreis zu schließen, ist gewagt. Warten wir mal ab.

@Skysnake
Für Q2 sind die anderen Hersteller angekündigt.

Sunrise
2014-01-07, 12:52:31
Was wird denn groß verkauft bisher?
...
Ich würde nicht erwarten, dass wir in den GEräten ab Q3 noch einen FPGA finden werden.
...
Was mich ja vor ALLEM! interessieren würde ist, ob in dem ASUS Monitor, der direkt mit GSync ausgeliefert wird überhaupt noch nen FPGA drauf ist, oder nicht. Wenn ja, wird die Verfügbarkeit beschissen sein.

Sehen wirs mal so. nVidia hatte schnell was, und mehr als ein paar hunder, oder tausend FPGAs werden die wohl nicht abnehmen. Halt die Leute anfüttern, und dann warten bis der ASIC fertig ist, oder man es siehe FreeSync nicht doch auch irgendwie anders gelöst bekommt.

Das wird ECHT spannend wenn der ASUS Monitor draußen ist, und ich hoffe echt, das jemand das Ding auseinanderbaut. Ich würde da echt nicht drauf wetten wollen, was man vorfindet.
Korrekt, genau in die Richtung gehen auch meine Gedanken.

Mehr noch, ich bin mir sogar relativ sicher, darüber eine Aussage seitens NV gelesen zu haben, dass man hier nicht unbedingt beim FPGA bleiben wird. Es ist schlichtweg vollkommener Quatsch in Masse solch ein Monster zu verbauen, vor allem, weil das ja keine Kit-Versionen mehr sind, die so flexibel sein müssen, sondern welche, die im Monitor für immer eingebaut bleiben, da wird sich z.B. seitens der Panel-spezifischen Parameter also nichts ändern.

Skysnake
2014-01-07, 12:54:37
Der Monitor ist nicht lieferbar und derzeit für 529 Euro gelistet. Daraus 150 € Aufpreis zu schließen, ist gewagt. Warten wir mal ab.

@Skysnake
Für Q2 sind die anderen Hersteller angekündigt.
30.06 ist auch noch Q2...

N0Thing
2014-01-07, 13:55:03
Also laber nicht nen Scheis, dass das völlig wumpe ist. Wir leben in einer realativistischen Welt mit endlicher Lichtgeschwindigkeit, und da ist absolut nie was scheis egal.....

Das stimmt. Nur nimmst du einfach an, daß sich die Latenz verschlechtert, ohne alle Informationen zu haben. Auf der alten Platine ist auch ein Chip drauf, wie hoch taktet der und wie viel Verzögerung kommt durch ihn hinzu? Wie sind die Leitungen auf der alten Platine verlegt? Wie ist die Steuerung designt?

Ein wissenschaftlich denkender Mensch hätte gesagt, daß sollte man mal überprüfen, ob es neben einem meßbaren Unterschied in eine Richtung auch eine spürbare Änderung gibt. Und nicht aus dem blauen heraus behaupten, daß sich die Latenz merklich verschlechtert, weil ja vielleicht 1-100km mehr Leitung dazu gekommen sind. Das wäre für den Endanwender übrigens tatsächlich scheiß egal. ;)

Und bei einer spürbaren Änderung, die uns PCPer schildert, fühlt sich scheinbar g-sync besser an als v-sync off. Und das deckt sich mit den Schilderungen der Redakteure, die auch vor Ort bei der Vorführung im letzten Jahr dabei waren.

Skysnake
2014-01-07, 13:59:37
Ach PCper kann absolute Latenzen messen? Interessant, das ist ja was ganz Neues. Wie machen die denn das?

Und natürlich kann theoretisch der Fall bestehen, den du nennst, aber du vergleichst nen ASIC mit nem FPGA... So lange die Leute bei den Displayherstellern nicht den TOTALEN Megafail gemacht haben, kommste mit nem FPGA nicht an die Performance von nem ASIC ran.

Und sorry, ich geh halt nicht davon aus, das bei egal welchem Hersteller irgendwelche Vollpfosten als Engineers arbeiten. In der Führung wimmelts davon, aber nicht bei den Technikern, die sowas entwickeln und bauen.

N0Thing
2014-01-07, 14:14:29
Ach PCper kann absolute Latenzen messen? Interessant, das ist ja was ganz Neues. Wie machen die denn das?

Wo hab ich das behauptet? :confused:

Ich wollte von dir ein paar Fakten lesen, denn PCPer haben sich, wie ich geschrieben habe, zu den spürbaren Eindrücken geäußert, die, wie ich schrieb, auch im Einklang mit den Kommentaren anderer Schreiberlinge stehen.

Deshalb wäre es ganz nett, wenn du mal deine gemessenen Latenzen vorlegen würdest, denn im Gegensatz von PCPer hast du von den absoluten Werten geschrieben und das die durch g-sync verschlechtert werden. Also, lass hören. :)

Skysnake
2014-01-07, 14:26:00
PCPer nimmt FCAT mal wieder her und nudelt das dafür durch.

Da werden aber halt nur relative Latenzen gemessen und keine absoluten. Das ist halt der Denkfehler an der Interpretation von dem was PCPer da wieder schreibt.

N0Thing
2014-01-07, 15:03:09
Also weiterhin nichts konkretes von dir? Vielleicht wenigstens ein Link, wo PCPer angeblich die Latenzen mittels FCAT beurteilt? Im G-Sync DIY Review ist davon nämlich nichts zu finden. Das Diagramm auf der letzten Seite soll nur das Verhalten um die 30FPS-Marke herum verdeutlichen.

Falls du weiterhin alles was dir nicht in den Kram paßt ignorierst, dann ist halt EoD für mich.

Sir Integral Wingate Hellsing
2014-01-07, 16:01:56
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

Und schon kommt AMD mit Free Sync, was dann auf AMD und Nvidia GPU´s funktionieren wird.
Damit kann Nvidia sich G-sync in de Haare schmieren, wenn sie die Funktionalität auf ihre Karten beschränken.

http://www.heise.de/newsticker/meldung/Schoener-spielen-AMDs-FreeSync-als-Alternative-zu-G-Sync-2077066.html

nvidia pwned ;)

Video: http://www.youtube.com/watch?v=pIp6mbabQeM

Dimon
2014-01-07, 16:14:02
Hmm ich erkenne keinen unterschied, beide Displays stottern :|

aufkrawall
2014-01-07, 16:14:19
Man kann G-Sync erst dann zerreißen, wenn das FreeSync wirklich erwiesenermaßen gleichwertig funktioniert.
Dieses Video ist quasi eine (bewusste?) Irreführung, das zeigt einen Furz.
Ich kann auch einen Monitor auf 50Hz und den anderen auf 30 takten und beide gleichzeitig abfilmen.

Wenn man sich von so was täuschen lässt...

Edit: Video mit madVR frame blending anschauen, dann stottert nur 30fps.

Skysnake
2014-01-07, 16:16:39
Nur um späteren Ausflüchten vor zu beugen, wer wäre denn für dich valide, damit erwiesen ist, dass es gleichwertig ist?

aufkrawall
2014-01-07, 16:20:05
Nur um späteren Ausflüchten vor zu beugen, wer wäre denn für dich valide, damit erwiesen ist, dass es gleichwertig ist?
Dass ich beides hier rumstehen hab.

Fürs Erste wär eine schwankende Framerate, die auf einem Free-Sync Display weniger ruckelt als mit klassischem Vsync daneben, aber auch schon mal was. Wie bei G-Sync halt gezeigt.
Was du natürlich wusstest, wieso fragst du eigentlich so doof?

Tesseract
2014-01-07, 16:27:20
soweit ich das mitbekommen habe gibt variable vblank der graka nicht die kontrolle über den refresh sondern nur die möglichkeit on-the-fly eine andere refreshrate vom monitor anzufordern. das ist für schwankende fps wohl vollkommen unbrauchbar weil man "raten" müsste wie lange der nächste frame bzw. die nächsten paar frames rendern werden und der inputlag ist um nix besser als mit normalem vsync.
das ist eigentlich ein stromsparfeature für laptops damit diese z.B. im idle über mehrere sekunden hinweg von 60Hz auf 30Hz schalten können.

fällt ungefähr in die selbe kathegorie wie einen framelimter als vsync zu verkaufen oder wie die volari damals "antialiasing" als blurfilter zu implementieren.

fondness
2014-01-07, 16:37:03
27"-WQHD-Monitor mit IPS-Panel, 120 Hertz, 1ms und G-Sync von Asus

http://www.computerbase.de/news/2014-01/27-wqhd-monitor-mit-g-sync-und-120-hertz-von-asus/

Ziemlich gute Daten auf dem Papier (wobei da noch einiges fehlt), dann noch der extrem schmale Rahmen. Ich stehe zwar sonst nicht auf dieses Asus ROG-Zeug, aber das Teil macht echt was her. Suche schon nach einer Weile einen guten Gamer-Ersatz für meinen 24" Eizo-Grafikmonitor mit IPS. Das Ding könnte super passen. Bin mal auf Tests gespannt.

Inzwischen ist TN bestätigt.

Sunrise
2014-01-07, 16:55:22
Inzwischen ist TN bestätigt.
Danke. So ein Mist, das Teil gefällt mir optisch richtig gut.

N0Thing
2014-01-07, 17:00:29
Dass ich beides hier rumstehen hab.

Fürs Erste wär eine schwankende Framerate, die auf einem Free-Sync Display weniger ruckelt als mit klassischem Vsync daneben, aber auch schon mal was. Wie bei G-Sync halt gezeigt.
Was du natürlich wusstest, wieso fragst du eigentlich so doof?

Mir würde auch schon ein Test mit Anwendungen, die von der Fachpresse durchgeführt werden reichen, um einen ersten neutralen Eindruck zu bekommen.
Die auf der CES gezeigten Form ist ausreichend für eine Ankündigung auf einer Messe, daß es die Technik gibt und sie in gewisser Weise funktioniert. Um sich ein erstes Urteil bilden zu können, wäre aber ein Test z.B. mit dem neuen Tomb Raider durch die Journalisten notwendig.

Loeschzwerg
2014-01-07, 17:00:32
soweit ich das mitbekommen habe gibt variable vblank der graka nicht die kontrolle über den refresh sondern nur die möglichkeit on-the-fly eine andere refreshrate vom monitor anzufordern. das ist für schwankende fps wohl vollkommen unbrauchbar weil man "raten" müsste wie lange der nächste frame bzw. die nächsten paar frames rendern werden und der inputlag ist um nix besser als mit normalem vsync.
das ist eigentlich ein stromsparfeature für laptops damit diese z.B. im idle über mehrere sekunden hinweg von 60Hz auf 30Hz schalten können.

fällt ungefähr in die selbe kathegorie wie einen framelimter als vsync zu verkaufen oder wie die volari damals "antialiasing" als blurfilter zu implementieren.

+1, habe ich ebenfalls so verstanden. Daher muss sich auch erst einmal zeigen wie brauchbar die ganze Sache ist.

Zumindest erklärt sich so ganz eindeutig warum NV die zusätzliche HW für G-Sync benötigt.

According to AMD, there’s been a push to bring variable refresh rate display panels to mobile for a while now in hopes of reducing power consumption

Skysnake
2014-01-07, 17:10:00
Dass ich beides hier rumstehen hab.

Fürs Erste wär eine schwankende Framerate, die auf einem Free-Sync Display weniger ruckelt als mit klassischem Vsync daneben, aber auch schon mal was. Wie bei G-Sync halt gezeigt.
Was du natürlich wusstest, wieso fragst du eigentlich so doof?
Also kurzgesagt, du entscheidest was die "Wahrheit" ist, und wenn das von der "Wahrheit" von irgend jemand anderem abweicht, dann hat er Unrecht.

k gechecked.

Sunrise
2014-01-07, 17:11:28
Dass ich beides hier rumstehen hab.

Fürs Erste wär eine schwankende Framerate, die auf einem Free-Sync Display weniger ruckelt als mit klassischem Vsync daneben, aber auch schon mal was. Wie bei G-Sync halt gezeigt.
Sehe ich ähnlich. Am besten wären dann Szenen, wo du ordentlich mit der Maus hantieren musst, damit man auch ein realistisches Spielgefühl übermittelt bekommt. Gleichzeitig relativ starke Schwankungen. Das wäre so das Horrorszenario und wenn das einwandfrei funktioniert. Prima. Da das aber scheinbar wohl nicht perfekt mit jeder Engine problemlos geht, ist natürlich wieder ein Negativpunkt, den man berücksichtigen muss. Und ob das überhaupt mit Free-Sync auch alles so abbildbar ist, das muss erst noch bewiesen werden.

Also kurzgesagt, du entscheidest was die "Wahrheit" ist, und wenn das von der "Wahrheit" von irgend jemand anderem abweicht, dann hat er Unrecht.

k gechecked.
Ich glaub da tusts du ihm Unrecht, vor allem da er die Hardware hat. aufkrawall traue ich schon zu, eine gute und zutreffende Aussage zu machen, was sich flüssig anfühlt und was nicht. Das ist mir persönlich jedenfalls 1000 Mal lieber, als Presse-Berichte, gekaufte Tests oder anderen Dingen.

Mir würde auch schon ein Test mit Anwendungen, die von der Fachpresse durchgeführt werden reichen, um einen ersten neutralen Eindruck zu bekommen.
Die auf der CES gezeigten Form ist ausreichend für eine Ankündigung auf einer Messe, daß es die Technik gibt und sie in gewisser Weise funktioniert. Um sich ein erstes Urteil bilden zu können, wäre aber ein Test z.B. mit dem neuen Tomb Raider durch die Journalisten notwendig.
Sowas wäre das absolute Minimum:

Monitor der Zukunft: Nvidias G-Sync im ersten Test - mit Zeitraffer-Kamera
http://www.pcgameshardware.de/LCD-Hardware-154105/Videos/Nvidia-G-Sync-Test-Video-1101195/

Nvidia G-Sync versus V-Sync: Tomb Raider
http://www.pcgameshardware.de/LCD-Hardware-154105/Videos/Nvidia-G-Sync-versus-V-Sync-Tomb-Raider-1094427/

Und auch wenn sich Redakteure noch so gekonnt anstrengen, wenn man das nicht selbst vor sich hat, wird man evtl. tearing zwar wahrnehmen können, aber über das eigentliche Spielgefühl sagt das überhaupt nichts aus.

N0Thing
2014-01-07, 17:17:38
Klar ist das ein absolutes Minimum, aber ich vertraue den Redakteuren der bekannten Seiten in ihrem Urteil bei diesen Dingen.

Ob es sich für mich persönlich lohnt oder nicht, das kann ich natürlich nur selber für mich entscheiden. Ist ja ähnlich wie mit SGSSAA. Da werden oft Screenshots mit 8xSGSSAA gezeigt und die Bildqualität gelobt, selber nutze ich in der Regel aber nur 4xSGSSAA, weil mir der Performanceeinbruch nicht die bessere Bildqualität wert ist.

Skysnake
2014-01-07, 17:21:36
Ich glaub da tusts du ihm Unrecht, vor allem da er die Hardware hat.

Er hat nen FreeSync System?


aufkrawall traue ich schon zu, eine gute und zutreffende Aussage zu machen, was sich flüssig anfühlt und was nicht. Das ist mir persönlich jedenfalls 1000 Mal lieber, als Presse-Berichte, gekaufte Tests oder anderen Dingen.

Dem kann ich leider nicht zustimmen. Wenn ich mir so manches anschau, dann hat AMD schon bei nem Wettstreit verloren, einfach weil AMD drauf steht. Das mag vielleicht jetzt ungerecht, oder sogar unwahr sein, aber das ist halt mein Gefühl. Daher sollte man sich bei solchen Sachen ja auch jemand unabhängigen Dritten suchen.

Funktioniert bei Gerichten ja auch gut, da will eigentlich jeder seinen eigenen Gutachter holen, aber dann kennste das Ergebnis schon, also einigt man sich auf nen unabhängigen Dritten und gut ist.

Und genau das würde ich eben gern von ihm wissen, was denn ein solcher unabhängiger Dritter für ihn ist.

Und ja, ich will ihn da festnageln, einfach weil ich inzwischen schon zu oft erlebt habe, wie er sich windet, wenn ihm das Ergebnis nicht passt.

N0Thing
2014-01-07, 17:26:02
Und ja, ich will ihn da festnageln, einfach weil ich inzwischen schon zu oft erlebt habe, wie er sich windet, wenn ihm das Ergebnis nicht passt.

Nur so aus Interesse, postet du noch was auf meinen Beitrag an dich, oder ist die Kehrwoche schon vorbei? :D

Botcruscher
2014-01-07, 17:32:39
Ich geh nicht davon aus, dass sie mehr als 100-150$ für die Hardware bezahlen. Wofür wird das Zeug verkauft?

Die Frage ist eher wozu ist die Hardware da. Bis jetzt ist das noch immer nicht (verständlich) geklärt.

aufkrawall
2014-01-07, 17:33:29
Ich habe natürlich kein G-Sync. :)
Kann mich auch nur auf die Videos und Testereindrücke beziehen.
Da kam G-Sync aber schon gut bei weg, für Free-Sync gibt es quasi rein gar nichts handfestes. Nur dieses Blender-Video. :(
Der Jubel ist völlig verfrüht und von Wunschdenken getrieben.

Dass jetzt schon 8Bit TNs kommen, ist auch schon mal ein Fortschritt. Da könnte mich mich vielleicht sogar drauf einlassen, wenn auch nicht für 800€.

Skysnake
2014-01-07, 17:37:21
Nur so aus Interesse, postet du noch was auf meinen Beitrag an dich, oder ist die Kehrwoche schon vorbei? :D
Welchen meinste gerade? Den mit Fraps oder was?

Wenn ja, verlink bitte nochmal, ich verlier gerade etwas den Überblick. Ich wollte bzgl GSync wegen irgendwas aber nochmal nen PCPer Artikel raussuchen.

N0Thing
2014-01-07, 17:39:07
Welchen meinste gerade? Den mit Fraps oder was?

Wenn ja, verlink bitte nochmal, ich verlier gerade etwas den Überblick. Ich wollte bzgl GSync wegen irgendwas aber nochmal nen PCPer Artikel raussuchen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10065190#post10065190

Tesseract
2014-01-07, 17:43:44
Wenn ich mir so manches anschau, dann hat AMD schon bei nem Wettstreit verloren, einfach weil AMD drauf steht.
du verdrehst da ursache und wirkung. AMD hat nicht bereits verloren weil am testgerät AMD drauf steht sondern weil AMD in vielen fällen im vorfeld einfach weniger ressourcen ins R&D gesteckt hat und die lösungen dementsprechend schlechter sind. spätestens dann wenn diese features auf enthusiasten treffen, die sie auch tatsächlich nutzen wollen und nicht nur feature-checklisten vergleichen kommen dann die mängel zum vorschein. das war bei der filterung so, das war bei multi-GPU so, das war bei den linuxtreibern so und deswegen sollte man auch hier erstmal sehr kritisch sein, ganz besonders wenn firma A ohne zugzwang lange an etwas entwickelt hat und firma B als reaktion darauf schnell irgendwas hinklatscht und behauptet es sei besser.

Gipsel
2014-01-07, 17:44:50
soweit ich das mitbekommen habe gibt variable vblank der graka nicht die kontrolle über den refresh sondern nur die möglichkeit on-the-fly eine andere refreshrate vom monitor anzufordern.Nicht so ganz. Es gibt ja keine bidirektionale Kommunikation, also im Prinzip synchronisiert sich das Display immer auf die GraKa (auch schon bei den alten analogen Interfaces), nur eben innerhalb bestimmter Grenzen. Diese waren früher sehr eng (weil bei den CRTs eben das Timing genau stimmen mußte), heute nicht mehr so. Der Monitor teilt immer der GraKa seine Timing-Parameter mit und die GraKa sollte sich dann daran halten (ansonsten synced der Monitor nicht auf das Signal und man bekommt einen schwarzen Bildschirm, zumindest wenn man weit außerhalb der Grenzen ist, viele Panels kann man aber bekannterweise auch über- oder untertakten, da nutzt man genau die mit flatpanels typischerweise größeren Toleranzen aus ;)). Früher (VGA, DVI, HDMI) wurden die Pixeldaten immer synchron zur Anzeige geliefert (variabler Pixeltakt), es war im Prinzip keine Pufferung im Display notwendig.
Mit Displayport funktioniert das etwas anders. Hier werden Datenpakete erstmal mit fester Transferrate übertragen (es kann unter ein paar gewählt werden). Die Transferrate wird natürlich immer so gewählt, daß sie höher liegt, als für den gewählten Displaymodus nötig ist. Man benötigt also immer weniger Zeit für die reine Datenübertragung, als durch die (erstmal als fest angenommene) Refreshrate vorgegeben. Hier ist also immer eine gewisse Pufferung im Display nötig. Um diese möglichst gering zu halten, versucht ein DP-Link standardmäßig eine Art isochrone (statt synchrone) Übertragung. Zwischen den Datenpaketen werden immer kleine Pausen eingelegt. Traditionell gibt es spezielle Pakete, die eventuell etwas größere Pausen nach der Übertragung einer Zeile (horizantal blanking) bzw. des kompletten Frames (vertical blanking) markieren, weil das für frühere Displaytechnologien mal wichtig war. Das Display kann sich aber prinzipiell nicht dagegen wehren, was die GraKa da sendet und wie groß die gemachten Pausen sind. Die einzige Frage ist, ob das Display damit klarkommt oder der Bildschirm schwarz wird. Es ist nicht zwingend erforderlich, daß das Display vorher weiß, wie lang z.B. das vblank-Intervall sein wird. Es hat typischerweise eine Toleranz bis zu einer bestimmten maximalen Dauer (die das Display z.B. über E-EDID an die GraKa kommunizieren kann). Weiterhin können je nach im Display integriertem Puffer (self refresh Panels können z.B. einen kompletten Frame speichern) und der maximalen Geschwindigkeit der Pixelmatrixprogrammierung auch die anderen Pausen (wie die hblank-Intervalle) sehr kurz (bis zu null) ausfallen, so daß die eigentliche Transfer bis ans Maximum der DP-Link-Geschwindigkeit getrieben werden können, völlig unabhängig von der letztendlichen Refreshrate.
Das einzige, was also der Monitor wirklich können muß, ist mit einer variablen vblank-Intervall klarzukommen (die Pixelmatrix hält die Werte relativ lange, sollte also kein Problem sein; continuous backlight ist absolut unproblematisch, bei PWM-Regelung des Backlights muß die PWM-Frequenz sehr hoch und nicht auf den Refresh synchronisiert sein oder entsprechend adaptiv arbeiten [habe schon mal beschrieben, wie das gehen würde]) und nicht ein feste Refreshrate zu erwarten (die ist bei heutigen Displays technisch unnötig!) und dann in Panik auszubrechen. Wenn er seine Fähigkeiten korrekt an die GraKa meldet, ist das Alles, was man benötigt. Außer natürlich einer GraKa mit halbwegs flexiblen Displayengines, die den Scanout nicht nur fix nach dem Ablauf eines Timers starten können (vorbestimmte Refreshrate), sondern das Ganze auch von einem Bufferflip getriggert werden kann, wie ich schon bei der GSync-Vorstellung schrieb.

Skysnake
2014-01-07, 17:50:05
Ok, dann war dass das Gleiche.

Also es geht mir um die beiden Artikel hier:

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Tech-Preview-and-First-Impressions

http://www.pcper.com/news/Editorial/PCPer-Live-Frame-Rating-and-FCAT-Your-Questions-Answered-0

Da haben Sie ja Framelatenzen ermittelt, und dafür gibt es zwei Möglichkeiten

1. FCAT: Da haste aber eben keine Angabe zu den Absoluten Latenzen, sondern nur relativ zu den Bildern, wobei selbst das nicht mehr, da ja die Ausgabe hin und her geschoben werden kann durch den FPGA. Davon sieht FCAT ja nichts.

2. Fraps: Laut PCPer ja eh der total Rotz und völlig unbrauchbar -> werden Sie ja wohl hoffentlich nicht verwendet haben oder? Und selbst wenn, hat man auch hier wieder nur die Möglichkeit eben relative Latenzen zu betrachten, und das nichtmal bzgl Ausgabe, weil da ja der FPGA reinpfuscht.

Das Einzige was du da machen kann, um zu schauen, ob GSync jetzt wirklich ohne zusätzlichen Lagg funktioniert, oder eventuell sogar noch weniger hat, weil die Verarbeitung besser ist (was ich nicht glaube) ist es, wenn du das Signal dublizierst und einmal ne CRT damit ansteuerst, und das andere Signal einmal an den Monitor mit Standardhardware sendest, und das andere mal an den gleichen Monitor aber eben mit GSync off/on.

Und dann brauchste noch ne Highspeedkamera und SEHR viel Zeit und das alles auch aus zu werten.

Anders geht es nicht. Du brauchst einfach ne Referenz, dann kannste wirklich Aussagen zum Output-Lag machen.

Das ist aber nen riesen Aufwand, daher wirst du das verständlich von keiner Webseite zu Gesicht bekommen. Bis das alles richtig und gut gemacht ist, kannste locker jemanden eine Woche nur dafür abstellen...

EDIT:
Was ich jetzt ganz vergessen habe noch zu erwähnen. Mit dem CRT gibts halt noch ein Problem. Kein CRT hat nen Displayport und nen Adapter kannste knicken, der macht ja auch wieder nur "irgendwas" Blackbocks halt. Damit kannste das dann auch gepflegt in die Tonne treten.

N0Thing
2014-01-07, 17:57:34
Ok, danke. Ich habe mich wie gesagt auf dieses Review von PCPer (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-DIY-Upgrade-Kit-Installation-and-Performance-Review/Impressions) bezogen, da kommt FCAT nicht zum Einsatz.
Den von dir verlinkten Artikel habe ich noch nicht gelesen, das hole ich mal nach. Absolute gemessene Latenzen habe ich aber bisher noch nirgendwo gesehen, von daher ist FCAT für bestimmte Bereiche immerhin eine Verbesserung gegenüber FRAPS.

Skysnake
2014-01-07, 18:22:21
Die erwähnen FCAT auch nicht, aber irgendwoher müssen die Werte ja kommen aus den Graphen, die haben ja nicht gewürfelt, und außer FCAT und FRAPS fällt mir nichts ein, was realistisch umsetzbar ist, und FRAPS wäre ja mal nen ziemlicher selfown für die :ugly:

@Fraps vs FCAT:
Nein, da ist FCAT kein Stück besser als Fraps, einfach weil du die Daten ermittelst BEVOR Sie zum FPGA kommen. Du hast schlicht keine Information darüber, was der da mit dem Bild macht.

Fraps als auch FCAT sind daher an sich Nullaussagen. Du kannst bei GSync nur noch das Bild an sich betrachten, das wars. Das führt eben dazu, dass du den angesprochenen Referenzmonitor brauchst um Vergleiche zu machen.

Btw. Ich hab nochmal drüber nachgedacht. Es sollte eigentlich jeder Monitor sich eignen, der sich wie nen CRT verhält. Er darf also keine Eingriffe am Signal betreiben. Dann kann man auch wieder ganz sichere Aussagen treffen.

N0Thing
2014-01-07, 18:37:16
Die Werte in dem Graph zum DIY-Review sollen nur den Frameverlauf darstellen und im besonderen das Verhalten von g-sync bei Werten um 30fps, weil unterhalb davon ja ein Zwischenbild eingeschoben wird. Steht aber auch alles im Text des Reviews, daß es nur noch mal die Eindrücke zusammenfassen soll.

Das Thema FCAT und Fraps gehört nicht hierher, dafür gibt es einen eigene Thread, aber es ist ja unwiderlegt, daß FCAT genauere Ergebnisse produziert als Fraps. Es gibt eben nur nicht über alles eine Auskunft. Aber solange nichts bessere verfügbar ist, nimmt man eben was zu haben ist.

Skysnake
2014-01-07, 18:44:19
Schon klar, nur werden diese BEIDEN Messungen durch den FPGA halt total umgangen.

Der Kann ja die wildesten Sachen machen.

Eigene Bilder berechnen auf Grundlage von Interpolationen usw usw. Das Ding ist ja nicht nen Hanswurst, sondern hat schon nen bischen was unter der Haube zusammen mit reichlich RAM.

ndrs
2014-01-08, 13:47:16
Ich lach mich tot.
http://www.pcgameshardware.de/LCD-Hardware-154105/News/Nvidia-G-Sync-Verlustgeschaeft-FPGAs-kosten-635-Euro-1104001/
Ich dachte bei der PCGH hat man wenigstens ansatzweise eine Ahnung, wie sich Preise von Elektronikkomponenten über Stückzahlen verhalten. Das nV über 200€ für den FPGA zahlen soll ist jedenfalls lächerlich.

Hübie
2014-01-08, 14:17:44
Ich wäre mir da nicht so sicher. Und es geht ja nicht nur um den ASIC sondern auch um die Komponenten drum herum.
Kann also durchaus sein dass nVidia da noch draufzahlt oder sich die Kosten mit ASUS vielleicht auch teilt (wer weiß das schon).

Skysnake
2014-01-08, 14:29:52
Es ist kein ASIC. Es ist ein FPGA, und genau das ist das Problem.

Wenn die wirklich nen ASIC verbauen würden, und der auch in entsprechenden Stückzahlen produziert würde, brüchten wir uns über den Preis gar nicht unterhalten.

Das Problem ist der FPGA. Altera/Xillinx wissen nämlich, dass die Alternativen teurer sind, deswegen verlangen die auch so viel für ihre Chips.

Hübie
2014-01-08, 14:47:27
Aber die original verbauten sind doch ASICs oder? Und nVidia bewegt sich ja in diese Richtung. Wahrscheinlich ist das jetzt erst mal sowas wie eine offene Betaphase ;D
Augenscheinlich hätte man damit noch warten sollen...

Sunrise
2014-01-08, 14:54:06
Aber die original verbauten sind doch ASICs oder? Und nVidia bewegt sich ja in diese Richtung. Wahrscheinlich ist das jetzt erst mal sowas wie eine offene Betaphase ;D
Augenscheinlich hätte man damit noch warten sollen...
Genau das wollte NV ja nicht, warten. Das ist ja genau der Punkt. NV wollte mit dem FPGA einen Zeitvorteil haben und dem Rest des Marktes (DP 1.3, variable refresh rates support, etc.) zuvorkommen. Im Grunde ist das FPGA derzeit einfach die finale Entwickler-Version, die du selbst einbauen kannst. Und bereits jetzt verfügbar, allerdings nur für ein einziges Panel. Eben genau das Panel, mit welchem man wohl zusammen mit ASUS auch die Prototypen entwickelt und getestet hat. Da geht man 100%ig sicher, dass das auch funktioniert.

Skysnake
2014-01-08, 14:54:43
DAS! ist halt die entscheidende Frage, von der auch so manches abhängt.

Man muss allerdings befürchten, das zumindest für den ersten Monitor, den ASUS jetzt bringt noch das FPGA-Board genutzt wird. Die STückzahlen werden dann halt extrem niedrig sein, und oh wunder die Nachfrage wird das Angebot übersteigen :rolleyes: *Kennen wir doch schon alles.

Dass der ASIC jetzt schon fertig ist und in Geräte eingebaut werden kann halte ich für ausgeschlossen. In 3 Monaten können wir das eventuell näher ins Auge fassen.

Ab Mitte des Jahres können wir dann aber recht sicher von ASIC-Versionen ausgehen denke ich.

Ums genau zu wissen, müsste halt mal jemand son ASUS Monitor in die Finger bekommen und auseinanderreisen ;)

PS:
Wenn jemand nen Versender hat, der das verkauft, dann hätte ich interesse, ob man das hier nach Deutschland geliefert bekommt. Wäre ne coole möglichkeit um "billig" an nen ganz ordentlichen FPGA zu kommen ;D

kruemelmonster
2014-01-08, 15:09:20
@FPGA-Mimimi:

The back story here is that NVIDIA chose to go with a more expensive FPGA chip for this first round of G-Sync hardware, reason being is that it is faster to get a product to market in this manner. This is typical for first run hardware, and purpose-built ASICs would logically follow in future generations of G-Sync hardware.

Dass an dieser Vorgehensweise von den üblichen Verdächtigen kein gutes Haar gelassen wird wundert mich kein bisschen. Wenn aber AMD auf NVs zeitintensive Entwicklung innerhalb von ein paar Tage mit nem gratis Holzschraubenmodell antwortet, dann ist natürlich klar dass NV einen nur über den Tisch ziehen will während bei FreeSync als Dankeschön noch ne Tüte Gummibärchen drin liegt. :rolleyes:

M4xw0lf
2014-01-08, 15:17:33
@FPGA-Mimimi:



Dass an dieser Vorgehensweise von den üblichen Verdächtigen kein gutes Haar gelassen wird wundert mich kein bisschen. Wenn aber AMD auf NVs zeitintensive Entwicklung innerhalb von ein paar Tage mit nem gratis Holzschraubenmodell antwortet, dann ist natürlich klar dass NV einen nur über den Tisch ziehen will während bei FreeSync als Dankeschön noch ne Tüte Gummibärchen drin liegt. :rolleyes:
Die interessanteste Frage ist immer noch was das Ding überhaupt tut.
Denn offenbar gehts ja einfacher.
Aus der aktuellen pcper-Meldung dazu: (http://www.pcper.com/reviews/Graphics-Cards/AMD-Variable-Refresh-FreeSync-Could-Be-Alternative-NVIDIA-G-Sync)Finally, as a last minute stirring of the pot, I received an email from AMD's Koduri that indicated that there might be some monitors already on the market that could support variable refresh rate TODAY with just a firmware update. [..] We are trying to find a list of these monitors so we can talk with them and ask for these necessary changes.
Genau das würde ich eigentlich auch vermuten, da der Support des variablen vblanks im Prinzip nicht so kompliziert ist (und man benötigt auch nicht unbedingt DP1.3, irgendein Flag in den EDID-Infos, der den Support signalisiert, würde eigentlich auch reichen). Aber warten wir mal ab.

Gipsel
2014-01-08, 15:20:14
Laut nV-Auskunft macht nVidia offenbar gar nichts Anderes als Freesync: variable vblank-Intervalle. Daß die da so viel Hardwareaufwand reinbuttern, hat offenbar nur mit dem Prototypen-Charakter des GSYNC-Boards zu tun. Im Prinzip kann das ohne wirkliche Zusatzkosten oder Mehraufwand von der Panelelektronik unterstützt werden (die damit nur klarkommen muß, was eventuell bei einigen Panels sogar per Firmwareupdate möglich ist), wenn die GPU das so senden kann (Unterstützung von Frametransfer nach bufferflip statt nach Ablauf eines Timers).

fondness
2014-01-08, 15:21:44
NV muss auf jeden Fall irgendwas "bedeutendes" liefern, das ohne diesem speziellen Modul nicht machbar ist, alles andere wäre Wahnwitzig. Niemand kauft sich um viel Geld ein solches Modul und nagelt sich damit auf eine bestimmten Monitor und Hersteller fest, wenn die Chance besteht das in Zukunft eine offene Lösung kommt die überall läuft und das ganz ohne teurer separater Hardware und der Festlegung auf ein sehr begrenztes Ekosystem.

Vor allem was passiert wenn sich G-Sync nicht durchsetzt und es NV deshalb fallen lässt? Dann hat man umsonst viel Geld für nichts investiert und kann mit Pech den ganzen Monitor entsorgen.

Skysnake
2014-01-08, 15:22:57
Ähm....

Klar verwendet man FPGAs für die Entwicklung von ASICs, machen wir auch. Da werden auch mal Samples gebaut für Kunden, aber nen Privatmann bekommt nen ASIC normal nie zu Gesicht. Das ist einfach viel zu Teuer.

EDIT:
@Fondness:
Warum?

Es ist halt ein Marketingstunt, der auch bisher verdammt gut funktioniert hat...

Was willste mehr? Und die paar Kits die da verkauft werden, verbuchste unter Werbungs-/Entwicklungskosten und gut ist, und sahnst die nächsten Jahre ab. Das ist doch genau das was nVidia schon öfters gemacht hat. Gut nicht so dilletantisch und extrem, aber im Prinzip nichts Neues.

Und warum sollte man den Monitor entsorgen können? Man kann doch noch immer DP nutzen und dazu halt VSync off, bzw normales VSync on. Soweit ich verstanden habe, wird ja VSync nicht komplett gestrichen. Falls doch, wäre das halt schon doof.

Iruwen
2014-01-08, 15:26:39
Klar verwendet man FPGAs für die Entwicklung von ASICs, machen wir auch. Da werden auch mal Samples gebaut für Kunden, aber nen Privatmann bekommt nen ASIC normal nie zu Gesicht. Das ist einfach viel zu Teuer.

FPGA meinst du. Wenn sie das doch machen zeigt das ja offenbar für wie klein sie die Zielgruppe halten.

Mr. Lolman
2014-01-08, 15:31:29
Warum nicht gleich so?

http://www.pcgameshardware.de/LCD-Hardware-154105/News/Freesync-AMD-G-Sync-Konter-mit-offenen-Standards-Techdemo-1103932/

Skysnake
2014-01-08, 15:36:57
FPGA meinst du. Wenn sie das doch machen zeigt das ja offenbar für wie klein sie die Zielgruppe halten.
Ist doch egal, wie groß die "Zielgruppe" ist.

Es gibts was weiß ich 1k Kits/Monitore, und wenn die Weg sind, sind Sie weg. Das kann doch KEIN Schwein nachprüfen wieviele Sie verkauft haben, und per PM wird dann mitgeteilt, was für ein riesen Erfolg das war, und das man zich fach mehr Nachfrage hatte als man anbieten konnte bla bla bla.

Kennen wir doch eigentlich alles spätestens seid Shield. Da haben Sie doch genau das gemacht.

Vergisst man das so schnell wieder :confused:

kruemelmonster
2014-01-08, 15:41:24
Nvidia responds to AMD's ''free sync'' demo (http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo)

However, Petersen quickly pointed out an important detail about AMD's "free sync" demo: it was conducted on laptop systems. Laptops, he explained, have a different display architecture than desktops, with a more direct interface between the GPU and the LCD panel, generally based on standards like LVDS or eDP (embedded DisplayPort). Desktop monitors use other interfaces, like HDMI and DisplayPort, and typically have a scaler chip situated in the path between the GPU and the panel. As a result, a feature like variable refresh is nearly impossible to implement on a desktop monitor as things now stand.

That, Petersen explained, is why Nvidia decided to create its G-Sync module, which replaces the scaler ASIC with logic of Nvidia's own creation. To his knowledge, no scaler ASIC with variable refresh capability exists—and if it did, he said, "we would know." Nvidia's intent in building the G-Sync module was to enable this capability and thus to nudge the industry in the right direction.

You were told (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10065428&postcount=1062) so (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10065292&postcount=1045).

Akkarin
2014-01-08, 15:47:17
Wird schon im FreeSync thread diskutiert. Evt. sollte überlegt werden beides zusammen zu legen oder die Diskussionen strikter zu trennen ?

Gipsel
2014-01-08, 15:49:12
You were told (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10065428&postcount=1062) so (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10065292&postcount=1045).In den Links steht was völlig Anderes :rolleyes:.
Bei B3D (http://forum.beyond3d.com/showthread.php?p=1819414#post1819414) hat jemand eine treffende Zusammenfassung von Petersens Statement gefunden:
So Petersen pretty much confirms that it can be done properly (otherwise he would have denied it) on laptops / eDP - so the "speculative framerate prediction" speculation brought up is wrong.
And the DP protocol should be capable of it too, but the too-intrusive scalers on most displays are the problem. And we should, as suspected, see the g-sync module as a proof of concept replacement scaler/displaycontroller, not as an necessary addition. (and very much a prototype in it's rough/expensive hardware implementation).

kruemelmonster
2014-01-08, 15:56:22
In den Links steht was völlig Anderes :rolleyes:

Ich will mich mit dir fachlich überhaupt nicht streiten, da zieh ich den kürzeren; nichtsdestotrotz liefert Peterson eine Begründung warum die kurzfristig zusammengestrickte FreeSync Geschichte eben nicht zwingend an das G-Sync Modul ranreichen muss und man erst vergleichbare Tests abwarten sollte bevor AMD wieder zum König der Her(t)zen gekührt wird. Darauf wollten imo Tesseract und aufkrawall hinaus, und diese Meinung teile ich auch.

Gipsel
2014-01-08, 15:57:22
Ich will mich mit dir fachlich überhaupt nicht streiten, da zieh ich den kürzeren; nichtsdestotrotz liefert Peterson eine Begründung warum die kurzfristig zusammengestrickte FreeSync Geschichte eben zwingend nicht an das G-Sync Modul ranreichen muss und man erst vergleichbare Tests abwarten sollte bevor AMD wieder zum König der Her(t)zen gekührt wird.Er gibt eher eine Begründung, warum das gsync-Modul so kurzfristig zusammengestrickt wirkt. ;)

M4xw0lf
2014-01-08, 16:03:00
Er gibt eher eine Begründung, warum das gsync-Modul so kurzfristig zusammengestrickt wirkt. ;)
Um der breiten Verfügbarkeit von Monitoren mit variablem (per Grafikkarte steuerbarem) Vblank-Intervall zuvorzukommen? Welchen Sinn hat es für Nvidia, Zeit und Geld für eine Technologie in die Hand zu nehmen, deren Obsoleszenz bereits um die Ecke wartet? Man kann Nv ja wohl viel vorwerfen, aber keine wirtschaftliche Blödheit... ^^

kruemelmonster
2014-01-08, 16:05:20
Wenn es dir um das Vorhandensein des FPGAs geht, ist gerade das ein schöner Hinweis dass es wohl doch bissel komplexer ist als AMD suggerieren möchte. Wenn alles so einfach wäre hätte man auch einen ASIC von der Stange + custom FW nutzen können. Dass NV nicht nur für die interne Testphase sondern auch für die anfänglichen Consumer Versionen einen FPGA nutzt lässt Rückschlüße auf die Dimensionen der Aufgabe zu.

Gipsel
2014-01-08, 16:10:56
Wenn es dir um das Vorhandensein des FPGAs geht, ist gerade das ein schöner Hinweis dass es wohl doch bissel komplexer ist als AMD suggerieren möchte. Wenn alles so einfach wäre hätte man auch einen ASIC von der Stange + custom FW nutzen können. Dass NV nicht nur für die interne Testphase sondern auch für die anfänglichen Consumer Versionen einen FPGA nutzt lässt Rückschlüße auf die Dimensionen der Aufgabe zu.Du hast falsche Vorstellungen davon, wozu man einen FPGA typischerweise benutzt. Tipp: Mit der Komplexität oder "Dimension der Aufgabe" hat es nichts zu tun.

Gipsel
2014-01-08, 16:16:09
Evt. sollte überlegt werden beides zusammen zu legen oder die Diskussionen strikter zu trennen?
Sehr gute Idee. Ein Mergen der Threads würde die bisherige Diskussion recht unübersichtlich machen. Deswegen schließe ich hier und bitte darum, die Diskussion in einem neuen gemeinsamen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549697) fortzuführen.