PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51

Schaffe89
2016-07-15, 18:23:25
Die Frage ist doch, ob NVidia ihre Leistungsreserven bereits in DX11 ausfahren können und deswegen durch DX12/Vulkan nicht viel dazu gewinnen, während AMD's GCN-Architektur durch DX12/Vulkan die Rohleistung endlich auch auf die Straße bringen.


Eher reduziert AMD den Overhead in niedrigeren Auflösungen als dass sie die Leistung auf die Straße bringen, jedenfalls ist das meine Erkenntnis.

Schau dir einfach die einzelnen Benchmarks zu Doom und Vulkan im Vulkanthread an. Das ist echt nicht mehr auszuhalten. Dort steht alles drin, auch Skalierungen mit Nvidia!

Ich bezweifel nicht, dass AMD in Full HD und WHQD schneller ist, aber findest du es nicht ein bisschen komisch zu sagen, AMD kann endlich seine Grafikkarten auslasten, wenn es dann in 4K eher wieder so aussieht dass Fury X und GTX 1070/GTX980 Ti gleichauf sind? Was bedeutet das für die Masse der Spiele? Doch nicht dass AMD jetzt schneller wird, sondern einfach nur dass AMD im CPU Limit schneller wird. So oft ist das CPU Limit gar nicht das Problem bei AMD.
Zudem ist das in Doom auch noch abhängig davon welche Kantenglättung genutzt wird, nutzt man die nicht liegt AMD nicht mehr so gut. Das sind einfach Kirschen und dann sagst du so wird die Diretx12 Leistung später mal sein. Wers glaubt. Die Verschwörungstheorien dass AMD endlich seine Leistung freisetzen kann sind doch albern.

Man kann froh sein wenn AMD im Schnitt unter den neuen APIs im Schnitt im mittleren Einstelligen Prozentbereich hinzugewinnt.

Das was hier wieder versucht wird ist, durch ein Spiel unter Vulkan mit kaum ausgereiften Vulkan Treibern irgendwelche Tendenzen abzuleiten, gleiches könnte man mit Project Cars bei Nvidia veranstalten.
Wenn man eines die Jahre gelernt hat, dann doch das, dass man nicht auf einen Hype mit aufspringen sollte.

dargo
2016-07-15, 18:34:20
So oft ist das CPU Limit gar nicht das Problem bei AMD.

Wieder eine völlig falsche Aussage bei vielen DX11 Games. Sorry... du verbreitest hier soviel FUD, dass ich echt keine Lust mehr habe auf jedes einzelne Detail einzugehen.

Schaffe89
2016-07-15, 18:42:09
Wieder eine völlig falsche Aussage bei vielen DX11 Games. Sorry... du verbreitest hier soviel FUD, dass ich echt keine Lust mehr habe auf jedes einzelne Detail einzugehen.

Gibt aber gleich mehrere User die die gleiche Meinung hier vertreten, da musst du wohl gegen Windmühlen ankämpfen.:redface:
Du könntest ja auch darum bemüht sein den Widerspruch der Leistung in 4K durch ein Argument aufzulösen.

Hübie
2016-07-15, 18:47:44
Aber dargo: Wieso hats NV hinbekommen soviel unter D3D11 herauszuholen, dass man von D3D12 gar nicht mehr so profitiert, während AMD es meines Wissens nach in einem einzigen Titel hinbekommen hat? Die haben da einfach nicht investiert und nun geben die Unmengen für Akquisition aus. Weiß nicht was besser ist. Meine Meinung ist dass jeder IHV seine Pfoten aus jeglicher Entwicklung heraus halten sollten und den Devs jegliche Doku zur Verfügung stellen sollte. So scheißt man keine Käuferschaft an.
Der Balken von Doom unter Vulkan auf cb hat mich erst mal schockiert, aber als ich nachgemessen habe sah ich, dass deren Takt einfach unter dem Durchschnitt ist und worst case darstellt. Nach wie vor kommt keine FuryX an meine (!) Ti vorbei.

dargo
2016-07-15, 18:54:08
Aber dargo: Wieso hats NV hinbekommen soviel unter D3D11 herauszuholen, dass man von D3D12 gar nicht mehr so profitiert, während AMD es meines Wissens nach in einem einzigen Titel hinbekommen hat?
Du meinst im CPU-Limit? NV hatte keine andere Wahl als sie von Mantle Wind bekommen haben. Sie mussten was unternehmen.

fondness
2016-07-15, 19:06:35
Meine Meinung ist dass jeder IHV seine Pfoten aus jeglicher Entwicklung heraus halten sollten und den Devs jegliche Doku zur Verfügung stellen sollte. So scheißt man keine Käuferschaft an.

Das war mal AMDs Zugang, Nvidia hats ausgenutzt^^

Und BTW, ich glaube nicht, dass du mit deiner 980Ti über 30% mehr Leistung (!= Takt) heraus holst ggü. der von CB. Und eine Fury X kann man auch übertakten, wenn auch nicht so hoch.

MechWOLLIer
2016-07-15, 19:09:44
Der Balken von Doom unter Vulkan auf cb hat mich erst mal schockiert, aber als ich nachgemessen habe sah ich, dass deren Takt einfach unter dem Durchschnitt ist und worst case darstellt. Nach wie vor kommt keine FuryX an meine (!) Ti vorbei.
Das ist eine normale 1070 FE, ganz normal aufgewärmt. Da ist nix unterm Durchschnitt, es ist genau so wie die Karten sind. Recht hast du dagegen bei der 980 Ti. Aber ich kann dir sagen: Auch gegen eine von Haus aus übertaktete 980 Ti braucht sich die Fury X nicht zu verstecken.

Complicated
2016-07-15, 20:09:33
Du meinst im CPU-Limit? NV hatte keine andere Wahl als sie von Mantle Wind bekommen haben. Sie mussten was unternehmen.
AMD hat Nvidia hier völlig überrumpelt. Während Nvidia dachte sie können das DX-Verzögerungsspiel wiederholen, welches mit DX10 und DX11 schon erfolgreich war, hat AMD einfach öffentlich deklariert es würde keine weiter DX-Version nach DX 11 geben. Nvidia war investiert in Gameworks und kurz davor damit die Oberhand über die Spiele-Software zu erhalten.

Durch Mantle wurde MS gezwungen zu reagieren und Nvidia musste Einfluss nehmen in Form von Feature-Leveln um ihre Technologie und Hardware halbwegs modern erscheinen zu lassen. Mit der Übergabe von Mantle an die Khronos-Group, als Basis für Vulkan, hat AMD weiteren Druck auf Nvidias Software-Abteilung ausgeübt. Denn was ist passiert mit den Low-Level -APIs im Bezug auf die Entwickler?

Mit Low-Level-APIs werden Entwickler die Frameworks nutzen mit der Performance ins hintertreffen geraten. Während AMD weitere Optimierungen von den Konsolen-Entwicklern und Engine-Entwicklern quasi als Nebenprodukt geliefert bekommt um sie als Intrinsic Function auch anderen zur Verfügung stellt, muss Nvidia bei jedem Spiel spezifisch optimieren. AMDs GPUs profitieren müheloser weil die Hardware direkt Performance aus Low-Level Funktionen zieht. Während Nvidia mir deutlich mehr Aufwand Anpassungen in DX11 noch in bessere Performance umgemünzt hat, ist diese Abteilung bei DX12/Vulkan kaum gefragt, da die Treiberschicht kaum noch Performance raus kitzeln kann.

AMD hat dafür gesorgt, dass jedes Spiel individuell angepasst werden muss im Code mit Renderpfaden näher an der Hardware. Diese spezifischen Optimierungen fehlen in vielen Gameworkstiteln für AMD. Nur diesen Aufwand muss Nvidia nun plötzlich auf 3 APIs zusätzlich leisten, da seit langem plötzlich echte DX11-Konkurrenten viel zu früh ebenfalls relevant werden. Während man OGL und Linux zuvor noch als Nische mit betreut hat, sind nun AMDs GPUs in 2 APIs eindeutig besser am performen und es springen noch weitere DX11 Optimierungen heraus durch die Intrinsic Functions (IF)

Nvidia hat nun kein Framework, das alle relevanten APIs ausreichend bedient und man sieht dass ein DX12 Titel nach dem anderen erscheint wo Nvidias GPUs deutlich weniger Vorteile haben als in DX11 bisher. Vulkan wird ebenfalls AMD Hardware bevorzugen. Es wird spannend sein ob die bessere Performance der Nvidia GPUs diesen technologischen Rückstand lange genug kompensieren kann bis die Hardware wieder bei den Features für moderne Software ansprechbar ist. Ich vermute, dass hier erst nach Volta abhilfe kommt und Nvidia mit erscheinen von Vega das ganze um die Ohren fliegt.

Schaffe89
2016-07-15, 20:13:40
Und BTW, ich glaube nicht, dass du mit deiner 980Ti über 30% mehr Leistung (!= Takt) heraus holst ggü. der von CB. Und eine Fury X kann man auch übertakten, wenn auch nicht so hoch.

Dir ist schon klar, dass du deine Angaben mal wieder frisierst? Es sind lediglich in WHQD 30%, in Full HD 19% und in 4K 8%, außerdem ist Computerbase der Worst Case, andere Webseiten vermelden da eher anderes.

Das heißt an der Hackordnung ändert sich sogut wie gar nix.

http://www.gamestar.de/spiele/doom/artikel/doom_2016,44424,3275792.html

Ich vermute, dass hier erst nach Volta abhilfe kommt und Nvidia mit erscheinen von Vega das ganze um die Ohren fliegt.

An diese absurde Vermutung erinnere ich dich dann mal bei Release von Vega, wahrscheinlich liegst du meilenweit daneben.
Ich finds eigentlich unfassbar wie man sich an ein paar Prozent mehr Leistung einen runterholen kann.

dargo
2016-07-15, 20:22:23
AMD hat Nvidia hier völlig überrumpelt. Während Nvidia dachte sie können das DX-Verzögerungsspiel wiederholen, welches mit DX10 und DX11 schon erfolgreich war, hat AMD einfach öffentlich deklariert es würde keine weiter DX-Version nach DX 11 geben. Nvidia war investiert in Gameworks und kurz davor damit die Oberhand über die Spiele-Software zu erhalten.

Durch Mantle wurde MS gezwungen zu reagieren und Nvidia musste Einfluss nehmen in Form von Feature-Leveln um ihre Technologie und Hardware halbwegs modern erscheinen zu lassen. Mit der Übergabe von Mantle an die Khronos-Group, als Basis für Vulkan, hat AMD weiteren Druck auf Nvidias Software-Abteilung ausgeübt. Denn was ist passiert mit den Low-Level -APIs im Bezug auf die Entwickler?

Mit Low-Level-APIs werden Entwickler die Frameworks nutzen mit der Performance ins hintertreffen geraten. Während AMD weitere Optimierungen von den Konsolen-Entwicklern und Engine-Entwicklern quasi als Nebenprodukt geliefert bekommt um sie als Intrinsic Function auch anderen zur Verfügung stellt, muss Nvidia bei jedem Spiel spezifisch optimieren. AMDs GPUs profitieren müheloser weil die Hardware direkt Performance aus Low-Level Funktionen zieht. Während Nvidia mir deutlich mehr Aufwand Anpassungen in DX11 noch in bessere Performance umgemünzt hat, ist diese Abteilung bei DX12/Vulkan kaum gefragt, da die Treiberschicht kaum noch Performance raus kitzeln kann.

AMD hat dafür gesorgt, dass jedes Spiel individuell angepasst werden muss im Code mit Renderpfaden näher an der Hardware. Diese spezifischen Optimierungen fehlen in vielen Gameworkstiteln für AMD. Nur diesen Aufwand muss Nvidia nun plötzlich auf 3 APIs zusätzlich leisten, da seit langem plötzlich echte DX11-Konkurrenten viel zu früh ebenfalls relevant werden. Während man OGL und Linux zuvor noch als Nische mit betreut hat, sind nun AMDs GPUs in 2 APIs eindeutig besser am performen und es springen noch weitere DX11 Optimierungen heraus durch die Intrinsic Functions (IF)

Nvidia hat nun kein Framework, das alle relevanten APIs ausreichend bedient und man sieht dass ein DX12 Titel nach dem anderen erscheint wo Nvidias GPUs deutlich weniger Vorteile haben als in DX11 bisher. Vulkan wird ebenfalls AMD Hardware bevorzugen. Es wird spannend sein ob die bessere Performance der Nvidia GPUs diesen technologischen Rückstand lange genug kompensieren kann bis die Hardware wieder bei den Features für moderne Software ansprechbar ist. Ich vermute, dass hier erst nach Volta abhilfe kommt und Nvidia mit erscheinen von Vega das ganze um die Ohren fliegt.
Eine nette, ausführliche Beschreibung die ich absolut so mit dir teile.

Im übrigen kann ich dieses DX-Verzögerungsspiel von Nvidia durchaus verstehen. Eine neue GPU-Architektur zaubert man nicht mal eben so aus dem Ärmel. Von der Idee bis zur fertigen GPU vergehen mehrere Jahre.

Complicated
2016-07-15, 20:45:49
An diese absurde Vermutung erinnere ich dich dann mal bei Release von Vega, wahrscheinlich liegst du meilenweit daneben.
Ich finds eigentlich unfassbar wie man sich an ein paar Prozent mehr Leistung einen runterholen kann.
Ich finde es viel überraschender, dass eine einfache Zusammenfassung des aktuellen API-Marktes bei dir zu sexuellen Phantasien und Vergleichen führt. Ob das in diesem Thread angebracht ist sollen lieber die Mods entscheiden. Thematisch und im Ton halte ich das für weit daneben gegriffen. Deine Phantasien solltest du privater leben.

Schaffe89
2016-07-15, 20:54:38
Die Zusammenfassung des aktuellen API Marktes habe ich damit gar nicht gemeint, sondern lediglich die Tatsache dass wenn eine Fury X mal an die Leistung der 1070 herankommt und bei Kirschen mal ein bisschen darüber liegt, gleich so ein Fass aufgemacht wird und dann wieder so getan wird als ob AMD hier den heiligen Gral gefunden hat.

Besonders pikant sind immer solche bewussten kindischen Aussagen wie "AMD hat Nvidia hier völlig überrumpelt."
Das wird euch dann wieder alles auf die Füße fallen und man hat sich völlig umsonst hier angekeift.:upicard:

dargo
2016-07-15, 20:59:00
Du solltest vielleicht mal deine Scheuklappen ablegen. AMD verkauft nicht nur Furys. Das dürfte sogar die am schlechtesten an die Kunden abgesetzte Serie sein.

Schaffe89
2016-07-15, 21:03:54
Du solltest vielleicht mal deine Scheuklappen ablegen. AMD verkauft nicht nur Furys. Das dürfte sogar die am schlechtesten an die Kunden abgesetzte Serie sein.

Ja dann halt die rx480 die dann auf dem Niveau der GTX 980 liegt, eigentlich genau da wo sie auch hingehört, damit sich ein Kauf lohnt und sich die Karte wenigstens leistungsmäßig mit einer GTX 1060 anlegen kann, aber hey die GTX 1060 wird viel weniger Strom aus der Leitung ziehen, naja klar ist eines AMD hat Nvidia ausgetrickst.:freak:

Complicated
2016-07-15, 21:08:16
Besonders pikant sind immer solche bewussten kindischen Aussagen wie "AMD hat Nvidia hier völlig überrumpelt."
Das wird euch dann wieder alles auf die Füße fallen und man hat sich völlig umsonst hier angekeift.:upicard:Ich kann dir versichern, dass dein gekeife umsonst war. Was daran kindisch sein soll, dass Nvidia derzeit keinen Zugriff auf DX12/Vulkan Spiele bekommt bei den Entwicklern, wirst du mir dann ganz unkindisch mit einer andere sexuellen erwachsenen Metapher zeigen?

Complicated
2016-07-15, 21:15:16
Ja dann halt die rx480 die dann auf dem Niveau der GTX 980 liegt, eigentlich genau da wo sie auch hingehört, damit sich ein Kauf lohnt und sich die Karte wenigstens leistungsmäßig mit einer GTX 1060 anlegen kann, aber hey die GTX 1060 wird viel weniger Strom aus der Leitung ziehen, naja klar ist eines AMD hat Nvidia ausgetrickst.:freak:
Die GTX1060 wird es schwer haben gegen AMDs Custom 480er. Siehe die Ausstattung der Strix und 8 GB Speicher. Da kompensieren 30 W Stromersparnis nicht genug. Ich halte 16nm für deutlich teuerer derzeit als 14nm und die 15% kleinere Diefläche für zu wenig um den Preispunkt der RX480 zu unterbieten. Sie kommt von vornherein mit zu kleinen Margen für Nvidia(verglichen mit den Vorgängern) und P11 wird alles darunter Monatelang vor verfügbaren Nvidialösungen bei OEMs abgraben.

Ein weiterer Sargnagel in Nvidias kostenintensiven Software-Ambitionen. Wenn Nvidia hier nicht ins Hintertreffen geraten will müssen sie weiter Geld in Software pumpen zeitgleich mit der Hardware Entwicklung.

Dino-Fossil
2016-07-15, 21:28:56
Eher reduziert AMD den Overhead in niedrigeren Auflösungen als dass sie die Leistung auf die Straße bringen, jedenfalls ist das meine Erkenntnis.

Naja, das hilft, ist aber wohl nicht der alleinige Effekt. Aber für ein abschließendes Urteil brauch es mMn noch etwas Zeit, für mehr Titel und mehr Erfahrung mit den neuen APIs.

Die GTX1060 wird es schwer haben gegen AMDs Custom 480er. Siehe die Ausstattung der Strix und 8 GB Speicher. Da kompensieren 30 W Stromersparnis nicht genug.

Die 480 wird als wesentliche Vorteile wohl den Preis haben (es sei denn NVidia lässt sich auf einen Preiskampf ein) und evtl. die Speicherkonfiguration - wobei ich die 6GB Variante der 1060 für sehr sinnvoll halte - nur sind die 3GB Varianten fragwürdig.

Allerdings befürchte ich, dass gerade die 480 customs deutlich mehr als 30W auf die 1060 draufpacken, Wobei abzuwarten bleibt, wie sich die 1060 customs da verhalten...

MorPheuZ
2016-07-15, 22:02:38
Wenn man hier so mitliest könnte man meinen NV ist tot. Ich habe aber die Tage eher deutlich anderes gelesen in der Presse :uponder:

Seid doch mal sachlich!

Complicated
2016-07-15, 22:03:12
Nur wird Nvidias Marketing nicht auf "6 GB reichen auch" basieren können. Dafür waren sie selber zu plakativ in der Vergangenheit. Zumal im Raum steht, dass bei der GTX 1060 sich etwas GTX970 ähnliches zutragen könnte. Es gibt erste Gerüchte (noch nicht bestätigt) dass nur 32 der 48 ROPs schnell angebunden seien. Bisher habe ich noch keine Bestätigung der Quelle gefunden und sehe es als Gerücht. Ein GPC bei Pascal kann lediglich 16 ROPs ansprechen. Und bei der selben Anordnung wie bei GP104 wären lediglich 2 GPCs verbaut und keine 48 ROPs ansprechbar.
http://forums.anandtech.com/showthread.php?t=2475642

Complicated
2016-07-15, 22:10:38
Wenn man hier so mitliest könnte man meinen NV ist tot. Ich habe aber die Tage eher deutlich anderes gelesen in der Presse :uponder:

Seid doch mal sachlich!
Was ist denn daran unsachlich?
Ich schätze Nvidia wird ca. 10-15% Marktanteil bei dGPUs verlieren innerhalb der nächsten 12 Monate. Das ist dramatisch genug, jedoch auch eine Gesundung des Duopols. Nvidia wird mit Sicherheit die Marktführerschaft verteidigen bis sie DX12/Vulkan in Hardware nachliefern. Das Zeitfenster für AMD ist da klein und erlaubt solche Fehler wie mit dem PCIe Stromanschluß nicht. Das kostete einiges an Momentum im Marketing, unnötigerweise. Und GP104 ist ein tolles Produkt, welches allerdings IMHO zu teuer ist zum Marktanteile halten.

Dino-Fossil
2016-07-15, 22:13:14
Nur wird Nvidias Marketing nicht auf "6 GB reichen auch" basieren können. Dafür waren sie selber zu plakativ in der Vergangenheit. Zumal im Raum steht, dass bei der GTX 1060 sich etwas GTX970 ähnliches zutragen könnte. Es gibt erste Gerüchte (noch nicht bestätigt) dass nur 32 der 48 ROPs schnell angebunden seien.

Ein derartiges Eigentor wäre natürlich hilfreich für AMD (besonders nach den eigenen in Form von Überschreitung der PCIe Specs und dem etwas enttäuschendem Verbrauch). Wobei die Speicherproblematik ja bei der 970 erstaunlich wenig bewirkt hat (unverständlicherweise mMn).
Was wiederum auch bedeuten könnte, das sich NVidia da nicht so den Kopf macht und sich wieder darauf einlassen könnte - aber fragwürdig ist es.

Die Speichermenge von 6GB ist allerdings in dem angepeilten Performancefeld (max 1440p) momentan voll in Ordnung. Sicher sind 8GB für die Zukunft noch besser, aber die wenigsten potentiellen Käufer werden das so eng sehen.

Isen
2016-07-15, 22:22:26
Wenn man hier so mitliest könnte man meinen NV ist tot. Ich habe aber die Tage eher deutlich anderes gelesen in der Presse :uponder:
Seid doch mal sachlich!

Seit wann hat die Presse einen solchen Indikator?
Ohne die Presse als solche nun Diskreditieren zu wollen, aber als Indikator waren sie noch nie verlässlich. Eher als Indikator dafür, bis zum Schluss die Fahne hoch zu halten - mangels Informationen und Zugriffe auf diese. (Also völlig unbeabsichtigt- ist halt so)
Investment Events/Meetings in der IT sind besser als jede Presse. Da kriegst du nur Zugang wenn du Kohle hast. Nur hält man sich persönlich bedeckt und lässt die Sache einfach Rollen und erfreut sich der Dinge.
Mit Einzug von Lisa Su stand wenige Wochen bereits fest, dass ein Deal mit China gemacht wird. Das hat in der Finanzwelt erst einige viele Monate gedauert bis das dort realisiert wurde bzw. noch länger bis die Presse darüber berichtete ( und das auch nicht alle )...

Ich finde es nur immer wieder lustig, wie man aus der Interessengruppe "Kellerkind" mit seiner LED bestückten Grafikkarte/Mainboards/Speicher und co Vermutungen und Argumente von den Informationen aus der Presse herleitet und sich dabei auch noch Informiert hält und wisse, wie es zwischen den Herstellern bestellt ist. Gerade in dieser Branche ist der Konsument "Gamer" doch nur ein geringes Zubrot. Verbindlichkeiten mit Industriellen Komplexen werden fernab der Öffentlichkeit ausgehandelt. Ist doch nichts neues... und wenn mal einer Dinge ausplaudert, ist dieser ruck zuck Mundtot gemacht: Vergleichbar ähnliche Fälle gab es hier ja auch schon vor nicht langer Zeit und das war nicht einmal die Spitze des Eisberges.

...Alles läuft nach Plan,

Grüße

Locuza
2016-07-15, 22:22:51
Ich meine das ist schon mindestens seit Fermi so, dass Nvidia ab und zu mehr ROPs hat, als die Rasterizer füttern können.
Bei der 1070 wird soweit ich mitbekommen habe immer ein GPC ausgeknippst, bei der 780 hat der Kunde die Katze bisschen im Sack gekauft, 4 oder 5 GPCs konnten aktiviert sein, je nachdem was aufgrund der Defekte notwendig war.

BlacKi
2016-07-15, 22:26:46
Das Zeitfenster für AMD ist da klein und erlaubt solche Fehler wie mit dem PCIe Stromanschluß nicht. Das kostete einiges an Momentum im Marketing, unnötigerweise. Und GP104 ist ein tolles Produkt, welches allerdings IMHO zu teuer ist zum Marktanteile halten.
eher das bisher keine customs kommen. die radial lüfter tun sich nur "spezialisten" an.

Wobei die Speicherproblematik ja bei der 970 erstaunlich wenig bewirkt hat (unverständlicherweise mMn).
vl für dich unverständlich, aber die karte verhält sich absolut unproblematisch, vl deshalb..

Wenn man hier so mitliest könnte man meinen NV ist tot. Ich habe aber die Tage eher deutlich anderes gelesen in der Presse :uponder
reine stimmungmache. das hat damals schon gewirkt.

Complicated
2016-07-15, 22:32:27
Die Customs kommen zeitgleich mit der GTX1060. Das was schon lange klar für AMD. Ansonsten wären nicht so viele Freiheiten gegeben worden um einen so breiten Performancebereich abzudecken. Sapphire hat ja schon für nächste Woche angekündigt.

Dino-Fossil
2016-07-15, 22:43:46
vl für dich unverständlich, aber die karte verhält sich absolut unproblematisch, vl deshalb..


Hätte sie sich "absolut" unproblematisch verhalten, hätten es Nutzer nicht herausgefunden - von NVidia war ja erst nachher was zu hören.
Sicher, von der Performance her war es in weiten Teilen eine gute Karte für das Geld, aber die Speicherkonfiguration hätte von NVidia kommuniziert werden müssen - das ist der eigentliche Skandal.

Schaffe89
2016-07-16, 00:45:12
Was daran kindisch sein soll, dass Nvidia derzeit keinen Zugriff auf DX12/Vulkan Spiele bekommt

Die zusätzlichen Optimierungen die Nvidia für Diretx11 Spiele durchführen konnte werden jetzt durch die Low Level Programmierung auch bei AMD möglich, daraus ergeben sich kleine Performancevorteile die durch die Bank greifen können und AMD´s Karten um ein paar Prozent nach vorne zu hieven und das haben die Karten bitter nötig, vor allem die rx480 um gegen die GTX 1060 am Markt gut bestehen zu können.

Was du daraus machst ist folgendes:
"AMD hat Nvidia hier völlig überrumpelt."
Haben Sie nicht.
"Nur diesen Aufwand muss Nvidia nun plötzlich auf 3 APIs zusätzlich leisten"
Müssen sie nicht, da es laut dir ja wegfällt
"Vulkan wird ebenfalls AMD Hardware bevorzugen."
Nur weil man längst überfällig einen Overhead killt, wird daraus noch lange keine Bevorzugung einer Hardware IP.
"mit erscheinen von Vega das ganze um die Ohren fliegt. "
Das eher noch weniger, denn selbst mit den Verbesserungen ist rx480 gerade mal auf dem Niveau einer GTX 980, bleibt zu hoffen dass AMD mit Vega die GTX 1080 schlagen können und wenn sie es tun, dann ist das bei dem größer anzunehmenden Chip inkl. HBM auch zwingend notwendig.
"Die GTX1060 wird es schwer haben gegen AMDs Custom 480er. Siehe die Ausstattung der Strix und 8 GB Speicher. "
Die sollen es schwer haben? Genau weswegen eigentlich? Wegen der Ausstattung einer einzigen Karte?:confused: Die 2GB sind geschenkt, damals haben auch alle zur 3GB GTX 780 Ti gegriffen und 6GB sind deutlich sicherer wie die damals lediglich 3GB.
"Da kompensieren 30 W Stromersparnis nicht genug. "
Eigentlich ist jetzt anhand der Reviews der rx480 schon deutlich klar, dass es bei den 30 Watt nicht bleiben wird und Anhebungen des Powertargets die Leistungsaufnahme der rx480 explodieren lassen.
Natürlich weißt du auch dass die Leistungsaufnahme einer rx480 eher bei 165 watt liegt als die TDP von 150 Watt angibt.
Die 30 Watt sind süß.:freak:
"Ich halte 16nm für deutlich teuerer derzeit als 14nm und die 15% kleinere Diefläche für zu wenig um den Preispunkt der RX480 zu unterbieten."
So wichtig ist der Preis gar nicht, sondern vielmehr eher wie die Karte wird.
Kurzfristige unterschiedliche Fertigungskosten, niedrigere Yieldraten, die sich im laufe der Zeit in Luft auf lösen werden, sollen da jetzt groß eine Rolle spielen?
Verfügbarkeit soll bei TSMC ende des Sommers auch stark nach oben gehen.
Irgendwie nimmst du immer einfach an, dass bei Nvidia alles teurer und schlechter ist, was soll man davon halten?:rolleyes:
"und P11 wird alles darunter Monatelang vor verfügbaren Nvidialösungen bei OEMs abgraben.
"
So wie bereits die rx480 monatelang alles abgrast bevor die GTX 1060 kommt?:conf: Ich sehe noch keine rx460 und auch noch keinerlei Notebooks damit.
Langsam sollte AMD diesen Chip wohl bringen, wenn sie wie du sagst monatelang den Markt abgrasen.
"Nur wird Nvidias Marketing nicht auf "6 GB reichen auch" basieren können. Dafür waren sie selber zu plakativ in der Vergangenheit."
Und AMD´s Marketing wird nicht darauf basieren können 2GB mehr zu verbauen, die bei den Reviews in der zielgesetzen Auflösung von Full HD keinerlei Effekt haben werden.
"Und GP104 ist ein tolles Produkt, welches allerdings IMHO zu teuer ist zum Marktanteile halten. "
Deswegen muss AMD also einen größeren und teureren Vega Chip inkl. HBM2 auflegen um den viel zu teuren GP104 angreifen zu können, der in der kleinen Version nicht mal GDDR5x benötigt um auf Speed zu kommen.
"Die Customs kommen zeitgleich mit der GTX1060. Das was schon lange klar für AMD."
Eigentlich sieht alles danach aus, dass die 1060 Customs gleich zum 19 July erscheinen und AMD erst im August Customdesigns liefert, aber vermutlich wirst du auch da besser bescheid wissen als die Quellen wie Computerbase.

Complicated
2016-07-16, 01:30:18
Was du daraus machst ist folgendes:
"AMD hat Nvidia hier völlig überrumpelt."
Haben Sie nicht.
Doch haben sie
"Nur diesen Aufwand muss Nvidia nun plötzlich auf 3 APIs zusätzlich leisten"
Müssen sie nicht, da es laut dir ja wegfällt
Nein tut es nicht laut mir.

"Vulkan wird ebenfalls AMD Hardware bevorzugen."
Nur weil man längst überfällig einen Overhead killt, wird daraus noch lange keine Bevorzugung einer Hardware IP.
Nein aber da AMD Vulkan(aka Mantle) quasi für GCN geschrieben hat wird es auch besser Unterstützt durch die Hardware. Ein Massanzug ist ein Massanzug.

Auf das restliche brauch ich nicht weiter einzugehen da es von selber inhaltsloser Qualität ist... typisches Troll-Hackwerk und lediglich dafür geeignet den Thread zu zerreden...daher Pfff....
"Die Customs kommen zeitgleich mit der GTX1060. Das was schon lange klar für AMD."
Eigentlich sieht alles danach aus, dass die 1060 Customs gleich zum 19 July erscheinen und AMD erst im August Customdesigns liefert, aber vermutlich wirst du auch da besser bescheid wissen als die Quellen wie ComputerbaIch denke da ist ein Mitarbeiter von Sapphire immer besser als CB. Was Volker teilweise von sich lässt macht nicht gerade einen informierten Eindruck...daher CB als Referenz? Naja. Passt zu deinem Argumentationsstil.

StefanV
2016-07-16, 02:24:57
Aber dargo: Wieso hats NV hinbekommen soviel unter D3D11 herauszuholen, dass man von D3D12 gar nicht mehr so profitiert, während AMD es meines Wissens nach in einem einzigen Titel hinbekommen hat?
Weil nVidia mehr Geld hat und die auch für Treiberarbeit nutzen kann. Und es sich leisten kann, Applikationsspezifische Optimierungen zu erledigen.

Erinnerst du dich noch an AlphaTier?! Der wo mal sagte, dass durch einen neuen nVidia Treiber auf einmal irgendwelche Objekte in seinem Projekt verschwunden sind?

Schau dir doch mal die ganzen DIskussionen zur Geforce FX an und was nVidia da alles vorgeworfen wurde, auch in Hinblick auf Treibercheats, was dann zu diesem Statement führte (http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/)...
Da würde ich eher davon ausgehen wollen, dass dieses Verhalten 'optimiert' wurde und nVidia quasi jedes Spiel umprogrammiert und nicht das ausgibt/rendert, was vom Entwickler vorgesehen ward...

Foobar2001
2016-07-16, 04:38:04
Das ist bald 15 Jahre her Stefan.

dargo
2016-07-16, 08:19:47
Eigentlich ist jetzt anhand der Reviews der rx480 schon deutlich klar, dass es bei den 30 Watt nicht bleiben wird und Anhebungen des Powertargets die Leistungsaufnahme der rx480 explodieren lassen.

Anhand welcher Reviews? Wer hat das PT mal auf 110-115% gestellt? Ich lese kürzlich nämlich auch sowas hier.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102978&postcount=2699

Wer weiß wie groß die Serienstreuung der Chips ist.

PS: das mit den 30W wird aber sicherlich nicht hinkommen. Ich gehe von 100-120W bei der GTX1060 aus. Ich sehe die 1060 Stock allerdings @Low-Level etwas unter der RX480 Stock. Dafür bräuchte es eher eine GTX1065.

Edit:
Erste Hinweise auf die TDP?
56704

http://www.pic-upload.de/view-31214952/TB2OLHfsVXXXXaNXXXXXXXXXXXX_332206432.jpg.html

Wobei dort TGP steht, könnte also Fake sein.

Mancko
2016-07-16, 09:23:52
Die GTX1060 wird es schwer haben gegen AMDs Custom 480er. Siehe die Ausstattung der Strix und 8 GB Speicher. Da kompensieren 30 W Stromersparnis nicht genug. Ich halte 16nm für deutlich teuerer derzeit als 14nm und die 15% kleinere Diefläche für zu wenig um den Preispunkt der RX480 zu unterbieten.


Es ist nicht nur der kleinere DIE. Das Boardlayout kann simpler ausfallen, dass Speicherinterface ist reduziert, die RAM Menge geringer und die Kühung kann simpler ausfallen. In den reinen Produktionskosten ist eine GTX1060 nie im Leben teurer als eine RX480. Nur kann Nvidia wieder etwas mehr Geld verlangen und wird damit wieder einmal mehr Geld als AMD verdienen. Geld das im übrigen in ein deutlich höheres R&D Budget fließen kann. Dazu hat parallel Nvidia aktuell auch noch Produkte mit extrem hohen Margen. Das gibt dann einen ganz guten Querschnitt. Den Luxus hat AMD nunmal nicht und vermutlich auch noch für eine ganze Weile nicht.


Sie kommt von vornherein mit zu kleinen Margen für Nvidia(verglichen mit den Vorgängern) und P11 wird alles darunter Monatelang vor verfügbaren Nvidialösungen bei OEMs abgraben.

Ein weiterer Sargnagel in Nvidias kostenintensiven Software-Ambitionen. Wenn Nvidia hier nicht ins Hintertreffen geraten will müssen sie weiter Geld in Software pumpen zeitgleich mit der Hardware Entwicklung.

Was heißt denn bitte in zu kleinen Margen. Fakt ist Nvidia verdient seit Jahren konstant Geld und AMD eben nicht. Mit jedem Jahr in dem die Scheere so bleibt verschlechtert sich AMDs Ausgangsposition, da eben das R&D weiter gegenüber der Konkurrenz zurückfällt. Das ist in der Produktpalette seit gut 2 Jahren sehr gut sichtbar. Wenn sich einer fragt wieso es noch keinen VEGA jetzt gibt oder ein entsprechenden Maxwell Counterpart gegeben hat, dann kann er ja mal in Ruhe darüber nachdenken warum das so ist. Diese finanziellen Nöte sind ganz klar in AMDs Geschäftsberichtetn sichtbar und das spürt man im Markt.

G3cko
2016-07-16, 09:59:59
Das ist bald 15 Jahre her Stefan.

Und dennoch sehr aktuell.

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/news-artikel/radeon_rx_480_vs_geforce_gtx_1080,988,3273499.html

Da kann man nur hoffen dass durch Low Level APIs diese optimierungsmoglichkeiten entfallen. AMD hat nicht das Budget fur solche Tricks.

TightNX
2016-07-16, 10:43:30
Hach ja, immer wieder schön. Been there, done that. Commodore vs. Atari, Nintendo vs. Sega, jetzt AMD vs. nVidia. Scheint ein menschliches Bedürfnis zu sein. Das ich auch manchmal verspüre. :freak:

Wenn sich einer fragt wieso es noch keinen VEGA jetzt gibt oder ein entsprechenden Maxwell Counterpart gegeben hat, dann kann er ja mal in Ruhe darüber nachdenken warum das so ist.
Den Luxus eines Maxwell-Gegenschlags hat sich AMD gespart und alles auf die Zukunft gesetzt. Deswegen kommen Polaris und Vega nun auch recht schnell hintereinander, obwohl Vega mehr ist als nur ein übergroßer Polaris. Eine neue Architekturstufe, wie erst jüngst hier in den News berichtet und von AMD auch als solche kommuniziert wurde.

Und apropos Zukunft. Viel wichtiger für AMD ist ohnehin Zen.

"2016 was a great start for AMD, but actually, you haven't seen anything yet." - Lisa Su.

Menace
2016-07-16, 10:52:29
Und apropos Zukunft. Viel wichtiger für AMD ist ohnehin Zen.

"2016 was a great start for AMD, but actually, you haven't seen anything yet." - Lisa Su.

Von wann war das Zitat. Vor oder nach RX480 Veröffentlichung.

Gibt es eigentlich einen Termin für die 470?

maximus_hertus
2016-07-16, 11:22:59
Gibt es eigentlich einen Termin für die 470?

Im laufe der kommenden Wochen - Verkaufsstart ist, wenn die Partner die Karten ausliefern. Seitens AMD gibt es keine "Sperre" bzw. VK-Start-Datum.

Ich würde Minimum mit August rechnen (und dort eher Ende August), bei "uns" gib es nicht mal Einträge im System (im Gegensatz zur GTX 1060 / Custom 480).

Complicated
2016-07-16, 11:30:09
Was heißt denn bitte in zu kleinen Margen. Fakt ist Nvidia verdient seit Jahren konstant Geld und AMD eben nicht. Mit jedem Jahr in dem die Scheere so bleibt verschlechtert sich AMDs Ausgangsposition, da eben das R&D weiter gegenüber der Konkurrenz zurückfällt. Das ist in der Produktpalette seit gut 2 Jahren sehr gut sichtbar.Nun offensichtlich ist es nicht sichtbar, da AMDs R&D gestiegen ist und nicht gefallen. Zumindest laut Geschäftsbericht.

Auch an der Produktpalette lässt sich sehen, das Ausgaben noch lange keine Produkte hervorzaubern. Gsync, Tegra, Automotiv, Denver...alles mit enormen Ausgaben verbunden. Da sehe ich AMDs geringere Investitionen deutlich bessere Früchte tragen, vor allem in der Semi-Custom Abteilung wo man selber die Kosten gar nicht tragen muss. Nvidia entwickelt viel proprietären Schrott der schnell wieder verschwindet. Geldverbrennung. Dafür benötigten sie die hohen Margen...die wird GP106 nicht bieten da schon eine 4 GB RX480 als Konkurrent da steht. Wer jetzt meint das Marketing kann den Spagat fahren, dass 8 GB nicht nötig aber 4 GB definitiv zu wenig sind, der exakte Sweetspot sei nun 6 GB, der sieht das nicht realistisch. Ich bin nur gespannt welche Redaktionen sich dazu hinreisen lassen werden. Ich sehe die RX480 deutlich günstiger in der Produktion mit 4GB eben aus den von dir genannten Gründen. Die 8GB kostet minimal mehr. Die GTX1060 war für einen Preis um die 300$ konzipiert...Die RX480 für 199$.

TightNX
2016-07-16, 11:32:07
Von wann war das Zitat. Vor oder nach RX480 Veröffentlichung.
Bei der Vorstellung auf der Computex, also vor Veröffentlichung. War Teil ihres Abschlussstatements. Da ging es zwar auch nochmal um RX480 und die neuen APUs, aber der Fokus lag zum Schluss klar auf Zen. Machen wir uns nichts vor: Dieser Schuss muss sitzen. Einen zweiten Bulldozer wird AMD nicht überleben.

Und umgekehrt wird es AMD dann auch völlig egal sein, wenn mal eine nVidia-Karte auf ein AM4-Board gesteckt wird. ;)

fondness
2016-07-16, 11:56:12
Bei der Vorstellung auf der Computex, also vor Veröffentlichung. War Teil ihres Abschlussstatements. Da ging es zwar auch nochmal um RX480 und die neuen APUs, aber der Fokus lag zum Schluss klar auf Zen. Machen wir uns nichts vor: Dieser Schuss muss sitzen. Einen zweiten Bulldozer wird AMD nicht überleben.

Und umgekehrt wird es AMD dann auch völlig egal sein, wenn mal eine nVidia-Karte auf ein AM4-Board gesteckt wird. ;)

Na klar ist Zen wichtiger. Mit Zen bedient AMD einen >100 Mrd $ Markt, dagegen ist der GPU-Markt ein Witz. Nur muss man auch hier vor überzogenen Erwartungen warnen, Intel hat R&D-Ausgaben, die völlig jenseitig sind. Zu glauben, dass man da mit AMDs Mannstärke Bäume ausreißen kann, halt ich für nicht sonderlich realistisch.

Skysnake
2016-07-16, 12:00:31
Bei der Vorstellung auf der Computex, also vor Veröffentlichung. War Teil ihres Abschlussstatements. Da ging es zwar auch nochmal um RX480 und die neuen APUs, aber der Fokus lag zum Schluss klar auf Zen. Machen wir uns nichts vor: Dieser Schuss muss sitzen. Einen zweiten Bulldozer wird AMD nicht überleben.

Und umgekehrt wird es AMD dann auch völlig egal sein, wenn mal eine nVidia-Karte auf ein AM4-Board gesteckt wird. ;)
Wobei man auch bei der Einführung von Zen keine all zu großen Fehler machen sollte, was Sie meiner Meinung nach aber scheinbar machen.

Im Hintergrund hört man rein gar nichts zu ZEN, und die Firmen scheinen auch ziemlich zurückhaltend zu sein (Server-Bereich). Ich befürchte AMD steckt da aktuell etwas zu wenig Mittel/Personal in die Kundenbeziehungen. Produkte müssen vorbereitet werden und da scheint mir die Zeit langsam knapp zu werden. Also selbst WENN Zen alles wegrocken würde was es sonst so gibt. Wenn die Boardpartner und Systemhersteller keine Geräte entwickeln, einfach weil Sie AMD nichts zutrauen, dann ist das Ding am Ende dennoch ein Rohrkrepierer.....

Also zumindest im Serverbereich erwarte ich inzwischen keinen Gloreichen start. Zuerst wird Desktop kommen und etwa 6 Monate danach können wir dann über Server sprechen. Hoffen wir das Zen einschlägt, dann sinds vielleicht ein zwei Monate weniger. Wenn Zen aber aus egal welchen Gründen nicht einschlägt wie eine Bombe, dann würde ich auch auf Server keinen Cent verwetten....

y33H@
2016-07-16, 12:03:57
Ich meine das ist schon mindestens seit Fermi so, dass Nvidia ab und zu mehr ROPs hat, als die Rasterizer füttern können. Korrekt, von daher ist die Aussage bewusster FUD :mad:

Isen
2016-07-16, 12:36:06
@Skysnake,
Im Hintergrund hört man rein gar nichts zu ZEN

Von welchem sprichst du?
Ich höre da anderes seitens AMD was:
AMD steckt da aktuell etwas zu wenig Mittel/Personal in die Kundenbeziehungen.

betrifft... warte halt bis Sep. dann hörst auch du was, was andere jetzt schon wissen.

Complicated
2016-07-16, 12:45:40
Was soll daran FUD sein wenn Performance Erwartungen mit 48 anstatt 32 ROPs spekuliert werden und ich darauf hinweise, das dem wohl auch anders sein kann?

Schaffe89
2016-07-16, 13:09:35
Haben Sie nicht.

Wenn du das vehement so siehst, dann warten wir doch einfach mal dieses Jahr ab und schauen uns an was das für Auswirkungen auf Nvidia hat und lassen dich dann später an deiner Aussage messen.
Wie ich dich kenne ist es wieder eine Art vorrauseilende AMD Reklame und pure Überschätzung.

Nein tut es nicht laut mir.
Ja laut dir vielleicht, das ergibt nur keinen Sinn, weil du das wiedermal viel zu einseitig siehst.
Die Entwickler übernehmen jetzt mehr Kontrolle, das bietet Vorteile für AMD und Nvidia, nicht nur für AMD was den Arbeitsaufwand zur Optimierung angeht.
Nein aber da AMD Vulkan(aka Mantle) quasi für GCN geschrieben hat wird es auch besser Unterstützt durch die Hardware. Ein Massanzug ist ein Massanzug.

Dazu hätte ich gerne mal irgendwelche Quellen, bisher ist das eine Verschwörungstheorie, denn Nvidia ist ja wohl auch tief in Vulkan involviert, hat das ganze sogar gepushed und selbst Mantle war nicht auf GCN maßgeschneidert, das ist auch so eine ganz vage Vermutung ohne Belege.

Auf das restliche brauch ich nicht weiter einzugehen da es von selber inhaltsloser Qualität ist... typisches Troll-Hackwerk und lediglich dafür geeignet den Thread zu zerreden...daher Pfff....

Wenn du wirklich denkst und so überzeugt bist GP104 bietet schlechte Margen und Polaris10 sei günstiger herzustellen wie GP106 und das so gar nicht mit nachvollziehbaren Argumenten unterfütterst, sondern einfach nur ins blaue geratene Theorien als Fakten hinstellst, dann tut das einfach nur weh sowas hier lesen zu müssen, wenn doch dann sowieso alles anders kommt. Und jedes mal probierst du es aufs neue mit albernen Verschwörungstheorien einen Hype zugunsten AMD´s zu erzeugen, der dann krachend in sich zusammenfällt.

Nun offensichtlich ist es nicht sichtbar, da AMDs R&D gestiegen ist und nicht gefallen. Zumindest laut Geschäftsbericht.

Man hat den Großteil des Forschungsbudgets in Zen gesteckt, wenn du behauptest die Ausgaben seien gestiegen was die Grafikabteilung angeht, dann lebst du wohl in der Vergangenheit.
AMD fährt das ganze immer weiter zurück. Wen wundert es wenn AMD keinen Gewinn einfahren kann.

Nvidia entwickelt viel proprietären Schrott der schnell wieder verschwindet. Geldverbrennung.

Achso und solche Sachen gibt es bei AMD natürlich nicht. ARM Server, APU Server, die ganze HSA Geschichte, Aufkauf von SeaMicro, Bulldozer.
Da wurde ebenso enorm viel gestrichen. Solange das Hauptgeschäft gut läuft kann man sowas wagen.

Dafür benötigten sie die hohen Margen...die wird GP106 nicht bieten da schon eine 4 GB RX480 als Konkurrent da steht.

Dafür gibt es eine 3GB GTX 1060 oder die GTX 1050. Und GP106 wird garantiert bessere Margen bieten, es gibt nach wie vor keinen plausiblen Grund weswegen es anders wäre.

Wer jetzt meint das Marketing kann den Spagat fahren, dass 8 GB nicht nötig aber 4 GB definitiv zu wenig sind, der exakte Sweetspot sei nun 6 GB, der sieht das nicht realistisch.

Damals als Fijii nur 4GB zu bieten hatte warst du der erste der das verteidigt hatte. Und da willst du jetzt eine neutrale Einschätzung zum Marketing im Bezug auf V-ram treffen?
Was ist denn nun realistisch? Ich sag dir was realistisch ist. Den Käufer kommt es gar nicht darauf an, sondern wenn eine Karte insgesamt als besser eingeschätzt wird, dann ist der V-ram sekundär.
So gesehen bei GTX 780 Ti, GTX780, GTX680, GTX770, GTX 970, GTX980.

Die 8GB kostet minimal mehr. Die GTX1060 war für einen Preis um die 300$ konzipiert...Die RX480 für 199$.

Das fette Layout/PCB der bisherigen rx480 Referenzkarten ist gewiss nicht für einen Bereich von 199 Dollar konzipiert, während der kleinere GP106 Chip mit einem abgespeckteren PCB/Layout und einer kleineren Die Größe schon deutlich eher für diesen Preisbereich geeignet ist, aber das trifft wohl auf taube Ohren.
Wenn man nach deinem Maßstab geht, lässt sich wohl auch Hawai günstiger als GM204 fertigen.

y33H@
2016-07-16, 13:18:18
Wer sich mit der Architektur ein bisschen beschäftigt, weiß, dass das völlig normal ist. Die ROPs helfen halt bei viel MSAA ... was langsam wieder populärer wird.

Complicated
2016-07-16, 14:21:18
Also wer denkt dass GP104 auch nur annähernd die Margen der 28nm V2 Maxwells bietet der braucht von mir keine Quellen dafür zu verlangen. Wenn ich schreibe "kleinere Margen als bisher" wo kommt dann ein Vergleich mit AMD darin vor? Das selbe gilt ja auch bei AMD...allerdings haben die durch ihr WSA bei GF ganz andere Einkaufspreise. Oder denkst du Nvidia garantiert TSMC ebenfalls Waferzahlen auf Jahre hinaus in 16nm? AMD muss erst in einem Jahr eventuell nicht abgenommene Wafer finanziell kompensieren...wenn sie nicht stattdessen CPUs damit bauen oder APUs.

dildo4u
2016-07-16, 14:25:25
Der Midrange Chip wurde mit Maxwell nicht für 700€ verkauft,die Margen werden sich nicht großartig ändern.

Complicated
2016-07-16, 14:35:51
Bei den Yields entstehen die Margen. Reifer 28nm gegen vorgezogenen 16nm muss ich nicht mal aktuelle Zahlen haben. Zudem die FE Strategie die OEMs verprellt und der Preis die Nachfrage niedrig halten soll. Diejenigen die bereit waren das zu bezahlen haben das langsam getan und die anderen werden nun die Presseachlacht abwarten und die drauf folgenden Preisanpassungen. Nvidia wird mit 10-15% Marktanteil Verlust leben können wenn sie dafür keine Preisschlacht führen müssen. Davon profitieren sie deutlich mehr, da 80% auch schwer zu halten sein wird. 65-70% bis die DX12 Konkurrenzfähige Architektur bereit ist und Nvidia hat unternehmerisch alles richtig gemacht ohne Preisschlacht...sollte es nötig werden kann man immer noch runter...daher sehe ich Nvidia eher ihr eigenes Ding machen. 300$ für die GTX 1060 ist kein Kampfpreis.

Unrockstar
2016-07-16, 14:55:58
Hallo Stoppt mal Leute
Wer sagte Vulkan ist AMD Exklusiv?
https://www.khronos.org/vulkan/
http://www.golem.de/specials/vulkan/
https://developer.nvidia.com/Vulkan
http://www.amd.com/de-de/innovations/software-technologies/technologies-gaming/vulkan


Das Ding ist eine Industrieschnittstelle, von der Industrie entwickelt, und da Google auf Vulkan setzen will, sehe ich da wesentlich größere Chancen für den Markt als es DX12 jemals haben kann.
Und Es ist schön dass AMD in Doom so davonziehen kann, in 99% der Fälle ist man aber eben eher, mehr oder weniger, auf 980 Niveau. Intressant wird es sein, wie die OEMs die 480 wahrnehmen, welche ja mit 1Ghz Takt und 4GB die Ideale OEM Karte ist (ca 140W Verbrauch) Und vermutlich dürfte sie auch günstiger sein als eine 970/980 (welche ja nunmal erst über Zeit billig wurde) Wenn AMD da sich an HP und Dell klinken konnte und man Apple bedient könnte es zumindest 10% Marktanteil NV Kosten. Der Abgesang ist dies jedoch auch nicht.
Allerdings sehe ich AMD in Zukunft besser Vertreten als NV.. Eben weil man die Konsolen befüllt

dildo4u
2016-07-16, 15:47:50
Niemand sagt das Vulkan AMD exklusiv ist es stammt aber von Mantle ab,es wurde also schon 2013 ideal auf AMD GPU's abgestimmt.Daher verwundert es nicht das Nvidia jetzt Hardware und Software Richtung AMD's Architektur ändern muss wenn sie ähnliche Gewinne haben wollen.

HarryHirsch
2016-07-16, 16:15:13
so ist das wenn man ständig neuentwicklungen blockt und das auf einmal nicht mehr funktioniert...

Dorn
2016-07-16, 17:36:48
Vielleicht zeigt Doom wohin die Reise in naher Zukunft immer mehr hin geht, die Spiele Engines laufen besser auf AMD Hardware. Irgendwann müssen sich ja die ganzen Konsolen Deals breitflächig bezahlt machen. Da in der Neo ja quasi eine RX 480 drin steckt, wird man zu 99% auf Augenhöhe mit der 980 bzw. schneller sein und das sage ich mal spätestens nächstes Jahr...

Unicous
2016-07-16, 17:45:42
Niemand sagt das Vulkan AMD exklusiv ist es stammt aber von Mantle ab,es wurde also schon 2013 ideal auf AMD GPU's abgestimmt.Daher verwundert es nicht das Nvidia jetzt Hardware und Software Richtung AMD's Architektur ändern muss wenn sie ähnliche Gewinne haben wollen.

Na dann erzähl uns mal... vielleicht zur Abwechslung mal im Vulkan-Thread (wobei, da sieht es ja auch nicht besser aus) was da so Tolles auf AMD-Hardware abgestimmt wurde und wie Intel, Nvidia, Qualcomm und wie sie alle heißen, das nicht gesehen haben und einen Riegel vorgeschoben habe.:wink:

Eine Low Level API ist eine Low Level API. Ich sehe nicht wie man, außer durch entsprechende Extensions, etwas "ideal abstimmen" könnte. (Und Close to Metal APIs die speziell für die jeweilige Hardware und ISA geschrieben werden).

What you see is what you get. Intel legt ja auch bis zu 30% zu. Wie erklärst du dir hier die ideale Abstimmung für AMD?

Unrockstar
2016-07-16, 18:09:11
Na dann erzähl uns mal... vielleicht zur Abwechslung mal im Vulkan-Thread (wobei, da sieht es ja auch nicht besser aus) was da so Tolles auf AMD-Hardware abgestimmt wurde und wie Intel, Nvidia, Qualcomm und wie sie alle heißen, das nicht gesehen haben und einen Riegel vorgeschoben habe.:wink:

Eine Low Level API ist eine Low Level API. Ich sehe nicht wie man, außer durch entsprechende Extensions, etwas "ideal abstimmen" könnte. (Und Close to Metal APIs die speziell für die jeweilige Hardware und ISA geschrieben werden).

What you see is what you get. Intel legt ja auch bis zu 30% zu. Wie erklärst du dir hier die ideale Abstimmung für AMD?

Mit Feenstaub und Wunschdenken geht das sicherlich viel.. Also ich finds Lustig, weil selbst Mantle ist Quelloffen, nur wollte NVidia damals nicht. So einfach isses. Und wäre die API AMD Abgestimmt würde Google kaum die libs nehmen :D Denn Google ist ja Böse :D

Unicous
2016-07-16, 18:24:59
Mantle war/ist nicht quelloffen, Vulkan hingegen schon.

AMD dachte sie könnten Mantle als Industrie-Standard unter ihrer Ägide durchdrücken, aber dagegen hatten wohl Nvidia und auch Intel etwas.:wink:

So hat sich das Ganze ja in Wohlgefallen aufgelöst und jeder kann mitmachen und davon profitieren.:up:

Dino-Fossil
2016-07-16, 18:58:28
Wobei ich mal gespannt bin, ob die neuen ll-APIs am Ende dazu führen, dass es eine Menge Spiele gibt, die entweder auf AMD oder NVidia richtig gut (und auf der anderen Marke dann richtig scheiße) laufen, weil sie halt jeweils low level für eine Architektur optimiert wurden.
Wäre auch nicht im Sinne der Kunden...

Isen
2016-07-16, 19:01:07
Nvidia nähert sich ja GCN an... hängt halt von NV ab, wie nah in naher Zukunft. Mit Pascal reicht es hinten und vorne nicht.

Langlay
2016-07-16, 19:11:32
Wobei ich mal gespannt bin, ob die neuen ll-APIs am Ende dazu führen, dass es eine Menge Spiele gibt, die entweder auf AMD oder NVidia richtig gut (und auf der anderen Marke dann richtig scheiße) laufen, weil sie halt jeweils low level für eine Architektur optimiert wurden.
Wäre auch nicht im Sinne der Kunden...

Wenn man den Gesamtmarkt betrachtet also mit Konsolen. Gewinnt das Optimieren auf AMD gleich deutlich an Attraktivität.

Nightspider
2016-07-16, 19:21:17
Niemand sagt das Vulkan AMD exklusiv ist es stammt aber von Mantle ab,es wurde also schon 2013 ideal auf AMD GPU's abgestimmt.Daher verwundert es nicht das Nvidia jetzt Hardware und Software Richtung AMD's Architektur ändern muss wenn sie ähnliche Gewinne haben wollen.

Kannst du mal aufhören solchen Unsinn zu verbreiten?

Vulkan macht nichts weiter als das Potential der Hardware zu entfesseln. Wenn in der Nvidia Hardware alle Einheiten schon maximal mit DX11 ausgelastet wurden kann Vulkan auch nichts dafür.
Das hat überhaupt nichts mit Abstimmung zu tun. Der Begriff ist sowas von fehl am Platz.

Nvidia muss ihre Architektur nicht auf AMD anpassen sondern einfach mal selbst fortschrittliche Dinge wie ACEs einbauen. Das macht AMD schon seit vielen Jahren und Nvidia hat keinen Finger krumm gemacht.
Nvidia ist selbst schuld wenn sie nie mit den anderen Unternehmen kooperiert haben bei Mantle, Vulkan und offenen Standards.

Nvidias aktuelle Architekturen mögen zwar von Haus aus schon deutlich effizienter sein aber was das Fehlen von Async Compute Engines betrifft ist Nvidia Hardware aktuelle einfach rückständig.
Und da ihr Nvidia Fans doch so gern auf der tollen Effizienz rumreitet: seid doch froh das die Karten unter Vulkan so langsam sind sonst hättet ihr einen höheren Stromverbrauch. :tongue:

Complicated
2016-07-16, 19:27:52
Mantle war/ist nicht quelloffen, Vulkan hingegen schon.

AMD dachte sie könnten Mantle als Industrie-Standard unter ihrer Ägide durchdrücken, aber dagegen hatten wohl Nvidia und auch Intel etwas.:wink:

So hat sich das Ganze ja in Wohlgefallen aufgelöst und jeder kann mitmachen und davon profitieren.:up:
Vulkan ist Industriestandard und basiert auf Mantle. AMD hat angekündigt alles Opensource zu machen und hat das mit der geordneten Übermittlung an Khronos erfüllt. Warum sollte Khronos einen geschützten Namen der weiterhin als Entwickkungs-API dient für AMD und andere Entwickler wie Dice übernehmen? Wäre ja blöd etwas als offen zu titulieren und dann den anderen die Tür zu zu machen.

dildo4u
2016-07-16, 19:56:24
Nvidia nähert sich ja GCN an... hängt halt von NV ab, wie nah in naher Zukunft. Mit Pascal reicht es hinten und vorne nicht.
Pascal scheint ziemlich ideal gegenüber Polaris zu skalieren.Die scheinen schon dicht beisammen zu sein.

http://abload.de/img/pasvcalpfuzq.png


https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/#abschnitt_19_grafikkarten_im_vergleich

w0mbat
2016-07-16, 19:58:41
Pascal scheint ziemlich ideal gegenüber Polaris zu skalieren.Die scheinen schon dicht beisammen zu sein.

http://abload.de/img/pasvcalpfuzq.png


https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/#abschnitt_19_grafikkarten_im_vergleich

Nutzt ja auch kein ASync Compute: http://www.overclock.net/t/1605674/computerbase-de-doom-vulkan-benchmarked/220#post_25351958

Da hat Nvidia mal wieder ordentlich gezahlt, damit es speziell auf ihre Hardware optimiert wird, sonst hätten die Benches böse ausgesehen ;D

G3cko
2016-07-16, 20:44:42
3DMark hat schon lange keine wirkliche Aussagekraft mehr. Schon lustig, dass man dafür sogar Geld haben möchte. :freak:

Complicated
2016-07-16, 20:44:58
Pascal scheint ziemlich ideal gegenüber Polaris zu skalieren.ich glaube nicht das man so sagen sollte oder kann ^^

Dorn
2016-07-16, 21:40:24
Nvidia nähert sich ja GCN an... hängt halt von NV ab, wie nah in naher Zukunft. Mit Pascal reicht es hinten und vorne nicht.
Wobei Nvidia mehr als genügend Manpower hat um da einfach entgegenzuhalten (In Bezug auf Software aka Treiber Optimierungen)
Egal wie gut AMD ist, Nvidia ist zu mittlerweile zu groß geworden.

Linmoum
2016-07-16, 21:53:20
Wobei Nvidia mehr als genügend Manpower hat um da einfach entgegenzuhalten (In Bezug auf Software aka Treiber Optimierungen)
Egal wie gut AMD ist, Nvidia ist zu mittlerweile zu groß geworden.
Da bin ich mal gespannt, wie Nvidia bei Vulkan und DX12 einfach so mit Treibern entgegenhalten will. Aktuell für DX11 mag das sicherlich stimmen, aber eben auch nur da.

Dorn
2016-07-16, 21:59:03
Da bin ich mal gespannt, wie Nvidia bei Vulkan und DX12 einfach so mit Treibern entgegenhalten will. Aktuell für DX11 mag das sicherlich stimmen, aber eben auch nur da.
Da DX12 und Vulkan Games dieses Jahr leider nur eine unter geordnete Rolle spielen ist das für nvidia kein Problem. Mitte nächstes Jahr wird es dann sicherlich spannend, so hoffe ich jedenfalls. :wink:

Edit: Origin ist endlich wieder Online...hmm doch nicht richtig...

Linmoum
2016-07-16, 22:31:15
Da DX12 und Vulkan Games dieses Jahr leider nur eine unter geordnete Rolle spielen ist das für nvidia kein Problem. Mitte nächstes Jahr wird es dann sicherlich spannend, so hoffe ich jedenfalls. :wink:

Natürlich kommen die meisten Spiele noch mit DX11, aber Deus Ex, Civilization und vor allem Battlefield sind jetzt auch nicht unbedingt Nischenprodukte, die sowieso kaum jemanden interessieren.
Wenn sich das momentane Bild in Sachen DX12/Vulkan über die nächsten Monate weiterhin so bestätigt, dann bin ich doppelt gespannt auf Vega. Und dann wird Nvidia mit Vega auch ein gewaltiges Problem haben.

Ich rechne zwar nicht mehr 2016 damit, aber hinsichtlich HBM2 sieht's ja scheinbar nicht so verkehrt aus...

=Floi=
2016-07-16, 22:40:34
Vielleicht zeigt Doom wohin die Reise in naher Zukunft immer mehr hin geht, die Spiele Engines laufen besser auf AMD Hardware. Irgendwann müssen sich ja die ganzen Konsolen Deals breitflächig bezahlt machen. Da in der Neo ja quasi eine RX 480 drin steckt, wird man zu 99% auf Augenhöhe mit der 980 bzw. schneller sein und das sage ich mal spätestens nächstes Jahr...

was bringt die 980er performance, wenn bei nv die 980er schon EOL ist? uralter zug. meine 780ti ist schneller als die olle 480er. wo ist da der fortschritt? eine neue api brauche ich auch erst, wenn ich auch mehr gpu power zu verfügung habe und das gpu limit wieder ins cpu limit verschiebe.

G3cko
2016-07-16, 23:02:22
Eine 780ti startete ab 650€. Eine 480 kostet ab 200€. Merkste selbst wa?

Megatron
2016-07-16, 23:15:02
was bringt die 980er performance, wenn bei nv die 980er schon EOL ist? uralter zug. meine 780ti ist schneller als die olle 480er. wo ist da der fortschritt? eine neue api brauche ich auch erst, wenn ich auch mehr gpu power zu verfügung habe und das gpu limit wieder ins cpu limit verschiebe.
Nach deiner Logik ist ja auch ne 1060 der totale Flop. Neue Generation und es ist jetzt schon absehbar, dass die alte 980Ti schneller ist :rolleyes:

Rincewind
2016-07-16, 23:16:53
und wieviele Leute haben in den letzten 2 Wochen eine 780Ti gekauft, bzw wieviele Leute haben eine 480 gekauft? 0:Tausende. :)

=Floi=
2016-07-16, 23:22:39
Wobei Nvidia mehr als genügend Manpower hat um da einfach entgegenzuhalten (In Bezug auf Software)
Egal wie gut AMD ist, Nvidia ist zu mittlerweile zu groß geworden.


warum kann ati dann nichtmal ihren tollen wattman stabil programmieren? jeder user schreibt, das teil ist verbugt und unstabil. tolle werbung für ati.
an solchen miseren scheitert es auch. eine api für das auslesen und tweaken würde reichen.


edit
ich finde es hald schon kurios, dass ich für quasi 180€ mehrpreis bereits ~2 jahre die gleiche performance nutze. die leistung ist gut, aber heute würde ich mir wesentlich mehr zulegen.

bei ati der gleiche scheiß 290er --> 390er --> fury --> 480er
warum sollte man von so einer karte auf die 480er upgraden?

Raspo
2016-07-16, 23:25:13
Scheint wohl (auch) an GPU-Z zu liegen. Sagten zumindest paar Leute hier.

Rincewind
2016-07-16, 23:28:55
Wattman ist wie Pokemon Go! Ist erst die erste Version und wird mit der Zeit stabiler und umfangreicher. ;)

Unrockstar
2016-07-16, 23:39:37
bei ati der gleiche scheiß 290er --> 390er --> fury --> 480er
warum sollte man von so einer karte auf die 480er upgraden?
Du weisst schon, dass die Karten egal ob 1060 oder 480 nicht an Käufer einer 780Ti oder R290X gerichtet sind, oder?
Hast du auch müde über die 970 gelächelt als sie kam?

Ich allerdings habe eine 7870, 470 und 4770 zu ersetzen.. die 470 und 7870 sind Paradekandiaten für ein Upgrade auf eine RX 480 die 4770 wird eher durch die RX 470 ersetzt.
So wie mir geht es Tausenden in der Welt, die einfach nicht mehr als 250$ für ihre Grafikkarten ausgeben wollen. Und ich fuhr bisher gut damit, denn der Werteverfall von High End Produkten ist einfach nur krank
.. Auch deine 780Ti wird eventuell mit Vulkan nochmal zulegen, aber wenn du mal überlegst deine Performance kostet nur noch 220€ dann musst du leider für echte Mehrleistung wieder höhere Klassen kaufen. Also 1070 oder eben Vega 11 490 (so sie es denn ist) War schon immer so, wir immer so sein. Vorteil ist hier eben nur, die AMD Karten sind langlebiger, und der Support ist besser wenn die Gen EOL geht. (AMD hat 2015 erst die VLIV4/5 Gen nicht mehr mit Verbesserungen bedacht, GCN1 kriegt noch Support)

@Ricewind:
Schade dass RX480 nicht wie Pokemon Go ist ;) deren Aktienwert geht grade durch die Decke :D

Gorkon
2016-07-16, 23:52:32
Nutzt ja auch kein ASync Compute: http://www.overclock.net/t/1605674/computerbase-de-doom-vulkan-benchmarked/220#post_25351958

Da hat Nvidia mal wieder ordentlich gezahlt, damit es speziell auf ihre Hardware optimiert wird, sonst hätten die Benches böse ausgesehen ;D
Auf Steam gehts jetzt auch rund: http://steamcommunity.com/app/223850/discussions/0/366298942110944664/

Total peinlich, was da einige von sich geben...Fremdschämen deluxe :frown:

Foobar2001
2016-07-17, 00:20:42
Was sollen bitte "context switches" sein? Das Konzept gibt es in DX12 ueberhaupt nicht. Wenn ueberhaupt hat das etwas damit zu tun wie Sachen dann in Hardware ausgefuehrt werden.

Pascal kann Async Compute, die Granularitaet ist aber groeber als bei AMD. GCN kanns selbst auf einer Compute Unit gleichzeitig Grafik und Compute laufen lassen, bei NVIDIA koennen nur ganze SMs entweder das eine oder andere.

=Floi=
2016-07-17, 00:34:45
Du weisst schon, dass die Karten egal ob 1060 oder 480 nicht an Käufer einer 780Ti oder R290X gerichtet sind, oder?
Hast du auch müde über die 970 gelächelt als sie kam?

ich habe nach der vorstellung der 970er beim abverkauf der 780er zugeschlagen.

was kaufen denn bitteschön die 780ti und 290X/390X kunden?

Dino-Fossil
2016-07-17, 00:37:47
was kaufen denn bitteschön die 780ti und 290X/390X kunden?

Wenn sie's eilig haben ne 1080 oder 1070, wenn sie Zeit haben warten sie auf Vega, das sollte inzwischen eigentlich durchgedrungen sein.

uweskw
2016-07-17, 01:18:32
Nutzt ja auch kein ASync Compute: http://www.overclock.net/t/1605674/computerbase-de-doom-vulkan-benchmarked/220#post_25351958

Da hat Nvidia mal wieder ordentlich gezahlt, damit es speziell auf ihre Hardware optimiert wird, sonst hätten die Benches böse ausgesehen ;D

Und Computerbase hat wieder nicht mit gedacht, nix in Frage gestellt und die Presseverlautbarung kritiklos bejubelt.
Die kann man sich anscheinend wirklich schenken. Dabei sind die Ergebnisse recht auffällig und spiegeln offensichtlich nicht wieder wie es in Spielen Aussieht. Aber da hakt keiner nach.:uhammer:
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Gibt es noch keine Leaks von Custom RX480? Sind da jetzt schon Karten bei unseren HW-Testern? Oder haben die auch noch keine?

greetz
US

Locuza
2016-07-17, 01:25:37
Es ist einfach wieder eine krude Spekulation von Mahigan mit falschen Behauptungen, die teilweise als Fakt verkauft werden und die Verschwörungsbrüder tragen es weiter.
Das ist jetzt schon das dritte mal das ich das mitbekomme.

uweskw
2016-07-17, 01:29:04
Naja, jedenfalls spiegelt der neue DX12 3Dmark absolut nicht das wieder was wir bisher bei Asynchronous Compute in Games gesehen haben.

ist aber OT hier

greetz
US

StefanV
2016-07-17, 01:38:13
Auf Steam gehts jetzt auch rund: http://steamcommunity.com/app/223850/discussions/0/366298942110944664/

Total peinlich, was da einige von sich geben...Fremdschämen deluxe :frown:
Du meinst die Postings, wo einige behaupten, dass Futuremark die Brücken zu nVidia nicht abbrechen sollte, weil die im PC Markt so groß wären oder was meinst genau??

Naja, jedenfalls spiegelt der neue DX12 3Dmark absolut nicht das wieder was wir bisher bei Asynchronous Compute in Games gesehen haben.

ist aber OT hier

greetz
US
Und genau _DAS_ hinterlässt das 'Geschmäckle', was die Leute gerade nicht gern sehen. Insbesondere da vor ein paar Wochen erst wieder einige ungereimtheiten bei bestimmten nVidia Pressetreibern aufgetaucht sind. Auch andere Dinge.

Kurz: Einigen Leuten stinkts einfach, dass einige so sehr auf nVidias Seite sind und schiessen deshalb auch gleich los...
Das, was da im OC.net Forum geschrieben wird, find ich jetzt nicht soo daneben...
Futuremark war in der Vergangenheit auch schon etwas seltsam und jetzt gibts halt 'nen mittelprächtigen Shitstorm - den sie durchaus auch verdient haben...
Entweder haben sie sich wirklich von nVidia einspannen/veräppeln lassen oder die sind schlicht inkompetent und nicht in der Lage low level APIs vernünftig zu benutzen...

Das ganze ändert aber auch nichts an dem Grundproblem, nämlich dass irgendwas in diesem "Benchmark" nicht stimmt.

Foobar2001
2016-07-17, 01:46:41
Die Gewinne von async compute sind extrem abhaengig von den genauen Workloads und was genau im Frame parallel laeuft.

Zu sagen es sollte eine feste, bestimmte Mindeststeigerung in jedem Szenario geben ist ziemlicher Unsinn.

Locuza
2016-07-17, 02:06:24
Naja, jedenfalls spiegelt der neue DX12 3Dmark absolut nicht das wieder was wir bisher bei Asynchronous Compute in Games gesehen haben.

Tun er nicht? Denn viel Auswahl zum Vergleichen hat man nicht und wenn man nicht um jedes Prozent feilscht, dann bewegt man sich auch nicht völlig aus dem Rahmen.

Bisher gibt es leider nur Ashes of the Singularity als weitere Anwendung, die einem den expliziten Vergleich zwischen Async on/off erlaubt:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/11/#diagramm-ashes-of-the-singularity-async-compute_2
(Bei Rise of the Tombraider bin ich mir nicht sicher, ob der Schalter wirklich eine Auswirkung hat.)

Manche Ergebnisse zeigen bis zu 10% Einbruch auf einem Kepler oder Maxwell, einige zeigen sogar einen kleinen Gewinn auf, die Messtoleranz scheint relativ hoch bei dem Spiel zu sein, aber im Durchschnitt hat man meistens nicht mehr als 3% Unterschied.

Die Time-Spy Demo skaliert bei AMD ein paar Prozent besser, als Ashes of the Singularity, die Nvidia-Ergebnisse sind auch ein paar Prozent besser.
Vielleicht verhalten sich Nvidias neuere Treiber geschickter oder sind diesbezüglich mehr auf den "globalen" Benchmark optimiert, vielleicht passt auch einfach der Workload mehr, als derjenige bei Ashes.

Mich überrascht der Zuwachs bei Pascal auch, aber soviel Materie zum Vergleichen gibt es leider nicht und wieder totalen Unsinn bezüglich Bestechung und absichtlich limitierter Parallelität braucht man nicht herauskramen.

Isen
2016-07-17, 02:10:48
Mindeststeigerung?

Der Bench sollte den Gebrauch von Async Compute so hoch ansetzen, wie das unsinnig hohe Tessellation der bei 64 liegt.

Oder wer legte die Höhe bei Tessellation auf 64 fest, wenn schon weit darunter keine Optischen Unterschiede zu sehen sind?

Wer legte Fest, wie viel von Async Compute gebrauch gemacht wird, wenn offizielle Spiele schon bereits mehr Gebrauch machen. Wozu dann ein reiner Benchmark, der die Leistungsfähigkeit dahingehend praktisch kaum testest, eher ankratzt?
Tessellation ist bei AMD mit der 480 quasi "behoben", wo Hawaii/Grenada noch seine Problemchen hatten (wobei eh Fraglich ist, was der Hohe Tessellation Wert bezwecken soll) nun aber legt AMD mit GCN die Messlatte für Async Compute eben sehr hoch und das schon bei vielen GCN Gens. Und das wird bei Time Spy absolut nicht getestet. Die Messlatte bei Tessellation wurde als solche gehandelt und AMD entsprechend deswegen zu Recht getadelt. Bei Async Compute aber nicht? Wozu ist dann der Benchmark da, wenn Games bereits mehr Gebrauch davon machen und Time Spy diesen Zustand absolut nicht wiederspiegeln, wie viel Leistung mit Async Compute möglich ist, wie es derzeit auch möglich ist.

Time Spy ist wie Witcher 3. Das bisschen Alibi Async Compute können die sich in der Pfeife rauchen. Absolute Schweinerei ist das.

Locuza
2016-07-17, 02:18:05
Isen, nenne mal ein Spiel welches von Async Compute mehr profitiert als die Time Spy Demo, die Async Compute "praktisch kaum verwendet" und nur zum Alibi eingebaut hat.

Isen
2016-07-17, 02:22:14
Was sollen denn solche zu nichts führenden Fragen, worauf du eh die Antwort weißt.
Kontrollier es bei Time Spy selbst nach, mit was die GPU gefüttert wird. Time Spy macht kaum Gebrauch davon. Genau die Menge, die Pascal verarbeiten kann und Hawaii Däumchen dreht. Bis auf Tessellation, da schwitzt Hawaii ordentlich. Erst Polaris ist da besser.
Aber bei Async Compute wird Däumchen gedreht während Pascal langsam schwitzt aber es noch hin kriegt.

Wer legt den Wert bei Tessellation fest?
Wer legt die Nutzung (Menge) von Async Compute fest?

Antwort a) Auf den Markt befindliche Hardware die das höchste verarbeiten kann (100% High-End) - 70% (Performance) usw
Antwort b) Auf den Markt befindliche Hardware die das maximale verarbeiten kann (100% Pascal) ?????

Locuza
2016-07-17, 02:26:15
Ich kann die Ergebnisse ja auch einfach anschauen:
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Also noch einmal die Frage, welches Spiel profitiert bisher mehr von Async Compute als die Time Spy Demo?

Ich stelle hier noch die zweite Frage, woran erkennt man das Hawaii dank Tessellation ordentlich schwitzt?

Isen
2016-07-17, 02:28:52
Schau dir an, womit die GPU gefüttert wird, dann hast du deine Antworten.
Gibt genug Mittel die dir das erlauben.
FPS kannst du für Viagra Studien verwenden, nicht aber hier.

gedi
2016-07-17, 02:29:18
Ich habe es im Review-Thread bereits gepostet, mache es hier aber nochmals, da ich mir nicht sicher bin, wo die Info denn hingehört:

http://up.picr.de/26222114le.jpg

Isen
2016-07-17, 02:37:28
Ist der Shop noch da mit der Karte, oder bereits weg?

Locuza
2016-07-17, 02:39:24
Schau dir an, womit die GPU gefüttert wird, dann hast du deine Antworten.
Gibt genug Mittel die dir das erlauben.
FPS kannst du für Viagra Studien verwenden, nicht aber hier.
Die GPUs werden durch Command-Queues gefüttert, welche mit Command-Lists befühlt werden.
Soll ich mit GPUView nachschauen, wie viele Compute-Queues bzw. überhaupt verwendet werden, um die Aussage vom 3D Mark zu überprüfen?
Wenn ich FPS hier nicht verwenden darf, was schlägst du als Alternative vor?

Isen
2016-07-17, 02:42:33
Tue was du für richtig hältst.
Verboten habe ich dir jedenfalls nichts, nur angemerkt, dass es hierzu weniger Hilfreich ist, da es ja um die Menge der Nutzung geht, nicht was hinten raus kommt. Muss ja schließlich nicht in mehr Leistung resultieren, aber erkennen ab wann wer schwächelt, genau wie bei Tessellation @AMD im Vergleich zu Polaris wo dies verbessert wurde.

Locuza
2016-07-17, 02:43:45
Was Hinten rauskommt ist also egal, weil es ist wichtiger was vorne reinkommt?

Edit: Warum sind die FPS hierzu weniger hilfreich? Sie sagen dir sofort, um wie viel schneller die jeweiligen GPUs die Arbeit berechnen, falls Compute-Queues verwendet werden.
Man kann sich beim Benchmark auch Gedanken über die Sinnhaftigkeit gewisser Einstellungen machen, da wird jeder eine etwas andere Meinung haben, aber die Performance mit Async Compute zu trashen ist nicht sinnvoll.
Der Time Spy Benchmark trashed die Performance auch nicht durch Tessellation, sonst würde sich die Reihenfolge der GPUs zwischen den zwei unterschiedlichen Testszenarien wesentlich ändern.

Isen
2016-07-17, 03:21:00
Mittels Games wirst du das nie herausfinden.
Ich bezweifel, dass bei Doom ein Treiber von NV kommt. Der für Maxwell angekündigte, darauf wartet man ja jetzt noch.

NVIDIA, soon™ halt.

Und beim Time Spy hat man sich bei Pascal orientiert, nicht aber dort, was Aktuell Technisch möglich ist und hat somit den Einsatz bestimmt, wo sich GCN eben langweilt.

Schaffe89
2016-07-17, 03:24:32
Also wer denkt dass GP104 auch nur annähernd die Margen der 28nm V2 Maxwells bietet der braucht von mir keine Quellen dafür zu verlangen.

Macht ja nichts, deine Aussage war ja auch eine andere.:rolleyes:

"Sie kommt von vornherein mit zu kleinen Margen für Nvidia(verglichen mit den Vorgängern)"

Eine Mittelklasse GPU mit ~300mm² und 500 bis 800 Euro Endkundenpreis bietet also von vorneherein zu geringe Margen.;D
Was heißt Nvidia müsste eigentlich noch teurer verkaufen, obwohl sich Nvidia eh schon dusselig mit diesen Preisen verdient.
Andererseits meckerst du über den hohen Preis, sagst AMD habe in weit kritischeren Preisbereichen von <200 Euro besser Margen, obwohl des defakto anhand der bisherigen Infos zu GP106 schon widerlegt ist.
Ist das Satire? Schau dir dich selbst mal deine Aussagen an. Das ist echt peinlich sein Fähnchen nach dem Wind auszurichten und sich selbst zu entlarven.

Und jetzt beginnt der nächste Hate gegen den neuen Diretx12 Benchmark weil er nicht die Ergebnisse liefert die man sich vorher ausgedacht hat.

Hübie
2016-07-17, 03:26:44
Was sollen denn solche zu nichts führenden Fragen, worauf du eh die Antwort weißt.
Kontrollier es bei Time Spy selbst nach, mit was die GPU gefüttert wird. Time Spy macht kaum Gebrauch davon. Genau die Menge, die Pascal verarbeiten kann und Hawaii Däumchen dreht. Bis auf Tessellation, da schwitzt Hawaii ordentlich. Erst Polaris ist da besser.
Aber bei Async Compute wird Däumchen gedreht während Pascal langsam schwitzt aber es noch hin kriegt.

Wer legt den Wert bei Tessellation fest?
Wer legt die Nutzung (Menge) von Async Compute fest?

Antwort a) Auf den Markt befindliche Hardware die das höchste verarbeiten kann (100% High-End) - 70% (Performance) usw
Antwort b) Auf den Markt befindliche Hardware die das maximale verarbeiten kann (100% Pascal) ?????

Den Tess-Faktor im Time-Spy-Benchmark kann man doch einstellen. Steht standardmäßig auf 32x.

https://abload.de/img/3dmark_timespyispj4.png (http://abload.de/image.php?img=3dmark_timespyispj4.png)

Und wie foobar2001 schon sagt, kannst du ja nicht erwarten, dass AC überall und ständig sagen wir 5% bringt. Ist doch Quark.
Im Interview mit den Devs von Doom hat Tiago Sousa es ganz gut dargestellt: Wenn eine Aufgabe, eine bestimmte Resource braucht, aber man für compute workloads noch die ALUs nutzen kann, fährt diese Technik eben seine Stärke aus.

Isen
2016-07-17, 03:33:00
dass AC überall und ständig sagen wir 5% bringt. Ist doch Quark.

Soll er doch auch nicht. Er soll zeigen, was Aktuell Technisch möglich ist, mit Hardware die auf dem Markt ist. Im Umkehrschluss sieht man aber auch wer wann abkackt. Genau wie es bei Tess. @AMD der Fall ist.
Witcher 3 vergessen?

Wo liegt der Sinn in einen so hohen Tess-Faktor, der Optisch zu nichts beiträgt, bei Async Compute aber richtet man sich an dem kleinsten Technischen Nenner auf dem Markt? ....

Wer legt das also Fest? Wird schon seinen Grund haben, aber der wird einem ja nicht genannt. Bei Witcher 3 wurde er auch nicht genannt, Optisch sah man bei weniger Tess keinen Unterschied, die Antwort darauf wieso er so hoch ist, und wieso bei Time Spy so wenig Gebrauch davon gemacht wird, obwohl Technisch auf dem Markt mehr möglich ist, wird einem auch nicht genannt, kein Wunder das die Anschuldigungen in alle Richtungen gehen. So die auch meine.


Der Regler der 10€ kostet und bei AMD ohnehin kostenlos vorhanden ist.. der Regler ist weniger Relevant.

Hübie
2016-07-17, 03:42:37
Selbst ich als NV-User rege mich ständig über den Tesselation-Wahn auf. Aber ist A) zurück gegangen (also die Menge der Titel) und B) holt AMD da ebenfalls auf.

Und mal ehrlich: Als ich AotS mal "ausgeliehen" hatte lief es hier einwandfrei mit sauberen Frametimes, toller Optik und wenig Spielspaß (:D). Es interessiert eben doch nur was hinten heraus kommt (fps<->ms). Stell dir mal vor NV würde AC überall auf seinen µArch einwandfrei unterstützen. Dann wäre der Abstand zu AMD noch größer und AMD könnte so weniger absetzen. Also ist doch toll dass man endlich mal was gefunden hat wo man aufholen kann. Freu dich doch. :smile:

Edit: Der Schalter kostet anteilig 1 € (5€ Benchmark für ein paar mehr Optionen) :P

Isen
2016-07-17, 03:48:11
Mich interessiert nicht wer was besser macht.
Mich interessiert nur, dass man hier den bereits vorhandenen Technischen Stand "drosselt bzw. Klein hält" aus Gründen die die Verantwortlichen nicht nennen.

Allein der Umstand im Vergleich zu DX11 und DX12/Vulkan was da möglich ist und weit früher möglich gewesen wäre, wenn...... das MS da seine Fuchtel drin hat der das Bestimmt ist soweit klar. Und ist auf einem ähnlichen Level, wenn man GameWorks ins Spiel bringt, was ebenso zu nichts führt. Aber darum geht es mir nicht darüber zu Palavern wer möglicherweise dahintersteckt.

Technologie-Bremser sind das aller letzte. Ich hasse sie auf den tot.


Wo ist der 3D Mark von früher? Fehlanzeige.

Locuza
2016-07-17, 03:49:32
[...] bei Async Compute aber richtet man sich an dem kleinsten Technischen Nenner auf dem Markt? ....
Woran erkennst du das?

und wieso bei Time Spy so wenig Gebrauch davon gemacht wird, obwohl Technisch auf dem Markt mehr möglich ist, wird einem auch nicht genannt, kein Wunder das die Anschuldigungen in alle Richtungen gehen. So die auch meine.
Deine Anschuldigung sind allerdings haltlos, du hast keine schlüssigen Argumente oder Beweise auf der Hand oder irgendeine logische Ableitung zu bieten.
Dafür spricht fast alles gegen deine Behauptungen.

Isen
2016-07-17, 03:57:09
Die Engine kann nicht festlegen/ermitteln wie viel eine GPU davon verarbeiten kann, also richtet man sich nach dem kleinst gemeinsamen Nenner. Genau das tat man bei 3D Mark.

Woran erkennst du das?

Idle Shader bleiben weiterhin im Idle und werden nicht genutzt @GCN.
Liegen brach....

Mancko
2016-07-17, 04:12:00
Da bin ich mal gespannt, wie Nvidia bei Vulkan und DX12 einfach so mit Treibern entgegenhalten will. Aktuell für DX11 mag das sicherlich stimmen, aber eben auch nur da.

In dem man Resourcen in die Treiberarbeit und Zusammenarbeit mit Entwicklern bereit stellt. So wie in der Vergangenheit auch. DX11 lief bei Nvidia auch nicht von Anfang an so wie die letzten Jahre. Am Ende kann man mit Software alles in irgendeiner Form beeinflussen. Man könnte auch mal einen Deep Learning Server mit einem Spiel befüttern um herauszufinden, welche Commandos und Abläufe man anpassen müsste. Es ist wie immer alles eine Frage der Zeit bis die Befehlsabfolge so replaced wird, dass es der eigenen Architektur schmeckt.

Mancko
2016-07-17, 04:14:50
Eine 780ti startete ab 650€. Eine 480 kostet ab 200€. Merkste selbst wa?

Der Vergleich mit einer 980 oder 780 ist doch eh für den Arsch. Das direkte Gegenstück kommt in ein paar Tagen angeritten und dann haben wir ja alle Zeit der Welt zu vergleichen

Locuza
2016-07-17, 04:16:05
Idle Shader bleiben weiterhin im Idle und werden nicht genutzt @GCN.
Liegen brach....
Idle-Shader können nicht im Ruhezustand verbleiben, wenn GCN 9-17% an Performance bei dem Benchmark gewinnt, dass ist mehr als bei Ashes of the Singularity oder Hitman, wo der Entwickler 5-10% angibt.
http://www.dualshockers.com/2016/03/15/directx-12-compared-against-directx-11-in-hitman-advanced-visual-effects-showcased/

Der Benchmark profitiert von allen DX12 Anwendungen bisher am meisten oder findest du ein Spiel, wo man ziemlich eindeutig ableiten kann, dass dort die Gewinne über 9-17% dank Async Compute liegen?
Die Behauptung das der Benchmark kaum Async Compute nutzt und nur so ein bisschen zum Alibi eingebaut hat, ist schlicht falsch.

Isen
2016-07-17, 04:23:59
Sieh dir die Auslastung der Shader über alle Games hinweg an. Die ist bei 3D Mark und Tomb Raider am geringsten, bei allen anderen deutlich höher.... Gebrauch davon wohl also unterschiedlich.

Locuza
2016-07-17, 04:31:53
Dann kannst mir gerne die Auslastung zu den Shadern über die Games hinweg zeigen bzw. nennen oder ist das etwa meine Aufgabe, Beweise für deine Behauptungen zu suchen?

Der Gewinn durch Async Compute liegt bei dieser Anwendung im Spitzenfeld.
Du kannst höchstens behaupten, dass die allgemeine Last gering ist und das dort mehr Potential steckt, aber nicht das die Anwendung kaum von Async Compute Gebrauch macht.

dargo
2016-07-17, 08:27:21
Wobei Nvidia mehr als genügend Manpower hat um da einfach entgegenzuhalten (In Bezug auf Software aka Treiber Optimierungen)

Jein... auch Nvidia setzt Prioritäten. Bestens Beispiel Doom @Vulkan im CPU-Limit vs. OpenGL.

ich habe nach der vorstellung der 970er beim abverkauf der 780er zugeschlagen.

Super Vergleich. :uclap: Im Abverkauf wird die RX480 um die 100€ kosten. :rolleyes:

Schaffe89
2016-07-17, 08:37:19
Der Benchmark profitiert von allen DX12 Anwendungen bisher am meisten oder findest du ein Spiel, wo man ziemlich eindeutig ableiten kann, dass dort die Gewinne über 9-17% dank Async Compute liegen?


Wenn man sich den Vergleich den die Entwickler zwischen Directx11 und Diretx12 da bei Hitman gemacht haben reinzieht, wird einem bei den kleinen Entwicklerstudios für Directx12 ja Angst und Bange wenn da potenziell so viele Stolpersteine auftreten.

Da wär die V-ram Verwaltung, der Optimierungsaufwand bei hohen Auflösungen, keine Priorisierung von ressources im Video Ram, Schwierigkeiten mit der Implementierung von asynccompute, was bei falscher Handhabung auch Leistung kosten kann.

Langsam glaub ich versteht man wieso Diretx12 beispielsweise in Tomb Raider nix bringt, wenn man sich das alles durchliest.:(
Ist eigentlich ne recht gute Quelle um sagen zu können, dass der Directx12 Benchmark recht gut ausoptimiert ist, was async compute angeht.

dargo
2016-07-17, 08:53:48
Und wie foobar2001 schon sagt, kannst du ja nicht erwarten, dass AC überall und ständig sagen wir 5% bringt. Ist doch Quark.
Im Interview mit den Devs von Doom hat Tiago Sousa es ganz gut dargestellt: Wenn eine Aufgabe, eine bestimmte Resource braucht, aber man für compute workloads noch die ALUs nutzen kann, fährt diese Technik eben seine Stärke aus.
So ist es. Im Prinzip ist es wie beim Multithreading bei CPUs. Da sieht man den größten Vorteil auch nicht in den avgs. von einem langen Benchmark. Hat sich eigentlich schon einer die Mühe gemacht im neuen 3DMark mit Frameverläufen über die gesamte Laufzeit zu arbeiten? Oder fehlen immer noch Tools dafür?


Langsam glaub ich versteht man wieso Diretx12 beispielsweise in Tomb Raider nix bringt, wenn man sich das alles durchliest.:(

Schon wieder FUD von dir. Frag mal Troyan, der wird dir die Vorteile mit seinem i7-3770K aufzeigen.

HOT
2016-07-17, 09:06:36
Die Technik steht noch ganz am Anfang, könnte aber eben so revolutionär sein wie OoO damals beim Prozessor. Diese Technik erlaubt den Herstellern immer mehr Recheneinheiten einzubauen ohne auf die Lastverteilung Rücksicht nehmen zu müssen. In Zukunft wird auch der Anteil an Compute-Shadern noch deutlich zulegen. Da jetzt immer noch auf TR zu zeigen ist und bleibt einfach lächerlich zumal alle anderen Titel erheblich mehr von den neuen APIs profitieren. Und im Moment ist das noch so, als würde man eine Geforce1 noch mit DX6 betreiben und hätte grad auf DX7 umgestellt ohne jedoch TnL zu stark einzusetzen.

Schaffe89
2016-07-17, 09:14:11
Schon wieder FUD von dir. Frag mal Troyan, der wird dir die Vorteile mit seinem i7-3770K aufzeigen.

Die Benchmarks kennt man schon lange, hier sind aktuelle:
http://www.extremetech.com/gaming/231481-rise-of-the-tomb-raider-async-compute-update-improves-performance-on-amd-hardware-flat-on-maxwell

Verbesserungen sind da eher sehr zurückhaltend, pauschal besser laufen tuts mit Diretx12 nicht, ich hab das Spiel selbst.
An manchen Stellen bringts was, an anderen läuft es langsamer, super.:rolleyes: Hauptsache mal wieder FUD unterstellen.
Im Schnitt bringt Directx12 da gar nix, weder bei Nvidia noch bei AMD, es ist halt vielleicht auch nicht jedes Spiel dafür geeignet durch einen Wechsel der API noch was rauszukitzeln.

dargo
2016-07-17, 09:18:58
Junge... such selbst im DX12 Thread oder RotTR Thread, dort hatte Troyan genug Ergebnisse mit seiner NV im CPU-Limit gepostet. Ich mache doch nicht die Arbeit für dich. Du raffst einfach nicht, dass nicht jede Szene immer im starken GPU-Limit ist. Das hast du schon mit der langen Diskussion @Doom bestens bewiesen. Dafür sind die jeweiligen Lasten viel zu unterschiedlich. Alles abhängig von der Hardwarekostellation, Spielsettings und Spielszenen. Die meisten Benchmarks im Netz sind für den Anus da dort in der Regel immer der schnellste Quadcore mit SMT genommen wird und dann nicht selten noch stark übertaktet.

Argo Zero
2016-07-17, 09:22:42
55% höhere min FPS bei der R9 Fury mit der 1440p bei Tomb Raider.
Das geht ja richtig ab mit der Vulkan/DX12 bei AMD.

Isen
2016-07-17, 09:40:00
Ed: falscher Thread ....

dargo
2016-07-17, 09:43:10
55% höhere min FPS bei der R9 Fury mit der 1440p bei Tomb Raider.

Wobei es zumindest in dieser Szene nicht am CPU-Limit liegt. Das sieht man sehr schön an den min. fps zwischen 1080p, 1440p und 4k. Je höher die Auflösung, ergo GPU-Last umso stärker der Zugewinn bei Fury. Die DX12 Implementierung am Anfang war einfach Grütze bei Radeons (zumindest im GPU-Limit). Nach langer Zeit haben sich die Entwickler endlich die Mühe gemacht. Ist übrigens auch der Grund warum ich so lange mit dem Kauf vom Spiel gewartet habe.

uweskw
2016-07-17, 10:19:33
Mich interessiert nicht wer was besser macht.
Mich interessiert nur, dass man hier den bereits vorhandenen Technischen Stand "drosselt bzw. Klein hält" aus Gründen die die Verantwortlichen nicht nennen.

Allein der Umstand im Vergleich zu DX11 und DX12/Vulkan was da möglich ist und weit früher möglich gewesen wäre, wenn......
.............Technologie-Bremser sind das aller letzte. Ich hasse sie auf den tot.


Wo ist der 3D Mark von früher? Fehlanzeige.

Ich hoffe doch, dass sich der ein oder andere professionelle Tester mit dem Thema gründlich auseinander setzt und wir da die nächsten Tage mehr wissen.
Wenn 3Dmark hier wirklich nur in dem Maße fordert wie NV das über Umwege gerade so bewerkstelligen kann, wäre es wirklich eine Technologiebremse.

Zitat Jarnis 3Dmark Entwickler:
So no matter how much we pile things to the queues, they cannot be set to run asynchronously because the driver says "no, I can't do that".
Basically NV driver tells Time Spy to go "async off" for the run on that card

Aber im Moment werden die Reviewer mit 480 Customs und der 1060 beschäftigt sein.:smile:

greetz
US

tm0975
2016-07-17, 11:26:36
Wenn die sapphire nitro die 1350 mhz halten kann und der speicher mit etwas oc daher kommt, dann wird die karte die 390x schlagen. Wenn dann der verbrauch bei <180 watt bleibt, wäre das zu verschmerzen. Wahrscheinlich würde man den Verbrauch mit gesenkter Spannung noch auf 160 bringen.

Dino-Fossil
2016-07-17, 11:35:46
Ich bin ja mal gespannt, ob die Customs eine gewisse Vorauswahl bei der Qualität der Chips treffen und ob sie teils schon von Haus aus mit etwas niedrigerer Spannung laufen (oder ist das nicht möglich, da rein vom Treiber gesteuert?).

dargo
2016-07-17, 11:40:30
Ich bin ja mal gespannt, ob die Customs eine gewisse Vorauswahl bei der Qualität der Chips treffen und ob sie teils schon von Haus aus mit etwas niedrigerer Spannung laufen (oder ist das nicht möglich, da rein vom Treiber gesteuert?).
Mir hoher Wahrscheinlichkeit nicht. Bei Custom-OC wird mal sicherlich wieder X Spannung drauflegen um die OC-Stabilität zu sichern. Je nach Güte vom Chip (und ob Partner X es etwas zu gut meint, siehe Fury Nitro *hust*) wird mal mehr mal weniger Undervolting gehen.

Gorkon
2016-07-17, 11:47:58
Zitat Jarnis 3Dmark Entwickler:
So no matter how much we pile things to the queues, they cannot be set to run asynchronously because the driver says "no, I can't do that".
Basically NV driver tells Time Spy to go "async off" for the run on that card
Aber im Moment werden die Reviewer mit 480 Customs und der 1060 beschäftigt sein.:smile:

greetz
US
Man sollte auch den ganzen Block quoten...es geht explizit um Maxwell :rolleyes:
The reason Maxwell doesn't take a hit is because NVIDIA has explictly disabled async compute in Maxwell drivers. So no matter how much we pile things to the queues, they cannot be set to run asynchronously because the driver says "no, I can't do that". Basically NV driver tells Time Spy to go "async off" for the run on that card. If NVIDIA enables Asynch Compute in the drivers, Time Spy will start using it. Performance gain or loss depends on the hardware & drivers.


Du meinst die Postings, wo einige behaupten, dass Futuremark die Brücken zu nVidia nicht abbrechen sollte, weil die im PC Markt so groß wären oder was meinst genau??
Der allgemeine Ton ggü. einem Entwickler, der eigentlich besser bescheid wissen müsste als irgendwelche "Foren-Experten", geht einfach mal gar nicht... Egal was sich da am Ende als Wahrheit heraus stellt, man kann ruhig und sachlich darüber diskutieren.

Malabolge
2016-07-17, 12:29:29
AMD Polaris: Keine Grafikkarten auf der Computex (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Computex-Grafikkarten-R9-480X-1196236/)

Ist Su vom Pascal launch so Eingeschüchtert das Polaris noch zurück gehalten wird, oder was ist da los?


23.05.2016 um 18:15 Uhr:uponder:


Pascal Launch :10 June 2016 with GTX 1070 availability.:idea:


Dafür einen Le Picard: (Prost)
:upicard:

Wow ,also diese Frau Su. Ist schon im Vorraus "so Eingeschüchtert":rolleyes::biggrin::devil:
Frau Su war also schon im Mai schon so "Eingesachüchtert" vom Juni-Launch des Pascals das sie den Polaris-Chip zurückhalten musste.

Sag mal schämt man sich für sowas eigentlich nicht?;)
Oder werden jetzt "uralt" News herangezogen um seine "Meinung" zu festigen

:uban::uban:

-/\-CruNcher-/\-
2016-07-17, 13:17:30
Wenn die sapphire nitro die 1350 mhz halten kann und der speicher mit etwas oc daher kommt, dann wird die karte die 390x schlagen. Wenn dann der verbrauch bei <180 watt bleibt, wäre das zu verschmerzen. Wahrscheinlich würde man den Verbrauch mit gesenkter Spannung noch auf 160 bringen.

Sapphire setzt solche Binnings ja schon auf ihrer Referenz Custom ein die die 1350 mhz fast immer konstant zu packen scheint, allerdings möchte ich nicht wissen bei welcher geräuschkulisse und der letztendliche Verbrauch momentan ;)

zh2svARKcDM
9II0SGZ67UY

Das ganze Preis/Leistungs/System 4 Core Experience macht aber einen verdammt guten Eindruck durchgehend in allen Real tests (ohne discrete VCE overhead), sehr nice auch unter DX11 :)


Freu mich schon tierisch auf Zen + ein bischen Mutigpu mit der RX480 in kombinations Ergebnisen unter Vulkan und DX12 :)

Vor allem mit 2 ACE und VCE suppliern im System könnte das richtig nice werden mit der Last Verteilung und den daraus resultierenden Gewinnen for Free naja nicht ganz for Free (Verbrauch, Entwicklerzeit) :D

Wobei bei der Entwicklerzeit mach ich mir keine Sorge die Publisher werden "müssen" das investieren und die Entwickler selbst sind ja Feuer und Flame (Verbrauch abwarten) ;)

Freu mich schon super tierisch auf die ersten Demoscene Ergebnisse mit Async Compute und Instrinsics bei einigen der jetzt sehr komplexen Demos könnte das locker einen resolution jump nach oben bedeuten :)

dargo
2016-07-17, 14:28:08
@Cruncher.

Welcome to the new api-world. ;) Und das gegen eine 1550Mhz GTX970, das dürfte ca. GTX980 Niveau sein. In Quantum Break wird die GTX1060 keine Chance gehen die RX480 haben sofern hier das verkrüppelte Design und der Speicher der 970 nicht zum Verhängnis wird.

StefanV
2016-07-17, 14:30:02
Der allgemeine Ton ggü. einem Entwickler, der eigentlich besser bescheid wissen müsste als irgendwelche "Foren-Experten", geht einfach mal gar nicht... Egal was sich da am Ende als Wahrheit heraus stellt, man kann ruhig und sachlich darüber diskutieren.
Jein...

Der Entwickler lässt das ganze ja erst richtig hochkochen, mit seinen Kommentaren, die eher in Richtung Arroganz gehen.

Das ganze hätte man auch relativ schnell wieder runterkochen können, indem man gesagt hätte, dass man im Laufe der Woche ein Statement veröffentlichen würde, bei dem man auch einiges Preisgibt...
Denn diese Anschuldigungen kannst du nur dann wirklich aus der Welt schaffen, wenn du acuh wirklich offen mit den Leuten umgeht, was natürlich auch die Preisgabe von einigen Details erfordert...

Das ganze ist also durchaus von dem Entwickler verursacht, der sich hier ziemlich dämlich und auch 'von oben herab' verhält. Und genau das Stinkt den Leuten.

Dazu kommt eben auch, dass immer mehr Leute sehen, dass die Presse und auch einige andere Unternehmen eher nVidia freundlich sind. Das mag zwar eine gewisse Zeit gut gehen, aber diese Zeit ist schlicht vorbei...

Und genau darum geht es ja. Die Leute haben die Schnauze voll von dem 'nVidia beschiss', das Verhalten von dem Entwickler lässt auch nicht unbedingt drauf schließen, dass die Anschuldigungen aus der Luft gegriffen sind, ganz im Gegenteil.
Er widerspricht auch den Anschuldigungen der Leute, dass nVidia mit im Boot sitzt, nicht direkt....

Also der Shitstorm ist schlicht hausgemacht und durchaus verdient.

-/\-CruNcher-/\-
2016-07-17, 14:36:50
@Cruncher.

Welcome to the new api-world. ;) Und das gegen eine 1550Mhz GTX970, das dürfte ca. GTX980 Niveau sein. In Quantum Break wird die GTX1060 keine Chance gehen die RX480 haben sofern hier das verkrüppelte Design und der Speicher der 970 nicht zum Verhängnis wird.

Eine Fake GTX 980 ja die 1500 MHz erreichen die GTX 980 nur vom takt + 10 FPS unter heftigen Workloads kompensieren sie aber weniger als wie in Reviews immer gern abgebildet wird, es bleibt Bruteforcing und das bleibt ineffizient ;)
Reviews sind da meistens sehr irreführend das will man aber auch erreichen ;)

TarantulaENERGY
2016-07-17, 14:44:45
Wenn die sapphire nitro die 1350 mhz halten kann und der speicher mit etwas oc daher kommt, dann wird die karte die 390x schlagen. Wenn dann der verbrauch bei <180 watt bleibt, wäre das zu verschmerzen. Wahrscheinlich würde man den Verbrauch mit gesenkter Spannung noch auf 160 bringen.

Leistungsmäßig gebe ich Dir vollkommen recht. Bei der Leistungsaufnahme hingegen bin ich sehr skeptisch.

Time Spy - RX480 GPU @1266MHz (1137mV) / RAM @2000MHz (1000mV)

Power Draw max.(GPU-Z): 157W / Gesamtes System (ohne Monitor): 262W

Time Spy - RX480 GPU @1266MHz (1025mV) / RAM @2000MHz (980mV)

Power Draw max.(GPU-Z): 123,2W / Gesamtes System (ohne Monitor): 216,5W

Time Spy - RX480 GPU @1370MHz (1150mV) / RAM @2000MHz (980mV)

Power Draw max.(GPU-Z): 176,9W / Gesamtes System (ohne Monitor): 282,5W


In beiden Fällen liegt die ganze Zeit der Maximaltakt an. Weiter runter geht es mit den Spannungen bei der Karte nicht (ASIC 82,3%).

Wer vergleichen will:

GPU @1370MHz => http://www.3dmark.com/spy/78517
GPU @1266MHz => http://www.3dmark.com/spy/77721

Hübie
2016-07-17, 14:45:12
So ist es. Im Prinzip ist es wie beim Multithreading bei CPUs. Da sieht man den größten Vorteil auch nicht in den avgs. von einem langen Benchmark. Hat sich eigentlich schon einer die Mühe gemacht im neuen 3DMark mit Frameverläufen über die gesamte Laufzeit zu arbeiten? Oder fehlen immer noch Tools dafür?

Ja hab ich schon gemacht. Die Frametimes sind wie geleckt. Hab es nur nicht in Form von Screenshot oder Excel-Tabelle festgehalten. Kann ich gerne machen, wenn du möchtest. Auflösung war dabei 100 Millisekunden. AC machte (fast) keinen Unterschied. Also kann es gut sein, dass es auf Maxwell gar nicht erst genutzt wird, auch wenn man es aktiviert lässt (keine Ahnung wie ich das herausfinden soll ohne einen heiden-Aufwand alá GPU-View zu betreiben:freak:).

Gorkon
2016-07-17, 14:45:59
@StefanV

Jein? Also ganz normal, dass man sich von jeder Seite aus anblaffen lassen darf? Ich erinner dich bei Zeiten mal direkt an diesen Thread ;)

Der Ton macht die Musik da. Und da werden schon die Fackeln angezündet und Mistgabeln gewetzt, bevor überhaupt ein konkreter Beweis vorliegt. Klar hat sich FM öfters mal nicht mit Ruhm bekleckert, trotzdem sollte man erstmal die Kirche im Dorf lassen. Vor allem da dort die massiven Performancesteigerungen unter Vulkan 1:1 mit DX12 gleichgesetzt werden sollen :ucrazy2:

Achso...und bzgl. Statements:
Whole thread (and the Reddit threads - all six or seven of them - and a couple of other threads in other places - you guys have been posting this everywhere...) have been fowarded to the 3DMark dev team and our director of engineering and I have recommended that they should probably say something.

It is a weekend and they do not normaly work on weekends, so this may take a couple of days, but my guess is that they would further clarify this issue by expanding on the Technical Guide to be more detailed as to what 3DMark Time Spy does exactly.

Those yelling about refunds or throwing wild accusations of bias are recommended to calm down ever so slightly. I'm sure a lot more will be written on the oh-so-interesting subject of DX12 async compute over the coming days.mfg

EDIT: Btw. ich habe AMD und nV bzgl. dieser Sache privat auf FB / Twitter um ein Statement gebeten. Mal gucken ob jemand antwortet und wie...

dargo
2016-07-17, 14:48:23
Ja hab ich schon gemacht. Die Frametimes sind wie geleckt.
Ich spreche von Frameverläufen nicht Frametimes. :wink:

StefanV
2016-07-17, 14:51:48
@StefanV

Jein? Also ganz normal, dass man sich von jeder Seite aus anblaffen lassen darf? Ich erinner dich bei Zeiten mal direkt an diesen Thread ;)
Du hast ja schon was entsprechendes von dem, was ich meinte zitiert:

Those yelling about refunds or throwing wild accusations of bias are recommended to calm down ever so slightly. I'm sure a lot more will be written on the oh-so-interesting subject of DX12 async compute over the coming days.
Sowas meinte ich, das ist nicht gerade freundlich.

Und der Entwickler geht da wirklich nicht mit Fingerspitzengefühl dran sondern eher mit der Keule...

Und genau das ist es, was die Leute noch mehr anheizt...

Wie gesagt, die Lage ist momentan sehr angespannt, die Leute sind eher erregt und haben echt die Schnauze voll von der 'nVidia Bevorzugung' seitens Entwickler oder anderer Dinge. Das darf man nicht vergessen und muss schon schauen, dass man die Gemüter versucht zu beruhigen und sich nicht wie 'ne Axt im Walde verhält, was hier aber teilweise der Fall ist...

DAS ist schon ein wenig arg von oben herab geschrieben. Und ziemlich dämlich...
So darf man echt nicht mit den Usern umgehen!
Und genau DAS ist es ja auch, was die Gemüter noch weiter anheizt...

-/\-CruNcher-/\-
2016-07-17, 14:53:06
Finde immernoch keine Daten zu Everbodys Gone to the Rapture und der RX480 kein Review keine Youtube Recordings nichts :D
Abgesehen davon das es ein total abgefahrenes Exploration Story Game ist (Ethan Carter like) bin ich sehr überrascht noch nichts zu finden.

TarantulaENERGY
2016-07-17, 15:01:56
Finde immernoch keine Daten zu Everbodys Gone to the Rapture und der GTX480 kein Review keine Youtube Recordings nichts :D

Also wenn ich das Spiel hätte, würde ich Dir ja glatt nen Gefallen tun. :mad: *ZONK*

Ist eigentlich die von dir genannte GTX480 eine Gemeinsschaftsproduktion von NVmd :cool: Dann wäre der Krieg bald vorbei! :biggrin:

edit: Buh, Du hast Dich korrigiert. :(

Gorkon
2016-07-17, 15:03:39
@StefanV

Ok, klar...genau der Absatz ist wirklich nicht glücklich gewählt und der liebe Dev hätte mal nicht in seiner Freizeit geantwortet :D Trotzdem...ich plädiere auf abwarten.

Btw. aus dem gleichen Thread: Timespy Graphics test 1 Async view. R9 290. (http://www.overclock.net/t/1605674/computerbase-de-doom-vulkan-benchmarked/300#post_25353967)
http://www.overclock.net/image/id/12246278

Ich kann da ganz ehrlich nix mit anfangen. Hilft das irgendwie?

dargo
2016-07-17, 15:04:38
Leistungsmäßig gebe ich Dir vollkommen recht. Bei der Leistungsaufnahme hingegen bin ich sehr skeptisch.

Time Spy - RX480 GPU @1266MHz (1025mV) / RAM @2000MHz (980mV)

Power Draw max.(GPU-Z): 123,2W / Gesamtes System (ohne Monitor): 216,5W

Time Spy - RX480 GPU @1370MHz (1150mV) / RAM @2000MHz (980mV)

Power Draw max.(GPU-Z): 176,9W / Gesamtes System (ohne Monitor): 282,5W

In beiden Fällen liegt die ganze Zeit der Maximaltakt an. Weiter runter geht es mit den Spannungen bei der Karte nicht (ASIC 82,3%).

Dieser Vergleich ist etwas irreführend... AMD gibt bestimmt keiner RX480 nur 1025mV. Deshalb erscheint auf den ersten Blick der höhere Verbrauch enorm. Vergleiche mal bitte wenns geht die 1266Mhz mit Defaultspannung.

StefanV
2016-07-17, 15:12:46
@StefanV

Ok, klar...genau der Absatz ist wirklich nicht glücklich gewählt und der liebe Dev hätte mal nicht in seiner Freizeit geantwortet :D Trotzdem...ich plädiere auf abwarten.
Ja, ich muss bei solchen Dingen auch immer daran denken, was ich gemacht hätte, wenn ich an seiner Stelle gewesen wäre oder sein Vorgesetzter wäre.

Ich hätte da eher was in die Richtung geschrieben:


To those demanding a refund:
I'm very sorry that you are not satisfied with our product. But please wait a couple of days as I try to get a statement from our development team.
I'm sure they will be able to make everything clear to you'

Sowas würde die Gemüter etwas abkühlen...

Das wichtigste an solchen Anschuldigungen ist erst einmal die Leute ernst zu nehmen und zu schauen, was an dem ganzen dran ist.

Gut, einige hier wissen vielleicht, dass ich ein wenig Erfahrung im Supportbereich bei einem Hersteller habe...
Manchmal muss man auf Konfrontation gehen, aber das ist eher selten. Meistens muss man einfach nur mit den Leuten reden und versuchen die Position zu verstehen...

Das Problem an der Sache ist schlicht, dass die meisten einfach mal überhaupt keine Ahnung über die öffentliche Kommunikation im Internet haben und sich wie die letzten Menschen verhalten...

Gorkon
2016-07-17, 15:19:17
Das Problem an der Sache ist schlicht, dass die meisten einfach mal überhaupt keine Ahnung über die öffentliche Kommunikation im Internet haben und sich wie die letzten Menschen verhalten...
Das war auch eher, was ich an dem Thread bei Steam bemängelt hab. Aber da haben sich beide Seiten einfach nicht mit Ruhm bekleckert...Dev wie User.

mfg

-/\-CruNcher-/\-
2016-07-17, 15:21:52
Entschuldige mal wer solche Synthetischen Benchmarks nutzt hat generel keine Ahnung von irgendwas sondern will nur eine Zahl sehen die höher steht als die der anderen koste es was es wolle das ist hirnrissig und einfach nur idiotisch.
Warum AMD in diesem Verein ist ganz einfach weil alle davon profetieren ausser ihr, das einzige was hier positiv war war die Render Validierung der Treiber.

TarantulaENERGY
2016-07-17, 15:25:25
Dieser Vergleich ist etwas irreführend... AMD gibt bestimmt keiner RX480 nur 1025mV. Deshalb erscheint auf den ersten Blick der höhere Verbrauch enorm. Vergleiche mal bitte wenns geht die 1266Mhz mit Defaultspannung.


Hab es im ersten Post auch noch mal ergänzt.

Time Spy - RX480 GPU @1266MHz (1137mV) / RAM @2000MHz (1000mV)

Power Draw max.(GPU-Z): 157W / Gesamtes System (ohne Monitor): 262W

Eigentlich wollte ich nur aufzeigen wo in etwa die minimalen Spannungen bei Custom OC-Karten liegen könnten.

dargo
2016-07-17, 15:33:57
Hab es im ersten Post auch noch mal ergänzt.

Time Spy - RX480 GPU @1266MHz (1137mV) / RAM @2000MHz (1000mV)

Power Draw max.(GPU-Z): 157W / Gesamtes System (ohne Monitor): 262W

Eigentlich wollte ich nur aufzeigen wo in etwa die minimalen Spannungen bei Custom OC-Karten liegen könnten.
Danke... für mich persönlich war eher die Defaultspannung wichtiger um abzuschätzen was die Customs in etwa an Mehrverbrauch aufweisen werden wenn die Partner es mit der Spannungserhöhung nicht übertreiben. :wink:

Hübie
2016-07-17, 15:36:27
Ich spreche von Frameverläufen nicht Frametimes. :wink:

Ähm. Das ist die Inverse Funktion..?!

[MK2]Mythos
2016-07-17, 15:37:56
Scully ich hab dich gemeldet. Geht ja überhaupt nicht, was du hier vom Stapel lässt, unabhängig davon wen du damit ansprichst.

Screemer
2016-07-17, 15:44:51
Danke... für mich persönlich war eher die Defaultspannung wichtiger um abzuschätzen was die Customs in etwa an Mehrverbrauch aufweisen werden wenn die Partner es mit der Spannungserhöhung nicht übertreiben. :wink:
da könnte der abstand sogar noch kleiner ausfallen. seine karte ist eine der wenigen, die nicht mit 1,15v default auffahren. 15w könnten da durchaus realistisch sein. theoretisch könnte man die sogar an anderer stelle einsparen.

Gorkon
2016-07-17, 15:50:00
Hängt GloFo / Sammy nicht auch ganz schön an der Temperatur? Dann sollte der Verbrauch ja wirklich linear mit der zusätzlichen Lesitung skalieren evtl. sogar drunter. Die Custom-Kühler sollten den kleinen 232mm² Chip eigentlich gut im Zaum halten können...

Lurtz
2016-07-17, 15:52:49
Langsam glaub ich versteht man wieso Diretx12 beispielsweise in Tomb Raider nix bringt, wenn man sich das alles durchliest.:(
Ist eigentlich ne recht gute Quelle um sagen zu können, dass der Directx12 Benchmark recht gut ausoptimiert ist, was async compute angeht.
Warum wird ein RotTR, was schon immer mies performet hat, zum Benchmark erhoben? Das Studio hat vor ein paar Jahren noch 60er-Titel programmiert, die von Bugs nur so durchzogen waren.
Crystal Dynamics wären die letzten, die ich da als Messlatte anlegen würde und die PC-Version kommt zudem nur von einem Auftragsentwickler, nicht mal vom Studio selbst.

dildo4u
2016-07-17, 15:59:35
Warum wird ein RotTR, was schon immer mies performet hat, zum Benchmark erhoben? Das Studio hat vor ein paar Jahren noch 60er-Titel programmiert, die von Bugs nur so durchzogen waren.
Crystal Dynamics wären die letzten, die ich da als Messlatte anlegen würde und die PC-Version kommt zudem nur von einem Auftragsentwickler, nicht mal vom Studio selbst.
Die PC Version ist ziemlich gut Nixxes liefert da gute Arbeit ab,das DX12 noch am Anfang steht dafür kann das Studio nix.Und seit dem letzten Patch Performt es 1A auf Fury X,liegt jetzt vor der 980 Ti mit max Details.

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_directx_12_performance_update/3

Screemer
2016-07-17, 16:07:59
Hängt GloFo / Sammy nicht auch ganz schön an der Temperatur? Dann sollte der Verbrauch ja wirklich linear mit der zusätzlichen Lesitung skalieren evtl. sogar drunter. Die Custom-Kühler sollten den kleinen 232mm² Chip eigentlich gut im Zaum halten können...
das kommt noch dazu. der chip geht bis hart an die 85°C. ne vapochamper hätte da wunder gewirkt.

uweskw
2016-07-17, 16:30:20
.....
Quantum Break RX 480 OC Vs GTX 970 OC

http://youtu.be/zh2svARKcDM



......



Kann sich das mal ein "Wissender" unter Bidlqualitäts Kriterien anschauen?

Es ist zwar nur ein Youtube Video, aber es sieht aus als hätte die 480 in Sachen BQ einen Vorteil. Liegt das am Renderer oder ist da einfach Kontrast und Sättigung besser eingestellt?




......Dazu kommt eben auch, dass immer mehr Leute sehen, dass die Presse und auch einige andere Unternehmen eher nVidia freundlich sind. Das mag zwar eine gewisse Zeit gut gehen, aber diese Zeit ist schlicht vorbei...
.....


Nicht NV-, Intel- oder MS- freundlich. Man bestätigt einfach den Mainstream. Und damit einen Großteil der Leser. Das bringt hohe Auflagen/Klicks. Und fördert Monopole.
Über einen zumindest halbwegs neutral ausgeführten BQ-Vergleich würde sicher nicht nur ich mich freuen.
Ich gebe ja die Hoffnung nicht auf, dass mit der neuen Chip-Generation auch ein paar Tests kommen, die nicht nur an der Oberfläche kratzen. Nicht nur "leicht" messbare wie Stroverbrauch und Temperatur.
Da wird aber lieber ein Fass aufgemacht wenn die Karte beim Zocken 0,8 Cent in der Stunde mehr Verbraucht. Und dabei wird meist auch noch vom maximal Verbrauch ausgegangen, statt vom realen Durchschnittsverbrauch.:freak:

Wenn Vega hält was man so hört, werde ich meine 980Ti@1450MHz ausmustern und mal wieder bei AMD zuschlagen. Selbst falls Vega zum Start nicht ganz an den BigPascal rankommt. Zumindest wenn Leistungsmäßig nicht zuviel fehlt.

greetz
US

HOT
2016-07-17, 16:31:17
Die PC Version ist ziemlich gut Nixxes liefert da gute Arbeit ab,das DX12 noch am Anfang steht dafür kann das Studio nix.Und seit dem letzten Patch Performt es 1A auf Fury X,liegt jetzt vor der 980 Ti mit max Details.

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_directx_12_performance_update/3
Nur dass das ja nicht an Nixxes liegen kann, die haben immerhin auch Hitman 2016 umgesetzt und werden auch Mankind Divided umsetzen. Hitman schlägt ja in genau die andere Richtung aus als TR.

PrivateCeralion
2016-07-17, 19:16:26
Kann sich das mal ein "Wissender" unter Bidlqualitäts Kriterien anschauen?

Es ist zwar nur ein Youtube Video, aber es sieht aus als hätte die 480 in Sachen BQ einen Vorteil. Liegt das am Renderer oder ist da einfach Kontrast und Sättigung besser eingestellt?


US

Hier gibt es ein ähnliches Problem:

https://www.youtube.com/watch?v=FVb25eomcrI

StefanV
2016-07-17, 19:35:29
Autsch.

Jetzt könnte man fies sein und den Verschwörungstheoriebot anschmeißen und behaupten, dass das eine Folge der Optimierungen ist und nVidia hier einen unfairen Vorteil sich erschleicht, so dass die Performance in dem Spiel besser ausschaut, als sie eigentlich ist...

iuno
2016-07-17, 19:42:33
Oder man laesst es.
Streaming funktioniert nie voellig gleich auf allen Karten, ist doch ganz normal, sowieso wenn man hier einfach mal die doppelte Menge an Speicher hat. Zudem ist die 970 dahingehend eh ein Sonderfall und die 780 hat einfach nochmal weniger Speicher.

Hat aber mit dem Thema auch nichts zu tun.

-/\-CruNcher-/\-
2016-07-17, 20:02:06
Hier gibt es ein ähnliches Problem:

https://www.youtube.com/watch?v=FVb25eomcrI

Die meisten Reviewer haben keine Ahnung die wollen nur eure klicks, das sind unterschiede die durch höhere latenzen zu stande kommen innerhalb des Texturestreaming mehr nicht dort hat die GTX 970 eben Nachteile bedingt durch ihren Aufbau und das Balancing.
Diese Auswirkungen nimmt in Motion keiner mehr richtig war das war bei RAGE noch schlimmer da wurde es noch sehr deutlich wahrgenommen.
Die Konsolen haben hier generel einen massiven Vorteil ;)

Er würde sich wundern wenn er es mit der Xbox One/PS4 vergleicht ;)

Übrigens Overclocking verstärkt diese Probleme meistens ;)

Teils könnten hier auch schon Async Compute Vorteile zum Vorschein kommen vs IDs damaligen CUDA supported Approach :)

Auch wenn dort Afterburner mit einem agresiven polling lief könnte das die Latenzen zusätzlich Negativ beinflust haben in seinem Test ;)

Das ist eben auch eine Bessonderheit von IDTech die sie von allen anderen Engines unterscheidet :D

Schaffe89
2016-07-17, 21:08:53
Junge... such selbst im DX12 Thread oder RotTR Thread, dort hatte Troyan genug Ergebnisse mit seiner NV im CPU-Limit gepostet. Ich mache doch nicht die Arbeit für dich. Du raffst einfach nicht, dass nicht jede Szene immer im starken GPU-Limit ist.

Natürlich raff ich das, deswegen sagte ich ja dass es manchmal was bringt und manchmal nix bringt.:rolleyes: Setze für die Stellen wo es was bringt auf ein CPU Limit und in den Stellen wo es langsamer läuft auf GPU Limit. ( wobei das nicht immer zutreffend ist)
Bei den AVG Frames, also im Durchschnitt bringt es nix und wenn es jetzt nach Monatelanger Wartezeit wo Directx12 vieleicht ein bisschen was bringt erst kommt, kräht auch kein Hahn mehr danach.

Schaffe89
2016-07-17, 21:17:28
Liegt das am Renderer oder ist da einfach Kontrast und Sättigung besser eingestellt?

Texturstreaming funktioniert häufig nicht gerade überzeugend, ich kann mich unabhängig vom Grafikkartenhersteller in mehreren Spielen an unangenehm aufploppende hochwertigere Texturen erinnern.
Vermutlich reicht der Texturspeicher bei Karten mit weniger als ~4GB nicht und das Zeug wird zu spät nachgeladen oder es ist auch einfach nur ein Bug vom Game.

Da wird aber lieber ein Fass aufgemacht wenn die Karte beim Zocken 0,8 Cent in der Stunde mehr Verbraucht.

Eigentlich war ich von Computerbase überrascht, dass sie in die Überschrift zum rx480 Test etwas von effizient geschrieben haben, obwohl der Idle Verbrauch, Videoverbrauch und Gamingverbrauch im Vergleich zur Konkurrenz für sicher viele nicht mehr akzeptabel ist, im Gegensatz zu manch früherem Test sehr AMD freundlich, auch der Benchmarkparcours.

Und dabei wird meist auch noch vom maximal Verbrauch ausgegangen, statt vom realen Durchschnittsverbrauch.

Bei der Konkurrenz wird ja auch der maximale Stromverbrauch gemessen und angegeben, also fair.
Ich hab eher das Gefühl dass viele sehenden Auges wissen dass AMD auch bei Grafiklösungen jetzt massivst an Boden verliert, spätestens ab Dienstag dann gar keine Karte mehr hat die aktuell wirklich attraktiv ist und deswegen jetzt diese Verschwörunggstheorien als Thema aussuchen, weil es gegen Nvidia immer weniger Angriffsflächen gibt.

Gorkon
2016-07-17, 23:00:48
wat? :ulol:

Und ich hab eher das Gefühl, dass nV einfach der Stift geht, weil die mit Maxwell & Pascal LL-API-Technisch nen 2. NV30 gebaut haben, wenn Maxwell fast immer verkackt, Pascal ein paar lächerliche Prozent dazu gewinnt, wenn man es nicht übertreibt und GCN dagegen deutlich bis massivst zulegt, dass einige Chips sogar ne Performance-Klasse höher wandern...

Ach und btw. der Parcours von CBase ist seit dem GTX1080-Review neu, also nix mit "AMD-Freundlich". Gleiche Bedingungen für Pascal & Polaris.

So...jetzt haben wir beide genug rumgesponnen ;)

uweskw
2016-07-17, 23:08:45
@schaffe
du hast dir offensichtlich nicht mal das Video angeschaut. Da gehts nicht ums Streaming.
Und könntest du mal aufhören alles in rot-grüne Grabenkämpfe zu zerren?
Wir sind Gamer und Konsumenten und wollen ordentliche Karten, Prozessoren und Fortschritt zu einem fairen Preis.
Und wer glaubt das Moorsche Gesetz verliert seine gültigkeit weil die Fertigung immer aufwändiger wird, der glaubt wohl auch, dass Kinderschokolade gesund ist.
Wir haben eine fast Monopolsituation und Monopolisten haben als Ziel nicht Fortschritt oder besser zu sein als der Wettbewerb. Da gehts nur noch um Gewinnmaximierung.
Ist doch gar nicht so schwer zu verstehen.

greetz
US

-/\-CruNcher-/\-
2016-07-17, 23:24:57
@uweskw
Doch es geht exakt um das Streamingverhalten

Side by side sah er keinen Unterschied

"Standalone Frames vs Standalone Frames they looked identical"
"When the Level was first Loading"


Das ist eindeutig Streaming ;)

Mit Async Compute unter Vulkan hast du hier gegen Nvidia schonmal den Vorteil das es Parallel abläuft ohne zu stallen, die Latenzen werden deutlich niedrieger sein er testet es hauptsächlich bei 4K da sind die Latenzen dann auch nochmal insgesammt höher ;)

Der Reviewer hat einfach keine Ahnung was er da sieht und wieso,weil er es vermutlich so noch nirgends gesehen hat aber das ist halt IDtechs Tiled Virtual Texture System ;)

uweskw
2016-07-17, 23:44:59
@uweskw
Doch es geht exakt um das Streamingverhalten

Side by side sah er keinen Unterschied

"When the Level was first Loading"

Das ist eindeutig Streaming ;)

.........



Mir ging es um ein anderes Video. Hier:

https://www.youtube.com/watch?v=zh2svARKcDM&feature=youtu.be

Es ist zwar nur ein Youtube Video, aber es sieht aus als hätte die 480 in Sachen BQ einen Vorteil. Liegt das am Renderer oder ist da einfach Kontrast und Sättigung besser eingestellt?


greetz
US

y33H@
2016-07-17, 23:57:46
Da es gecaptured ist, sollte Kontrast/Sättigung identisch sein. Ich meine in ein zwei Szenen minimale Unterschiede bei den Distanz-Schatten zu sehen, aber vll streamt QB bei 8 statt 4 GByte einfach nen Ticken früher rein.

-/\-CruNcher-/\-
2016-07-17, 23:59:01
Ja es könnte eine leichte Render Differenz sein aber ohne das in Real Side by Side zu sehen Youtube Video ist da immer meeeehhh könnte auch die Quantization auf der einen seite höher sein was auch auf das Streaming schliesen könnte (etwas Blurrier).
Auch teils wirkt der AMD output vielleicht etwas wärmer.

Aber das müsste man sich alles schon etwas genauer anschauen und vergleichen zumal das ganze Post Pro das ist einfach scheisse zu sagen ja da ist was ohne das genauer unter die Lupe zu nehmen.

Je nachdem wie lustig drauf Youtubes Encoder mit dem Input war könnte er die Bits auch lustig verteilt haben ;)

Schaffe89
2016-07-18, 00:10:05
@schaffe
du hast dir offensichtlich nicht mal das Video angeschaut. Da gehts nicht ums Streaming.

Ja das stimmt, sry ich dachte es geht immernoch um die Texturqualität.

Ist doch gar nicht so schwer zu verstehen.

Achso deswegen werden die neutraleren hier regelmäßig als Nvidia Drohnen und Werbefiguren abgestempelt. Okay dann mache ich mir wirklich sorgen um den Stand von AMD.:(

Schaffe89
2016-07-18, 00:14:25
wat? :ulol:

Und ich hab eher das Gefühl, dass nV einfach der Stift geht, weil die mit Maxwell & Pascal LL-API-Technisch nen 2. NV30 gebaut haben, wenn Maxwell fast immer verkackt

Der wäre Nvidia bestimmt gegangen, ähnlich damals zum Release der HD 7970, da hat Nvidia wohl auch nicht erwartet dass Nvidia schneller ist.
Wenn die rx480 so schnell gewesen wäre wie man es eigentlich erwartet hätte, also nochmal 20% mehr Leistung drauf und etwa Fury Niveau, wäre die Karte in Diretx12 Titeln an die GTX 1070 rangekommen, wenn nicht teilweise auf Augenhöhe gestanden, das wäre mit 232mm² ne ordentliche Leistung gewesen, aber so kann Nvidia Directx12, Vulkan eigentlich ganz entspannt zusehen wie ihre alten Karten um ~10% überholt werden. Es wird nicht die Bohne jucken, denn AMD kann endlich mal die Chips ein bisschen besser auslaste, aber Nvidia nicht entscheidend nahekommen.

AMD sollte das aber als Marketing Erfolg ausschlachten.

uweskw
2016-07-18, 00:20:23
Da es gecaptured ist, sollte Kontrast/Sättigung identisch sein. Ich meine in ein zwei Szenen minimale Unterschiede bei den Distanz-Schatten zu sehen, aber vll streamt QB bei 8 statt 4 GByte einfach nen Ticken früher rein.

Ich hab gemeit ob da per Treiber Default evtl. Kontrast/Sättigung bei den Karten unterschiedlich eingestellt sind? Bei der AMD wirkt das Bild irgendwie schärfer.

greetz
US

decimad2
2016-07-18, 00:35:28
Ich glaube Rage dient hier wahrlich nicht als beispiel, weil die eine gänzlich andere Technologie verwendet haben, insbesondere benutzt Doom nicht mehr diese Megatextures. Hier geht es um das Nachstreamen von Mip-Stufen, was in so ziemlich jedem aktuellen Spiel getan wird.

PS: Oder benutzt Doom das doch noch, weil zu spät im Entwicklungsprozess bemerkt wurde, dass das einfach immer störendes Popup produziert?

Screemer
2016-07-18, 01:41:23
Also idtech6 nutzt laut Wiki virtual textures aka megatexture. Unterschiede im Streaming wurden mich also nicht verwundern.

The engine still uses virtual textures (dubbed "MegaTextures" in id Tech 4 and 5) but they are of higher quality and no longer restrict the appearance of realtime lighting and shadows.[11][12]
https://en.m.wikipedia.org/wiki/Id_Tech_6

just4FunTA
2016-07-18, 02:11:19
Also idtech6 nutzt laut Wiki virtual textures aka megatexture. Unterschiede im Streaming wurden mich also nicht verwundern.


https://en.m.wikipedia.org/wiki/Id_Tech_6

zur Themenseite E3 2015 - Electronic Entertainment Expo
Doom - id Tech 6 tauscht Mega-Texturen gegen dynamisches Licht

http://www.gamestar.de/spiele/doom/news/doom,44424,3087301.html

4Fighting
2016-07-18, 05:16:11
zur Themenseite E3 2015 - Electronic Entertainment Expo
Doom - id Tech 6 tauscht Mega-Texturen gegen dynamisches Licht

http://www.gamestar.de/spiele/doom/news/doom,44424,3087301.html

So eine Diskussion hatten wir doch schon iirc im Doom Thread. Der Gamestar Link ist und bleibt imo falsch.

Billy Khan: We see our engine as an evolving organism that constantly improves and adapts. It is very important to us to constantly stay on the bleeding edge of engine technology. Doom still uses Virtual Materials to feed the PBR renderer with texture data.

http://www.eurogamer.net/articles/digitalfoundry-2016-doom-tech-interview

Foobar2001
2016-07-18, 05:58:03
Es ist auf jeden Fall nicht mehr unique texturiert, das kann man sehen.

Godmode
2016-07-18, 08:12:11
wat? :ulol:

Und ich hab eher das Gefühl, dass nV einfach der Stift geht, weil die mit Maxwell & Pascal LL-API-Technisch nen 2. NV30 gebaut haben, wenn Maxwell fast immer verkackt, Pascal ein paar lächerliche Prozent dazu gewinnt, wenn man es nicht übertreibt und GCN dagegen deutlich bis massivst zulegt, dass einige Chips sogar ne Performance-Klasse höher wandern...

Ach und btw. der Parcours von CBase ist seit dem GTX1080-Review neu, also nix mit "AMD-Freundlich". Gleiche Bedingungen für Pascal & Polaris.

So...jetzt haben wir beide genug rumgesponnen ;)


Ich würde das eher so sehen: Die NV Karten sind auch ohne LL-APIs schon gut ausgelastet, daher bringen die LL-APIs dort deutlich weniger, als bei AMD. Von verkacken kann hier IMHO keine Rede sein. Eventuell kann AMD in dieser Generation die Leistung endlich auf den Bildschirm bringen und besser mit NV mithalten, als bisher.

victore99
2016-07-18, 09:07:36
Hoffentlich.
Btw, gab es schon neue Infos zur 490?

Thunder99
2016-07-18, 09:58:02
Ich befürchte es wird eine RX480 X2 wie damals HD5900 :( Das würde dann bedeuten, dass Vega nicht mehr 2016 kommt

tm0975
2016-07-18, 09:59:43
vega kommt anfang 2017

HOT
2016-07-18, 10:17:40
Hoffentlich.
Btw, gab es schon neue Infos zur 490?

Die Radeon 490 ist offenbar nur ein OEM- RX470. Von einer RX 490 war bisher nur 1x zu lesen. Ich glaub nicht mehr dran.

tm0975
2016-07-18, 10:28:42
unwahrscheinlich. aber p10 ist mit 480 bereits vollausbau und vega kommt erst 2017. es bleibt eigentlich nur noch dual p10 übrig. auch wenn es schade ist...

Gorkon
2016-07-18, 11:07:32
Ich würde das eher so sehen: Die NV Karten sind auch ohne LL-APIs schon gut ausgelastet, daher bringen die LL-APIs dort deutlich weniger, als bei AMD. Von verkacken kann hier IMHO keine Rede sein. Eventuell kann AMD in dieser Generation die Leistung endlich auf den Bildschirm bringen und besser mit NV mithalten, als bisher.
Den letzen Satz hast du schon gelesen oder? ;)

AMD gewinnt da grad halt auf breiter Front, nV wenigstens noch im CPU-Limit. Ist einfach so und sollte man auch mal akzeptieren. Mit Volta wirds da sicherlich dann auch nen Gleichstand geben und alle Anti-LLer feiern das dann als heiligen Gral und alle snd glücklich :D

Aber ganz ehrlich...diese ständigen Grabenkämpfe sind einfach nur noch ermüdend und nervig. Ich persönlich freu mich für jeden der was von den massiven Vorteilen die DX12/Vulkan mit sich bringen hat. Dazu kommt mehr Wettbewerb, endlich sinkende Preise und technologischer Fortschritt in Spielen...Win/Win/Win für alle.

Wer sich ernsthaft ein GPU oder CPU-Monopol wünscht, der wird sich dann aber ganz schön umgucken. Denen ist echt nicht mehr zu helfen...

-/\-CruNcher-/\-
2016-07-18, 11:13:21
Richtig man bekommt wieder etwas mehr Performance aber vor allem Render Stabilität für sein Geld sprich ein besseres Experience in jeder Kategorie :)

Effe
2016-07-18, 21:23:49
AMD verlost mit LinusTechTips eine Polaris 10 und Polaris 11 Karte (https://linustechtips.com/main/topic/628287-amd-polaris-giveaway/).

Somit sollte Polaris 11 nicht mehr lange auf sich warten lassen, wenn fertige Karten verschenkt werden.

Das Video von "Next Gen Display Experiences (https://www.youtube.com/watch?v=xjuL9_7RAdU)" ist auch recht interessant.

Locuza
2016-07-19, 00:40:31
Wer Lust hat kann die CUs von P10 von einem echten die-shot zählen. :tongue:

https://imgur.com/a/ad01x

Hakim
2016-07-19, 00:44:24
Ob man sowas noch innerhalb von 14 Tagen zurückschicken kann? :tongue:

MadManniMan
2016-07-19, 00:47:06
Ob man sowas noch innerhalb von 14 Tagen zurückschicken kann? :tongue:

Innerhalb von 2 Wochen nach Kauf oder nach ... Demontage :D

Locuza
2016-07-19, 01:03:27
Ihr sollt zählen, nicht über RMA nachdenken. :P
Ich mache es euch sogar noch etwas leichter.
56751

Agent117
2016-07-19, 01:07:24
40 CUs:eek: Leider doch nur 36:tongue:

Lustig, wer da mal wieder meinte aus Gesprächen mit AMD Ingenieuren was von 40 gehört zu haben.

Nightspider
2016-07-19, 01:11:20
Die richtige Antwort kann eigentlich nur 42 sein.

Locuza
2016-07-19, 01:15:06
40 CUs:eek: Leider doch nur 36:tongue:

Lustig, wer da mal wieder meinte aus Gesprächen mit AMD Ingenieuren was von 40 gehört zu haben.
CB und Golem soweit ich weiß.
Angeblich werden die Leute immer gesprächiger wenn sie betrunken sind, da waren vielleicht ein paar Ingenieure zu betrunken. :D

iuno
2016-07-19, 12:42:16
Wie kann man statt Paste versehentlich Kleber benutzen ;D
Ihr sollt zählen, nicht über RMA nachdenken. :P
Ich mache es euch sogar noch etwas leichter.
56751
sehe auch weiterhin 9 "Spalten" pro "Quadrant", der veroeffentlichte "Die-Shot" scheint mir daher inzwischen zu passen.

Aber wieso reden Ingenieure von 40 CUs? :confused: :usad:

Die richtige Antwort kann eigentlich nur 42 sein.
Dafuer habe ich jetzt laenger gebraucht als ich zugeben mag :P

Loeschzwerg
2016-07-19, 12:46:55
Wie kann man statt Paste versehentlich Kleber benutzen ;D


Dachte ich mir auch :freak: Letztendlich hat er uns damit allerdings einen Gefallen getan :)

36 CUs und fertig.

Dorn
2016-07-19, 13:42:07
Hbm2 ist in produktion.
Teilweise. Der Produktionsstart des 8 GB Stack ist für das 4 Quartal vorgesehen.

Agent117
2016-07-19, 15:38:20
Hier was interessantes im sehr guten Toms Hardware Test zur GTX 1060 gefunden:

http://media.bestofmicro.com/E/P/595393/gallery/Performance-vs.-Power-Consumption_w_728.png

Das linke Ende vom Graph ist min Powertarget, das rechte max.
Man sieht dass der Graph der 1060 etwas flacher abfällt optisch betrachtet, in Relation zu den Werten auf den Achsen fällt er dann sogar deutlich flacher ab.

Das sagt uns leider dass es Polaris 10 in Notebooks gegen Gp104 schwerer als erwartet haben wird.

fondness
2016-07-19, 15:41:30
Bitte löschen, falsch interpretiert.

iuno
2016-07-19, 15:43:26
Hier was interessantes im sehr guten Toms Hardware Test zur GTX 1060 gefunden:

http://media.bestofmicro.com/E/P/595393/gallery/Performance-vs.-Power-Consumption_w_728.png

Das linke Ende vom Graph ist min Powertarget, das rechte max.
Man sieht dass der Graph der 1060 etwas flacher abfällt optisch betrachtet, in Relation zu den Werten auf den Achsen fällt er dann sogar deutlich flacher ab.

Das sagt uns leider dass es Polaris 10 in Notebooks gegen Gp104 schwerer als erwartet haben wird.
1. Es ist GP106, nicht 104
2. Du weisst schon, dass eine staerker ansteigende Kurve "besser" ist?
Man will moeglichst weit nach links (wenig Verbrauch) und oben (hohe Performance). Problematisch ist fuer AMD, dass die gruenen viel weiter links und auch noch hoeher anfangen, nicht dass sie flacher steigen...

Wenn man vom Sweetspot ausgeht, ist bessere Skalierung immer besser. Wenn die Skalierung schlechter ist, macht es den Chip nicht automatisch besser fuer Notebooks (das ist er auch schon so ;p ). Man wird den Chip im Notebook sowieso nicht so weit oberhalb des Sweetspots platzieren, von daher sehe ich die Aussagekraft in deiner Analyse nicht. Man wird mobile Chips (hoffentlich) auch besser einstellen, als einfach nur das PT zu senken.
Aber Prinzipiell stimmt es natuerlich, die Spannungen sind bei AMD wieder viel zu hoch, die Balance passt nicht ganz, nach oben hin gibt es zu wenig Bandbreite was Leistung kostet und das Speichersubsystem verbraucht vermutlich doch wieder zu viel. Nvidia bekommt das alles aktuell deutlich besser hin

BTW: wie kann es sein, dass die AMD Karten immer noch deutlich ueber UVP verkauft werden, es noch keine Customs gibt und 1060er ab Tag 1 zum und "unter" UVP (guenstigere Customs) verfuegbar sind? :usad:

Agent117
2016-07-19, 16:06:08
Ich meinte natürlich GP 106 auch meinte ich nicht das maximale Powertarget sondern den Standardwert.
Man kann das ganze verschieden interpretieren. Ich meinte aber folgendes:
Ausgehend vom Standard Powertarget hat Nvidia beim minimalen Powertarget je nach Auflösung 15-20% an Leistung verloren und dabei die Leistungsaufnahme halbiert.
AMD hat hingegen ausgehend vom Standard Powertarget je nach AUflösung 18-22% Leistung verloren und die Leistungsaufnahme sank jedoch nur um 25-30%.
GP106 gewinnt daher mit fallender Leistungsaufnahme mehr an Effizienz als es P10 tut und in Notebooks taktet man ja meist deutlich geringer.

Das mit der Steigung vom Graphen war dumm ausgedrückt von mir, entscheidend ist der bei GP106 deutlich größere Wattbereich.

iuno
2016-07-19, 16:11:36
Ja, ich habe schon verstanden was du meintest und kann die Denkweise auch nachvollziehen.
Je nach Blickpunkt verschiebt sich das Optimum. Geht man von einem festen Punkt (z.B. Referenzkarte, 100% PT) nach links, waere eine moeglichst flache Steigung optimal (-> wenig Leistungsverlust bei weniger Verbrauch), geht man nach rechts eine moeglichst steile (-> viel Leistungszuwachs bei wenig zusaetzlichem Verbrauch).
(Annaehernd) horizontale und vertikale Linien waeren natuerlich ideal, aber natuerlich genauso unrealistisch. Das verschiebt sich aber auch alles je nach Anwendung. Und man muss immer einen festen Bezugspunkt haben, der eben, und das ist mein Punkt, bei einer mobilen Loesung ganz woanders liegen kann.

Agent117
2016-07-19, 17:21:40
Klar, schaut man "von unten nach oben" holt AMD pro zusätzlichem Watt mehr Performance raus als Nvidia, relativ gesehen erst recht.

Interessant an dem fast linearen Graphen ist auch dass der Sweet Spot nun beim GP106 beim min Powertarget also 60W liegt (vlt sogar noch weniger bei weiterer Absenkung).
GM 204 hatte sich da noch anders verhalten.
http://media.bestofmicro.com/1/M/456250/original/20-Efficiency-PT.png

Könnte der Unterschied 16FF+ geschuldet sein?

iuno
2016-07-19, 17:31:20
Naja unterschiedlich grosse/breite Chips verhalten sich auch anders. Ohne jetzt ganz genau nachgeschaut zu haben, sollte es aber auch mit den Frequenzen zu tun haben. 16FF+ verschafft NV mehr Spielraum, der Sweetspot liegt damit aber nicht automatisch bei hoeheren Taktraten. Dazu muesste man schauen, wie hoch genau denn GM204 resp. GP106 im vermeintlichen Sweetspot takten. Vielleicht landet man ja sogar grob im selben Bereich ;)
Das passt dann aber auch besser in den entsprechenden Nvidia-Thread

Bei AMD scheint es im Uebrigen nicht viel anders zu sein. Sweetspot der alten Karten lag < 1 GHz, auch Polaris braucht vergleichsweise deutlich zu viel Spannung und daraus resultierend Leistung wenn es deutlich ueber die 1 GHz geht.

Skysnake
2016-07-19, 18:30:02
Autsch. Wenn ich das richtig lese, dann braucht eine GTX1060 nur 60W statt 140W um die Leistung der RX480 zu erreichen?

iuno
2016-07-19, 18:31:35
In diesem Szenario, ja, genau das ist die Aussage dieses Graphen.
Ist von Igors Test: http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html

Auch wenn es der absolute Sonderfall ist, wuerde mich so eine Effizienzbetrachtung aber auch mal bei DOOM mit Vulkan interessieren. Best case Nvidia vs. best case AMD, voellig unabhaengig davon was im Durchschnitt los ist.
Auch im direkten Vergleich mit den Vorgaengern fehlen mir zugegebenermassen bei Polaris noch detailliertere Effizienzanalysen.

dargo
2016-07-19, 18:44:42
Autsch. Wenn ich das richtig lese, dann braucht eine GTX1060 nur 60W statt 140W um die Leistung der RX480 zu erreichen?
Metro: Last Light
Zeig mir das gleiche in Doom @Vulkan oder Quantum Break.

Undertaker
2016-07-19, 19:02:56
Zeig mir das gleiche in Doom @Vulkan

Auch wenn du das Beispiel noch 10x bringst: Doom läuft auf Pascal aktuell noch vollkommen unoptimiert und ohne AC-Unterstützung. Nur weil du auf AMD-Seite ja auch jeden negativen Benchmark herausstreichst, der noch keine finale Performance widerspiegelt. Du weißt ja, welcher gemeint ist. :)

tm0975
2016-07-19, 19:07:26
ich finde die herangehensweise von CB mittlerweile gut. die api, auf der ein spiel am schnellsten läuft, geht in die wertung ein. wenn nvidia nicht optimiert für dx12/vulkan, dann ist das halt ne tatsache, die man akzeptieren muß.

MikePayne
2016-07-19, 19:11:48
Klärt mich auf: Warum läuft Vulkan bzw AC auf AMD-Karten besser und wurde dort zuerst verfügbar gemacht?

Hat AMD Kohle locker gemacht (die sie eigentlich nicht haben), ist es einfacher zu implementieren oder stellt sich nvidia quer? (ernstgemeinte Frage, ich weiss es wirklich nicht)

Hübie
2016-07-19, 19:14:46
Zeig mir das gleiche in Doom @Vulkan oder Quantum Break.

Als Ergänzung mit Zukunftsausblick sicher nicht verkehrt. Frag doch mal bei Igor an. Er ist ja ein recht umgänglicher Typ mit Ohr für Ideen / Vorschläge. :smile:

@MikePayne: Es liegt nahe, da Doom auch auf Konsole verkauft wird, wo AMD Chips drin sind. Laut Dan Baker von Oxidegames (Ashes of the Singularity) ist es zudem leichter auf GCN zu implementieren, was wahrscheinlich auch der besseren Doku geschuldet ist. Nvidias Maxwell sind nicht effizient in der Lage viele computeshader asynchron neben pixel-/geometryshader laufen zu lassen. Also den einen ultimativen Grund gab es sicher nicht.

Geld floß so direkt bestimmt nicht. Vielleicht ein paar Karten und Tools, aber das gehört zum guten Ton.

iuno
2016-07-19, 19:25:01
Klärt mich auf: Warum läuft Vulkan bzw AC auf AMD-Karten besser und wurde dort zuerst verfügbar gemacht?

Hat AMD Kohle locker gemacht (die sie eigentlich nicht haben), ist es einfacher zu implementieren oder stellt sich nvidia quer? (ernstgemeinte Frage, ich weiss es wirklich nicht)

AMD ist bzgl. AC in der Hardware deutlich weiter als Nvidia, insofern gewinnen sie da auch mehr.
Und ja, AMD hat id in der Entwicklung unterstuetzt. Allerdings hatte id auch Kontakt mit Nvidia. Wer genau mit welchem Einfluss was gemacht hat, kann dir hier keiner sagen.
Als Ergänzung mit Zukunftsausblick sicher nicht verkehrt. Frag doch mal bei Igor an. Er ist ja ein recht umgänglicher Typ mit Ohr für Ideen / Vorschläge. :smile:
Er hat ja schon im Test geschrieben, dass er es nicht fuer realitaetsnah haelt.

MikePayne
2016-07-19, 19:27:48
Danke für die Aufklärung @ Hübie & iuno :up:

Wenn das so ist - was will man da wunderbares von nvidia erwarten? :ugly:

iuno
2016-07-19, 19:32:29
Wenn das so ist - was will man da wunderbares von nvidia erwarten? :ugly:
Ich zitiere mich mal selbst:
Ich bin auch gespannt, was sich da noch tut.
Es gibt aber auch Tests, die ohne AC (mit entsprechenden AA-Modi) durchgefuehrt wurden und da steht NV aktuell auch nicht besser da. Es ist aber schon auch deutlich zu sehen, dass das die Rohleistung der Hardware deutlich besser wiederspiegelt als alle anderen Gaming Tests mit high-level APIs. Es ist einfach eine neue Aera, Insofern wuerde ich da bei NV keine Wunder mehr erwarten.
Ist aber nur meine Meinung. Ich bin aber gespannt, wie sich die Zukunft dahingehend entwickelt. Man muss immer bedenken, dass Nvidia auch weiterhin viel Einfluss bei den Entwicklern hat. Zudem grasen sie aktuell alle Enthusiasten ab und die 1060 ist nun auch nicht so ueberteuert, dass sie da wahnsinnig Marktanteile verlieren werden.


Mal was anderes:
http://monitorinsider.com/assets/AMD_GDDR5X.png
https://www.linkedin.com/in/jiapinghu

War das schonmal hier?
Ohne wieder unbegruendete Hoffnungen schueren zu wollen, aber beisst sich das nicht etwas mit den bisherigen Angaben hier zur GDDR5X-Geschichte?
Koennte natuerlich auch fuer einem Konsolen-SoC, eine APU oder einfach gar nichts dran sein...

Nightspider
2016-07-19, 19:43:02
Mal was anderes:
http://monitorinsider.com/assets/AMD_GDDR5X.png
https://www.linkedin.com/in/jiapinghu

War das schonmal hier?
Ohne wieder unbegruendete Hoffnungen schueren zu wollen, aber beisst sich das nicht etwas mit den bisherigen Angaben hier zur GDDR5X-Geschichte?
Koennte natuerlich auch fuer einem Konsolen-SoC, eine APU oder einfach gar nichts dran sein...

Falls es zwei Vega Chips geben wird wäre es nicht undenkbar das der kleinere Vega Chip GDDR5X bekommt.
Gehört ja auch zur RX Reihe nehme ich mal an.

Allerdings muss das auch nichts bedeuten.

Unicous
2016-07-19, 19:46:02
@iuno

Weiß spontan nicht, ob es hier schon einmal gepostet wurde, aber bekannt ist es. Sieht man ja auch am Zeitraum, dass das keine aktuelle "Entwicklung" ist (e: will heißen, sie haben sich schon 2015 damit beschäftigt). Ich meine mich erinnern zu können auch mal was zu XDR2 gelesen zu haben.:freak:

gedi
2016-07-19, 19:46:09
Als Ergänzung mit Zukunftsausblick sicher nicht verkehrt. Frag doch mal bei Igor an. Er ist ja ein recht umgänglicher Typ mit Ohr für Ideen / Vorschläge. :smile:

.

Ich hoffe doch dies war ironisch gemeint :rolleyes:

Dino-Fossil
2016-07-19, 21:37:03
Auch wenn du das Beispiel noch 10x bringst: Doom läuft auf Pascal aktuell noch vollkommen unoptimiert und ohne AC-Unterstützung. Nur weil du auf AMD-Seite ja auch jeden negativen Benchmark herausstreichst, der noch keine finale Performance widerspiegelt. Du weißt ja, welcher gemeint ist. :)

Naja, in einer Hinsicht hat er recht: ein einziges Spiel heranzuziehen ist eine etwas dünne Datenlage.
NVidia ist aktuell deutlich effizienter, das ist offensichtlich.
Aber: ausgehend von dem verlinkten Graphen hätte NVidia die 1060 auch mit einer TDP von 80W ins Rennen schicken können (oder, sagen wir nur mit 75W ohne weiteren Stromstecker) und wäre trotzdem immer schneller als eine Referenz-480.
Trotzdem liegt sie bei 120W im Mittel gerade mal ca 10% vorn?
Sorry, aber auch wenn man kein AMD-Fanboy ist muss man sich doch fragen, ob da was nicht stimmt.

Undertaker
2016-07-19, 21:50:41
Naja, in einer Hinsicht hat er recht: ein einziges Spiel heranzuziehen ist eine etwas dünne Datenlage.
NVidia ist aktuell deutlich effizienter, das ist offensichtlich.
Aber: ausgehend von dem verlinkten Graphen hätte NVidia die 1060 auch mit einer TDP von 80W ins Rennen schicken können (oder, sagen wir nur mit 75W ohne weiteren Stromstecker) und wäre trotzdem immer schneller als eine Referenz-480.
Trotzdem liegt sie bei 120W im Mittel gerade mal ca 10% vorn?
Sorry, aber auch wenn man kein AMD-Fanboy ist muss man sich doch fragen, ob da was nicht stimmt.

Im Mittel wäre die GTX 1060 bei 75 - 80 Watt sicher nicht mehr konkurrenzfähig zur RX 480, selbst wenn das in einigen Fällen gelingen mag. Imo ist Die-Fläche spätestens jetzt unter 14/16 nm einfach zu kostbar, um einen Grafikchip im absoluten Sweetspot und nicht etwas darüber bei höherer Performance (und deutlich höherer Leistungsaufnahme) zu betreiben. Auch wenn die RX 480 nach unten nicht ganz so gut skalieren mag, effizienter wäre die Karte mit nur 1,0 - 1,1 GHz ebenfalls geworden. Ich bedauere das auf beiden Seiten.

Umso interessanter könnten dadurch jedoch die kleineren Karten werden, sofern diese denn nicht nur bzgl. der Einheitenzahl, sondern vor allem auch bei den Taktraten beschnitten werden.

scully1234
2016-07-19, 22:03:58
Umso interessanter könnten dadurch jedoch die kleineren Karten werden, .

Die werden schon auf andere Weise interessant ,wenn sie wirklich mit Samsung statt TSMC kooperieren, und das Portfolio im 14nm Node daher kommt

StefanV
2016-07-19, 22:18:20
War das schonmal hier?
Ohne wieder unbegruendete Hoffnungen schueren zu wollen, aber beisst sich das nicht etwas mit den bisherigen Angaben hier zur GDDR5X-Geschichte?
Nein, war es nicht.

Bisher hat AMD auch nicht direkt abgestritten, dass GDDR5X von Polaris unterstützt wird, aber auch nicht zugegeben.
Nur bisserl mit den Armen gefuchtelt und rumgerutert, mit der Aussage, dass man sich nicht zu nicht auf den Markt geschmissenen Produkten äußern werde...

Also genau genommen hat der AMD Vertreter, auf dessen Aussage sich hier in diesem Falle so gern bezogen wird nämlich genau gar nichts ausgesagt, natürlich mit möglichst vielen Worten, versteht sich.

Also kurzfassung:
Es ist möglich bis wahrscheinlich, dass Polaris GDDR5X unterstützt und AMD hat zu dem Thema nichts direkt gesagt.

Skysnake
2016-07-19, 22:28:46
aber an sich muss man das schon berücksichtigen. Der Wert in dem Diagramm ist wohl doch zu hoch, denn soooo viel effizienter ist die GTX1060 im Schnitt dann doch auch nicht.

Wenn ich es mir nochmals recht durch den Kopf gehen lasse, liefert die GTX1060 da einfach überproportional viel mehr Leistung ab als die RX480. Die GTX ist rund 12% schneller. Im Schnitt sind es aber wohl eher "nur" 5-6% das macht dann schon auch noch etwas aus.

Man müsste wohl wirklich ein größeres Sample über mehr Spiele nehmen. Mehrere GPUs schaden sicherlich auch nichts.

StefanV
2016-07-19, 22:31:07
Würde mich nicht wundern, wenn nVidia hier 'Golden Sampling' betrieben hat und die besten Chips, die sie von allen Wafern bekommen haben, für Presse Samples genommen haben und AMD einfach irgendwas hingeschickt hat, dass gerade eher nicht so doll war und die Retail Modelle ev. gar etwas besser abschneiden.

Aber um das genau sagen zu können, müsste sich mal 'nen tester ein oder zwei GPUs kaufen und die mal 'durchnehmen'...

Golden Samples sind leider gar nicht so unüblich, im Umgang mit der Presse, leider...

Dino-Fossil
2016-07-19, 22:51:22
Golden Samples mag zwar sein, aber unterm Strich ist die 1060 sicherlich deutlich effizienter und im Mittel eben etwas schneller, da muss man nicht lange drüber diskutieren.

Ich denke, dass sich die 480 mit DX12 und Vulkan teilweise etwas absetzen kann, da man da vermutlich leichter die -ja durchaus höhere- Rohleistung auf die Straße bringt.

Davon abgesehen ist aber die Effizienzbetrachtung bei Tom's Hardware als Vergleich fragwürdig wenn man nur einen einzigen Titel betrachtet, dazu wäre es mMn nötig ein breiteres Feld heranzuziehen.

StefanV
2016-07-19, 22:56:15
Mag sein, aber dank der ganzen boosterei ist das alles nicht so einfach zu behaupten.
Auch sollte man sich echt nicht an der Leistungsaufnahme zu sehr aufhängen, eben weil die so sehr schwankt und mal so, mal anders sein kann...

Wenn du jetzt z.B. VSync einschaltest und das Spiel auf 30fps einstellst, kann es ganz anders ausschauen als wenn du die Karten frei laufen lässt.
Oder auch bei 60fps, wenn man genau ist, gibt es viele Dinge, auf die die Redakteure gar nicht eingehen. Und vieles ist einfach nur 'ne Momentaufnahme...

Insbesondere wenn ich noch an das Posting von dem einen Entwickler, der hier mal aktiv war, denke, in dem davon Berichtet wurde, dass einige Objekte bei nVidia Karten verschwinden, macht es das ganze wirklich NICHT leichter...

Denn unterm Strich ist eher die Frage, wie hoch wir die 'Error Tolerance' auslegen und die Karten als ungefähr gleich gut/schlecht bezeichnen...

Dino-Fossil
2016-07-20, 00:25:03
Mag sein, aber dank der ganzen boosterei ist das alles nicht so einfach zu behaupten.
Auch sollte man sich echt nicht an der Leistungsaufnahme zu sehr aufhängen, eben weil die so sehr schwankt und mal so, mal anders sein kann...

Leider boosten jetzt ja beide Seiten. Aber es ist doch naiv zu behaupten, dass Boost die Leitungsaufnahme so extrem verzerrt, dass es der Grund für die Differenz in der Leistungsaufnahme zw. NVidia und AMD sei.
Ob man sich daran aufhängt muss jeder für sich entscheiden, dem einen ist sie wichtiger, dem anderen eben nicht.

Wenn du jetzt z.B. VSync einschaltest und das Spiel auf 30fps einstellst, kann es ganz anders ausschauen als wenn du die Karten frei laufen lässt.
Oder auch bei 60fps, wenn man genau ist, gibt es viele Dinge, auf die die Redakteure gar nicht eingehen. Und vieles ist einfach nur 'ne Momentaufnahme...
Ich stimme dir zu, dass es sinnvoll wäre drauf einzugehen. Allerdings wird es wohl beide Seiten gleicherart beeinflussen, also was genau erhoffst du dir da?


Insbesondere wenn ich noch an das Posting von dem einen Entwickler, der hier mal aktiv war, denke, in dem davon Berichtet wurde, dass einige Objekte bei nVidia Karten verschwinden, macht es das ganze wirklich NICHT leichter...


Naja, solange da keiner echte Beweise vorlegt, halte ich das für reine Verschwörungstheorie.
Interessieren würde mich eine entsprechende Untersuchung, aber wenn es so offensichtlich wäre, hätte es inzwischen wohl jemand gemerkt.
Zumindest das NVidia das effektivere culling hat ist doch bekannt - auch wenn Polaris da zugelegt hat.

Denn unterm Strich ist eher die Frage, wie hoch wir die 'Error Tolerance' auslegen und die Karten als ungefähr gleich gut/schlecht bezeichnen...

Es sind beides solide Karten.
Aber die Unterschiede in Leistung und Effizienz kann man wohl sicher als größer ansehen, als den jeweiligen Messfehler.
Die NVidia Karte hat nunmal den Vorteil der deutlich besseren Energieffizienz, während die 480 mit ihren 8GB Speicher und der höheren Rohleistung durch DX12 und Vulkan eine potentiell bessere Zukunftsinvestition bietet - aber das bleibt eben noch abzuwarten.

Persönlich hoffe ich vor allem darauf, dass die Preise durch den entstandenen Wettbewerb jetzt erstmal etwas absinken.
Wenn dann noch die 470 raus ist (da ich momentan eher zu der tendiere), werde ich mich entscheiden, was ich mir zulege.

N0Thing
2016-07-20, 01:35:36
Wenn du jetzt z.B. VSync einschaltest und das Spiel auf 30fps einstellst, kann es ganz anders ausschauen als wenn du die Karten frei laufen lässt.
Oder auch bei 60fps, wenn man genau ist, gibt es viele Dinge, auf die die Redakteure gar nicht eingehen. Und vieles ist einfach nur 'ne Momentaufnahme...

Wirklich? 30fps?
Und glaubst du ernsthaft, dass eine RX 480 auf 60fps limitiert besser beim Stromverbrauch abschneiden würde als eine GTX 1060?
Nicht, dass ich so einen Test nicht auch gerne sehen würde, aber ich kann mir beim besten Willen nicht vorstellen, dass Nvidia bei dem Szenario schlechter abschneiden würde als in einem unbegrenzten Benchmark.

-/\-CruNcher-/\-
2016-07-20, 01:49:23
Mag sein, aber dank der ganzen boosterei ist das alles nicht so einfach zu behaupten.
Auch sollte man sich echt nicht an der Leistungsaufnahme zu sehr aufhängen, eben weil die so sehr schwankt und mal so, mal anders sein kann...

Wenn du jetzt z.B. VSync einschaltest und das Spiel auf 30fps einstellst, kann es ganz anders ausschauen als wenn du die Karten frei laufen lässt.
Oder auch bei 60fps, wenn man genau ist, gibt es viele Dinge, auf die die Redakteure gar nicht eingehen. Und vieles ist einfach nur 'ne Momentaufnahme...

Insbesondere wenn ich noch an das Posting von dem einen Entwickler, der hier mal aktiv war, denke, in dem davon Berichtet wurde, dass einige Objekte bei nVidia Karten verschwinden, macht es das ganze wirklich NICHT leichter...

Denn unterm Strich ist eher die Frage, wie hoch wir die 'Error Tolerance' auslegen und die Karten als ungefähr gleich gut/schlecht bezeichnen...

Igor geht da sehr wohl drauf ein und seine tests sind wieder mal verherend was die Effizienz angeht da erscheint GP106 über 2x so Effizient in der Leistungsaufnahme in seinem Metro (4A Engine) Test :(

Nimmt man nun die horizontalen Hilfslinien als optische Orientierung, dann sieht man, dass die GeForce GTX 1060 beispielsweise in Full-HD (1080p) für die 130 FPS ganze 61 Watt an Leistung aufnimmt, während die Radeon RX 480 dafür trotz angepasster Spannung bereits ca. 139 Watt benötigt.


Historisch ist die Engine zwar auf Füllrate optimiert aber so extreme kann der unterschied doch nicht sein ?

StefanV
2016-07-20, 02:20:47
Wirklich? 30fps?
Und glaubst du ernsthaft, dass eine RX 480 auf 60fps limitiert besser beim Stromverbrauch abschneiden würde als eine GTX 1060?
Nicht, dass ich so einen Test nicht auch gerne sehen würde, aber ich kann mir beim besten Willen nicht vorstellen, dass Nvidia bei dem Szenario schlechter abschneiden würde als in einem unbegrenzten Benchmark.
1. Ja, 30fps. Das ist die Framerate, mit der ich viele meiner Spiele spielen kann/darf/muss und für'normale' Spiele (= so ziemlich alles außer Shooter) völlig ausreihend...
60fps sind oft zwar schöner, aber nicht unbedingt notwendig...

2. Glauben ist etwas für die Kirche oder Religionen.
Die maximale Stromaufnahme zu kennen, mag für den einen sinnvoll sein, in der Praxis ist das aber nicht unbedingt relevant.
Ich weiß von meinen Tahitis, dass eine forcierte Framerate gewaltige Auswirkungen auf die Leistungsaufnahme hat.
Was mir im Hirn geblieben ist, ist Murdered Soul Suspect mit beiden Tahitis.
VSync Off: Etwa 450W
VSync ON: etwa 250W (60Hz Schirm)


Es wäre auf jeden Fall eine sehr sinnvolle und auch in der Praxis relevante Information.
Hierbei denke ich, dass es sinnvoll(er) wäre, das gesamte Testsystem zu vermessen. Und das ganze mit einem gescheiten Power Meter...

Maximale Leistungsaufnahme ist halt nur das Maximum, die durchschnittliche wäre da interessanter...
Und das sollte dann auch in Wh angegeben werden.

Undertaker
2016-07-20, 08:23:54
Maximale Leistungsaufnahme ist halt nur das Maximum, die durchschnittliche wäre da interessanter...

Da hätte ich dir bei früheren Karten zugestimmt, bei heutigen Karten im PT-Limit – und da gehört eine RX 480 Referenz dazu – macht es allerdings nicht mehr sonderlich viel aus, in welchem aktuellen Spiel man nun genau misst und ob über kürzere oder längere Phasen mittelt. GPU-Limit und ausreichend niedrige Temperaturen natürlich vorausgesetzt.

y33H@
2016-07-20, 09:44:17
Die Erkenntnis, dass eine Grafikkarte auf 30 oder 60 fps gedrosselt, wenn zB 140 fps erreichen, sparsamer wird, ist alles andere neu - für wirklich relevant halte ich das aber nur bei Notebooks. Zudem behaupte ich, dass die Radeon RX mit Vsync nicht auf einmal sparsamer wird als die Geforce GTX 1060, vll finde ich aber Zeit, dass an ein zwei Titel exemplarisch zu belegen.

Dino-Fossil
2016-07-20, 10:15:22
Historisch ist die Engine zwar auf Füllrate optimiert aber so extreme kann der unterschied doch nicht sein ?

Deswegen meine ich ja, dass ein Titel - noch dazu einer in dem die 1060 relativ zur 480 gesehen deutlich besser abschneidet als im Mittel über alle Titel- sich nicht gut für einen Vergleich zwischen den Architekturen anbietet.
Man kann ihn meinetwegen nehmen um jede Karte für sich zu untersuchen, aber wenn man vergleicht, dann bitte mit Titeln die beiden Karten gut liegen.

Thunder99
2016-07-20, 10:55:47
Zum Effizienz Test von Igor :up: einfach mal den Text dazu lesen. Da steht alles drin warum wie und was ;). Es zeigt einfach, dass die Nvidia insgesamt einfach effizienter sind :wink:. Mit mehr Spielen wäre es zwar schön darzustellen, würde aber am Ergebnis und an der Aussage nichts ändern ;).

Ein P10 mit GDDR5X dürfte, wenn es implementiert ist, nur dann Sinn machen, wenn es einen Respin oder so gibt wo die Leistungsaufnahme deutlich gesenkt ist. Ansonsten bringt das leider nichts.

Ein P10 mit 1,6-1,7GHz (Hypothetisch) und GDDR5X könnte schon der 1070 gefährlich werden aber um welchen Preis in der Leistungsaufnahme? Und lässt sich außerdem der Chip so hoch takten? Außerhalb von extrem LN2 OC bisher ja nicht...

Dino-Fossil
2016-07-20, 11:12:21
Ich sag doch die ganze zeit das nvidia deutlich effizienter ist, bezweifle ich doch gar nicht.
Aber lies mal meinen Beitrag zu undertakers Antwort an dargo zu meinen Überlegungen. In Igors "Vergleich" wäre eine 1060 selbst bei 75W immer schneller, liegt aber bei 120W trotzdem nur 10% im Mittel über alle Titel vorn. MMn verzerrt eine derart verkürzte Betrachtung zu sehr.

Was Polaris an sich angeht, ich fürchte auch, dass die Chips erst nach einem respin richtig glänzen könnten. Wenn sie Polaris nicht relativ schnell fallen lassen, da ja Vega anscheinend doch ein deutliches update zur Architektur darstellt.

Thunder99
2016-07-20, 11:21:28
Polaris können sie gar nicht fallen lassen. Er muss mindestens bis Navi durchhalten

Ailuros
2016-07-20, 11:31:13
Zum Effizienz Test von Igor :up: einfach mal den Text dazu lesen. Da steht alles drin warum wie und was ;). Es zeigt einfach, dass die Nvidia insgesamt einfach effizienter sind :wink:. Mit mehr Spielen wäre es zwar schön darzustellen, würde aber am Ergebnis und an der Aussage nichts ändern ;).

Ein P10 mit GDDR5X dürfte, wenn es implementiert ist, nur dann Sinn machen, wenn es einen Respin oder so gibt wo die Leistungsaufnahme deutlich gesenkt ist. Ansonsten bringt das leider nichts.

Ein P10 mit 1,6-1,7GHz (Hypothetisch) und GDDR5X könnte schon der 1070 gefährlich werden aber um welchen Preis in der Leistungsaufnahme? Und lässt sich außerdem der Chip so hoch takten? Außerhalb von extrem LN2 OC bisher ja nicht...

Es ist kein Geheimnis wie NV um so viel hoehere Frequenzen erreicht hat mit jeglichem Pascal.

1. Hat AMD weder die Zeit noch die resources so etwas ("padding" zwischen Transistoren...) nachtraeglich anzuwenden, weil man eben ganz einfach NICHT mit einem oder mehreren metal spin so weit kommen kann afaik.

2. Ein metal spin kann unter idealen Situationen maximal irgendwo um die 10% mehr Takt liefern ist aber nirgends garantiert, denn es kommt eher unter idealen Bedingungen vor.

3. Samsung's 14LPP wird im Hintergrund von diversen insiders als "faster but leakier" beschrieben (wobei ich das "faster" hier bei bestem Willen nicht verstehe). Unmoeglich ist es natuerlich nicht mit nur einem metal spin die boost Frequenz um bis zu 35% zu erhoehen, unter der Vorrausetzung dass es einem auch scheissegal ist wieviele blue screens man zaehlen will.

Gorkon
2016-07-20, 11:49:09
Ein P10 mit 1,6-1,7GHz (Hypothetisch) und GDDR5X könnte schon der 1070 gefährlich werden aber um welchen Preis in der Leistungsaufnahme? Und lässt sich außerdem der Chip so hoch takten? Außerhalb von extrem LN2 OC bisher ja nicht...
GP104 Salvage muss P10 gar nicht gefährlich werden, ganz andere Leistungs- und Preisklasse. Aber ich seh das trotzdem ähnlich wie du...

Kommende Customs könnten evtl. die 1,4GHz stabil und dauerhaft packen ohne das die Leistungsaufnahme explodiert oder die Effizienz massiv nach unten abrutscht. Das wäre ausgehend von den 1,15 GHz Durchschnitt bei PCGH, 1,18GHz bei CBase schon ein nettes Plus. Und das würde eigentlich gegen GP106, zumindest Stand jetzt, in Next-Gen API-Titeln reichen...

dargo
2016-07-20, 12:00:26
Wie wahrscheinlich ist es, dass AMD später (Herbst 2016) einen P10 mit ~1,35-1,4Ghz und 8GB GDDR5X als RX485 auflegt? Den höheren Stromverbrauch bei den Taktraten könnte man mehr oder weniger durch GDDR5X wieder auffangen. Eventuell passt das in 180-200W bei guter Custom-Kühlung. Ist der Speichercontroller von P10 GDDR5X fähig?

tm0975
2016-07-20, 12:36:09
ist denn dafür überhaupt gddr5x notwendig. ich denke, der aufwand bzw mehrpreis für den ram lohnt nicht.

dargo
2016-07-20, 12:45:54
P10 skaliert noch ganz gut mit mehr Speicherbandbreite. Und mehr als 8Gbps gibt es bei GDDR5 nicht. Der Vorteil von GDDR5X ist halt, dass hier locker 10Gbps reichen würden, ergo 1,25Ghz bei nur 1,2V. Ich kann aber jetzt schlecht abschätzen wieviel Watt man dadurch gegenüber 8Gbps GDDR5 @2Ghz und 1,5V einspart. Sind 10-15W realistisch? Die könnte man gut in mehr GPU-Takt investieren.

tm0975
2016-07-20, 12:59:33
der ram kostet aber einiges extra. wieviel wissen wir nicht, aber 50% bestimmt. die 16 nm wafer sollen auch ca 70% mehr kosten als die 28 nm wafer. auch wenn das jetzt nicht direkt was mit dem ram zu tun hat...

Dino-Fossil
2016-07-20, 13:01:39
Mal rein hypothetisch angenommen, dass Polaris bereits einen GDDR5X-kompatiblen Speichercontroller besitzt, könnte im Herbst/Winter durchaus so eine RX 485 möglich sein. Evtl. dann, inklusive eventueller Fortschritte bei der Fertigung, auch ohne Mehrverbrauch.

Allerdings weiß keiner von uns ob Polaris mit GDDR5X umgehen kann.
Für sonderlich wahrscheinlich halte ich es jedenfalls momentan nicht.

Der_Korken
2016-07-20, 13:02:09
P10 skaliert noch ganz gut mit mehr Speicherbandbreite. Und mehr als 8Gbps gibt es bei GDDR5 nicht. Der Vorteil von GDDR5X ist halt, dass hier locker 10Gbps reichen würden, ergo 1,25Ghz bei nur 1,2V. Ich kann aber jetzt schlecht abschätzen wieviel Watt man dadurch gegenüber 8Gbps GDDR5 @2Ghz und 1,5V einspart. Sind 10-15W realistisch? Die könnte man gut in mehr GPU-Takt investieren.

Ich weiß nicht, wie es bei Speicher ist, aber bei GPUs sagt man etwa: Verbrauch = Takt*(Spannung)^2

GDDR5X/GDDR5 = (10*1,2^2) / (8*1,5^2) = 0,8.

Ein VRAM-Chip verbraucht angeblich was um die 3,5-4W (wurde afaik hier im Thread mal genannt, aber bitte nicht drauf festnageln), d.h. von 32W spart man vielleicht 6,4W ein. Allerdings muss der Speichercontroller der GPU von 8 auf 10Ghz hochgetaktet werden und wenn ich mir angucke, wie krass die Spannungen des MC auf den Verbrauch hauen, könnte ich mir vorstellen, dass GDDR5X gar keinen Strom spart, sondern einfach nur etwas mehr Bandbreite bringt.

dargo
2016-07-20, 13:02:10
Es spricht nichts gegen eine RX485 für ~350€ mit ~15% mehr Leistung als RX480 die ihre 1266Mhz halten kann. Bis Vega dauert es noch etwas.


Ein VRAM-Chip verbraucht angeblich was um die 3,5-4W (wurde afaik hier im Thread mal genannt, aber bitte nicht drauf festnageln), d.h. von 32W spart man vielleicht 6,4W ein. Allerdings muss der Speichercontroller der GPU von 8 auf 10Ghz hochgetaktet werden und wenn ich mir angucke, wie krass die Spannungen des MC auf den Verbrauch hauen, könnte ich mir vorstellen, dass GDDR5X gar keinen Strom spart, sondern einfach nur etwas mehr Bandbreite bringt.
Schade... in dem Fall wird sich das kaum lohnen.

Dino-Fossil
2016-07-20, 13:06:44
Es spricht nicht gegen eine RX485 für ~350€ mit ~15% mehr Leistung als RX480 die ihre 1266Mhz halten kann. Bis Vega dauert es noch etwas.

Doch, der Preis!
350€ würde kaum jemand dafür bezahlen wollen, wenn man bereits in einigen Wochen RX 480 customs unter 300€ bekommt, die da in die Nähe rücken.
Von den 1060 customs ganz zu schweigen.

Agent117
2016-07-20, 13:11:19
Ich weiß nicht, wie es bei Speicher ist, aber bei GPUs sagt man etwa: Verbrauch = Takt*(Spannung)^2

GDDR5X/GDDR5 = (10*1,2^2) / (8*1,5^2) = 0,8.

Ein VRAM-Chip verbraucht angeblich was um die 3,5-4W (wurde afaik hier im Thread mal genannt, aber bitte nicht drauf festnageln), d.h. von 32W spart man vielleicht 6,4W ein. Allerdings muss der Speichercontroller der GPU von 8 auf 10Ghz hochgetaktet werden und wenn ich mir angucke, wie krass die Spannungen des MC auf den Verbrauch hauen, könnte ich mir vorstellen, dass GDDR5X gar keinen Strom spart, sondern einfach nur etwas mehr Bandbreite bringt.

Nein, das ist falsch und wurde hier schon oft richtig gesagt. Der Speichercontroller muss wegen Quad Data Rate bei GDR5X nur halb so hoch takten.
Er taktet jetzt bei Polaris @8GT/s GDR5 mit 4Ghz und würde mit 10GT/s GDR5X nur 2,5Ghz hoch takten. Man wird durch GDR5X wohl insgesammt maximal 20W einsparen können. Mehr würde mich doch sehr überraschen.

dargo
2016-07-20, 13:16:16
Doch, der Preis!
350€ würde kaum jemand dafür bezahlen wollen, wenn man bereits in einigen Wochen RX 480 customs unter 300€ bekommt, die da in die Nähe rücken.

+~15% auf Customs ist nicht in der Nähe. In manchen Fällen ist das schon die nächste Leistungsklasse. Wenn sich die aktuellen RX480 Customs bis Ende Herbst auf 250€ einpendeln dann könnte man eine RX485 immer noch für 300-320€ bringen.

Nein, das ist falsch und wurde hier schon oft richtig gesagt. Der Speichercontroller muss wegen Quad Data Rate bei GDR5X nur halb so hoch takten.
Er taktet jetzt bei Polaris @8GT/s GDR5 mit 4Ghz und würde mit 10GT/s GDR5X nur 2,5Ghz hoch takten. Man wird durch GDR5X wohl insgesammt maximal 20W einsparen können. Mehr würde mich doch sehr überraschen.
Ok... das ist wieder lohnenwert. :D

Der_Korken
2016-07-20, 13:37:24
Nein, das ist falsch und wurde hier schon oft richtig gesagt. Der Speichercontroller muss wegen Quad Data Rate bei GDR5X nur halb so hoch takten.
Er taktet jetzt bei Polaris @8GT/s GDR5 mit 4Ghz und würde mit 10GT/s GDR5X nur 2,5Ghz hoch takten. Man wird durch GDR5X wohl insgesammt maximal 20W einsparen können. Mehr würde mich doch sehr überraschen.

Danke für die Korrektur :). Das muss ich hier falsch aufgeschnappt haben.

ndrs
2016-07-20, 13:39:15
Nein, das ist falsch und wurde hier schon oft richtig gesagt. Der Speichercontroller muss wegen Quad Data Rate bei GDR5X nur halb so hoch takten.

Bei dem Thema sollte man immer genau aufpassen, welche Begriffe man verwendet. Ein Speichercontroller besteht im Allgeimeinen aus einem Logikteil, der die Daten in die Blöcke verpackt und weiterreicht usw. (Hier ist die Last abhängig von der Datenrate, steigt also mit GDDR5X an) und einem Interfaceteil, der die Treiber (oder PHYs) für die Pins zur Verbindung mit dem PCB beinhaltet. Dieser Teil skaliert mit der Taktrate der Signalleitungen. In dem Fall spart 5X also Energie ein.
Der Interfaceteil sollte vermutlich den Großteil der Energie des gesamten Speichercontrollers verbraten. Wie hoch der Anteil aber genau ist, kann wahrscheinlich nur jemand mit Sicherheit sagen, der sowas schonmal entworfen oder gebaut hat.

iuno
2016-07-20, 14:20:02
Man wird durch GDR5X wohl insgesammt maximal 20W einsparen können. Mehr würde mich doch sehr überraschen.
Bei hoeherer Leistung, wohlgemerkt.
Dann "umsonst" 1,3-1,35 GHz GPU Takt und man hat gleich ein viel runderes Produkt... Aber dafuer hat es leider nicht gereicht. Vielleicht in einem Refresh oder gar nicht mehr ;p

Käsetoast
2016-07-20, 23:55:26
Wie wahrscheinlich ist es, dass AMD später (Herbst 2016) einen P10 mit ~1,35-1,4Ghz und 8GB GDDR5X als RX485 auflegt?
Wenn das zur Debatte gestanden hätte, wäre Polaris in der jetztigen Form noch gar nicht erschienen. Ich kann mir sowas eher für Herbst 2017 vorstellen - bis dahin ist der 14nm Prozess hoffentlich was gereift, weswegen man je nachdem auch die Spannungen was senken kann bzw. sollte an der 40 CU Theorie ein Funke Wahrheit dran sein wäre das denke ich eine sinnvolle Sache einen 40 CU Polaris mit niedrigeren Spannungen und GDDR5X Speicher im Herbst 2017 als RX485 zu bringen...

Gorkon
2016-07-20, 23:58:53
Wenn das zur Debatte gestanden hätte, wäre Polaris in der jetztigen Form noch gar nicht erschienen. Ich kann mir sowas eher für Herbst 2017 vorstellen - bis dahin ist der 14nm Prozess hoffentlich was gereift, weswegen man je nachdem auch die Spannungen was senken kann bzw. sollte an der 40 CU Theorie ein Funke Wahrheit dran sein wäre das denke ich eine sinnvolle Sache einen 40 CU Polaris mit niedrigeren Spannungen und GDDR5X Speicher im Herbst 2017 als RX485 zu bringen...
3 Seiten vorher hier:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11106336&postcount=9931
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11106345&postcount=9934

TLDR: Es gibt keine 40CUs...36 CUs ist definitiv der Vollausbau.

OBrian
2016-07-21, 07:55:19
Wie wahrscheinlich ist es, dass AMD später (Herbst 2016) einen P10 mit ~1,35-1,4Ghz und 8GB GDDR5X als RX485 auflegt?ich halte das für sehr wahrscheinlich, aber nicht so bald, eher nächstes Jahr als Refresh, für die 500er-Serie.

Ein paar Prozent können sicherlich noch Customdesigns rausholen mit geschickterem PCB, weniger Spannung und dafür mehr Takt. Könnte für einen Gleichstand mit der 1060 reichen, vor allem wenn deren Customdesigns qualitativ eher unterhalb der Referenz ansetzen. Ich denke, damit sind beide dann erstmal für die nächsten 12 Monate zufrieden.

HOT
2016-07-21, 08:24:20
Es wird wohl eher eine RX 570 mit GDDR5X geben.

Tarkin
2016-07-21, 09:06:44
Sapphire RX 480 Nitro+ Benchmarks Leak! (https://forums.overclockers.co.uk/showpost.php?p=29808803&postcount=794)

:eek: das wäre dann ca. Fury Pro Niveau! (bei OC auf 1.420Mhz)

soLofox
2016-07-21, 09:09:37
Dafuq.

Das Wort Nitro bekommt eine völlig neue Bedeutung :D

dargo
2016-07-21, 09:21:04
Sapphire RX 480 Nitro+ Benchmarks Leak! (https://forums.overclockers.co.uk/showpost.php?p=29808803&postcount=794)

:eek: das wäre dann ca. Fury Pro Niveau! (bei OC auf 1.420Mhz)
Sehr schön. (y)