Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Timbaloo
2017-08-01, 20:06:02
Das sieht ja noch besser für Vega aus als ich zuerst dachte. Besonders Forza 3 gefällt mir hier, denn das möchte ich dann weiter im Herbst/Winter spielen. Hier wird sogar Vega 56 die GTX1080 erreichen wenn die Benchmarks tatsächlich stimmen. =)
Also die geschönten Folien mit CoD waren ja noch deutlich positiver pro Vega, wie kann dir das dann noch besser gefallen? :freak:
dargo
2017-08-01, 20:07:44
Indem ich mir Spiele anschaue die mich auch interessieren. Da fällt mir gerade ein... Deus Ex: Mankind Divided liegt hier auch noch ungespielt rum.
StefanV
2017-08-01, 20:10:22
Wann kapiert ihr Leute endlich, dass diese bescheuerte Schadenfreude sowas von dämlich ist... Man überlege sich mal den fiktiven Fall, AMD hört nach dem "Vega fail" einfach mal auf GPUs zu entwickeln, was meinst du passiert dann? Dann ist "warten" dein geringstes Problem.
Richtig, weil dann darf man für den 1060 Nachfolger 500€ auf den Tisch packen und wir treten, wie im CPU Bereich, so lange auf der Stelle, bis irgendwann ein neues Unternehmen neue GPUs vorstellt, ein gewisser Wettbewerb stattfindet und man dann wieder Karten im GTX1060 Bereich wieder für die Hälfte kaufen kann.
Früher hat man für sowas auch unter 150€ gezahlt, heute darf man schon +100€ zahlen...
Schnoesel
2017-08-01, 20:17:35
So noch der Vergleich mit FuryX
https://s4.postimg.org/oaxe0xd2l/image.jpg
https://s4.postimg.org/ug3my3g8d/image.jpg
Locuza
2017-08-01, 20:29:09
So noch der Vergleich mit FuryX
[...]
Die Werte sind bei Doom in 2160p nicht vertauscht?
dildo4u
2017-08-01, 20:31:58
Doom reduziert Details auf 4GB Karten,deshalb erzwingt PCGH Nightmare Settings bei ihren Benches.
http://abload.de/img/1070h5rz2c.png
So noch der Vergleich mit FuryX
https://s4.postimg.org/oaxe0xd2l/image.jpg
https://s4.postimg.org/ug3my3g8d/image.jpg
Das ist einfach nicht gut/befriedigend für die stark überarbeitete Archi und den höheren Takt, der allein für die Steigerung verantwortlich zu sein scheint - wie haben die das geschafft?
Das ist die große Frage!
MfG
Raff
Linmoum
2017-08-01, 20:44:31
Das ist einfach nicht gut/befriedigend für die stark überarbeitete Archi und den höheren Takt, der allein für die Steigerung verantwortlich zu sein scheint - wie haben die das geschafft?
Erklärt jedenfalls, warum scheinbar so viel für den höheren Takt draufgegangen ist. Das wäre sonst noch desaströser geworden, wenn man nur Polaris-Taktraten geschafft hätte.
grauenvoll
2017-08-01, 20:48:34
Vega11 als Polaris-Ersatz? Sicher zu teuer.
Mit 36 CUs könnte der so 300mm² gross sein?
Dazu die zwei HBM2 Stapel. Ob sich das für AMD lohnt?
Da HBM2 nicht die erwaretete Performance bringt, kann ich mir schon vorstellen, dass AMD dem Hersteller preisliche Zugeständnisse abringt. Alles andere wäre dumm. Macht die Sache etwas lohnender.
BlacKi
2017-08-01, 21:04:12
Und manche davon denken sogar über Skylake-X nach. Beschweren sich aber bei VEGA über den Stromverbrauch.
Irgendwas passt da nicht so ganz, oder? ;)
Und genau das ist es, was mich so sehr stört...
sind das auch immer dieselben? ausserdem legitimiert ein spitzenplatz auch immer ein wenig den verbrauch. wenn vega wenigstens schneller wäre, dann wäre der verbrauch für einige leute (nicht für alle) zu akzeptieren. wenigstens das hat die gtx 480 damals geschafft, und trotzdem ist der ruf schlecht. wie soll es denn da vega besser ergehen.
So noch der Vergleich mit FuryX
https://s4.postimg.org/oaxe0xd2l/image.jpg
https://s4.postimg.org/ug3my3g8d/image.jpg
danke für die balken:wink:
wenn die eigene neue karte gegen die eigene alte laufen muss, sind die werte auch zu etwas zu gebrauchen. die eigene HW lässt man ungern schlecht laufen.
Da HBM2 nicht die erwaretete Performance bringt
Wo? Nur weil man ein paar MHz unter der Maximalspezifikation liegt? Kann ich mir nicht vorstellen dass es da große Abschläge gibt, die den Speicher plötzlich für billigkarten attraktiv machen soll. Gerade auch weil AMD ums Verrecken V10 mit nur 2 stacks bringen musste sehe ich keine kleinere Karte mit ebenfalls 2.
grauenvoll
2017-08-01, 21:22:00
Wo? Nur weil man ein paar MHz unter der Maximalspezifikation liegt? Kann ich mir nicht vorstellen dass es da große Abschläge gibt, die den Speicher plötzlich für billigkarten attraktiv machen soll.
Wir kennen die vertraglichen Details nicht. Scheinbar hat man aber mit höheren Taktraten kalkuliert. Findige Juristen werden da schon das notwendige Drama hineinbringen...
Brillus
2017-08-01, 21:24:29
Erklärt jedenfalls, warum scheinbar so viel für den höheren Takt draufgegangen ist. Das wäre sonst noch desaströser geworden, wenn man nur Polaris-Taktraten geschafft hätte.
Naja dann hätte man sich die entsprechenden Transitoren für hochtakt Design sparen können. Was dann wieder 1024-2048 mehr Shadereinheiten wären. (Die meisten von 3,6Mrd von insgesamt 12,5Mrd Transitoren gingen für Takterhöhung drauf.)
Grendizer
2017-08-01, 21:31:02
Wir kennen die vertraglichen Details nicht. Scheinbar hat man aber mit höheren Taktraten kalkuliert. Findige Juristen werden da schon das notwendige Drama hineinbringen...
AMD wird, ähnlich wie bei DSL Verträgen üblich die Wörter "bis zu" falsch interpretiert haben:biggrin:
dargo
2017-08-01, 21:32:58
Naja dann hätte man sich die entsprechenden Transitoren für hochtakt Design sparen können. Was dann wieder 1024-2048 mehr Shadereinheiten wären. (Die meisten von 3,6Mrd von insgesamt 12,5Mrd Transitoren gingen für Takterhöhung drauf.)
Und dann hätten wir wieder Fiji reloaded. Bravo. Der Vorteil von höherem Takt ist einfach, dass alles mitskaliert.
grauenvoll
2017-08-01, 21:49:24
Die Radeon Pro SSG wird sicher Kunden finden, selbst wenn sie doppelt so teuer wäre:
http://www.tomshardware.com/news/amd-vega-workstations-wx9100-pro-ssg,35128.html
fondness
2017-08-01, 21:58:43
So noch der Vergleich mit FuryX
https://s4.postimg.org/oaxe0xd2l/image.jpg
https://s4.postimg.org/ug3my3g8d/image.jpg
Das Ding hat nicht mal die Pro-Mhz-Leistung einer Fury X, die damals schon schlecht skaliert ist im Vergleich zu Hawaii/Grenada. Irgendwas ist da wohl ganz ordentlich in die Hose gegangen. Erfahren wird man sowas wenn überhaupt aber immer erst Jahre später.
AffenJack
2017-08-01, 21:59:59
Mit dem kleinen aber feinen Unterschied das AMD den Quellcode von TressFX vollständig zum Download anbietet, und jeder Spieleentwickler sich das anschauen und modifizieren kann, wie er möchte. Auch glaube ich lief TressFX auch sehr gut auf Nvidia.
Krasser Gegensatz zu Hairworks.
Ganz am Anfang lief TressFX auch völlig beschissen auf Nvidia und musste erstmal ordentlich gefixt werden. Bei Hairworks kann sich mittlerweile auch jeder Dev den Sourcecode anschauen, nur wie es mit dem verändern steht weiß ich nicht. Aber wieviel Benachteiligung da im Code steckt oder ob es einfach nur das Ausnutzen der Tesselationschwäche des anderen war, haben wir nie erfahren.
DrFreaK666
2017-08-01, 22:00:12
Naja, was Gutes hat die Vega ja. Da es unsinnig wäre von meiner 980TI umzusteigen, spare ich Geld und warte und hoffe weiter.
Irgendwann wird AMD im Grafikkartenbereich wieder interessant für mich
Kriton
2017-08-01, 22:00:54
Wenn der Monitor mit Freesync immer noch so bescheiden funktioniert wie zu Beginn ist es kein Fauxpas sondern ein Win für jeden der sich das nicht antun muss.
Das scheint gelöst zu sein:
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-165#post-1993993
Das sind die min. FPS in den Spielen.
Eigentlich sind es die 99-Perzentile, der Unterschied ist ja nicht unerheblich. Gerade wo wir noch keine Durchschnittswerte haben.
Ganz am Anfang lief TressFX auch völlig beschissen auf Nvidia und musste erstmal ordentlich gefixt werden. Bei Hairworks kann sich mittlerweile auch jeder Dev den Sourcecode anschauen, nur wie es mit dem verändern steht weiß ich nicht. Aber wieviel Benachteiligung da im Code steckt oder ob es einfach nur das Ausnutzen der Tesselationschwäche des anderen war, haben wir nie erfahren.
Aber dennoch war/ist TressFX für jeden Dev frei anpassbar (und damit auch für Nvidia optimierbar). Abgesehen davon, dass das Einsehen des source codes auch eine andere Qualität als dessen Veränderbarkeit ist: Gameworks ist nicht komplett einsehbar, oder?
Felixxz2
2017-08-01, 22:05:20
Das ist einfach nicht gut/befriedigend für die stark überarbeitete Archi und den höheren Takt, der allein für die Steigerung verantwortlich zu sein scheint - wie haben die das geschafft?
Es ist nicht nur nicht befriedigend, sondern regelrecht desaströs!
Was eben die Frage aufwirft, ob da nicht doch unfertige Software dran schuld ist. So viel Entwicklung zu investieren, um am Ende nur die Taktsteigerung mitzunehmen ist wirklich traurig.
So oder so sind sicher 10-20% durch Treiber drin (war ja immer so bei neuen Archs, vor allem bei AMD), die Frage ist halt nur wann die kommen und ob das angesichts des Stromverbrauchs reicht.
AffenJack
2017-08-01, 22:36:41
Aber dennoch war/ist TressFX für jeden Dev frei anpassbar (und damit auch für Nvidia optimierbar). Abgesehen davon, dass das Einsehen des source codes auch eine andere Qualität als dessen Veränderbarkeit ist: Gameworks ist nicht komplett einsehbar, oder?
Das stimmt, wobei ich mich da halt frage ob die theorethische Möglichkeit bei sowas auch durchgeführt wird das dann zb auf Nv anzupassen.
Die neuesten Bibliotheken sind noch nicht einsehbar, der ganze Voxel und Conservative Rasterization Kram. Dieser läuft gerade aber eh nur über NvAPI und daher ist es da egal. Aber Hairworks, PhysX usw und der Großteil der anderen Sachen kannst du auf Github ansehen, insofern du dich bei Nv als Dev registrierst. Aber da das jeder kann seh ich das nicht mehr als Hindernis an. Daher ja, auch AMD kann sich einfach den Code ansehen und darauf optimieren.
Aber ist auch egal, da hier nicht das Topic.
Bei der Energieeffizienz von Vega habe ich mich gefragt ob der Vorsprung von Nv nicht irgendwie von Lowlevel Optimierungen beim Design der Einheiten oder so kommen kann? Kann man da vielleicht ne Menge rausholen und AMD hat da einfach nicht die Ressourcen für gehabt, weil sie fertige Libraries usw benutzen?
Polaris ist nicht per se ineffizienter als Pascal sondern kam einfach zu spät und wurde außerhalb des sweetspots betrieben [...]
Vega hat da jetzt wahrscheinlich das gleiche Problem.
Dann schau mal wie gross die jeweiligen Chips sind. Natuerlich kannst du den Verbrauch druecken, das trifft aber auf Nvidias Chips genauso zu. Effizienz betrifft nicht nur den Stromverbrauch, AMD muss aktuell einfach deutlich mehr von irgendwie allem aufwenden, damit dieselbe Leistung hinten raus kommt.
Wäre die 480 vor 2 Jahren gegen 970 positioniert wurden und Vega vor einem Jahr gegen 1070, sähe das ganze anders aus. So ist Vega natürlich ein ziemlicher fail.
Nein, wiel die eigentliche Problematik identisch bliebe.
Digidi
2017-08-02, 00:07:31
Mal eine Frage zu Vegas Primitive Shader, wie mächtig ist dieses Tool? Hat die Konkurrenz was vergleichbares? Und wie schwer/leicht lässt sich das Einfügen?
N0Thing
2017-08-02, 01:14:29
Laut Gamernexus werde AMD den Crossfire-Support zurückfahren und auch keine großartige Unterstützung für Vulkan und DX12 liefern (kein Zugriff auf GN, daher nur Zweitquelle): https://www.techpowerup.com/235699/amd-giving-up-on-crossfire-with-rx-vega
Hast du die Quellen nicht gelesen, oder verdrehst du absichtlich den Inhalt? Sowohl Gamernexus als auch techpowerup sprechen davon, daß AMD nach Nvidia nun ebenfalls den Support für mGPU reduziert, was mGPU unter DX12 mit einschließt.
Außerdem wird auf beiden Seiten mit keinem Wort erwähnt, daß AMD keine großartige Unterstützung für Vulkan oder DX12 liefern würde. Gibt es irgendeine Grundlage für deine Behauptungen?
Folgt man P10->P20 ist es ein Respin der höher takten kann.
Es kann kein Respin sein, wenn erst P20 DP 1:2 bieten wird.
Daredevil
2017-08-02, 03:26:08
Wenn AMD Vega uns tatsächlich deutlich bessere MinFPS liefert als eine 1080 und sich bewusst nicht die MaxFPS Krone holen möchte, ist das für mich absolut okay.
Das ist ein anderer Ansatz, wie man an das Thema Spielgefühl ran geht und wenn sie das mit Freesync noch kombinieren wollen, wunderbare Sache.
Aber dann müssen sie jetzt auch abliefern, wenn sie nach dem gescheiterten "poor Volta" auf ein anderes Alleinstellungsmerkmal zeigen.
StefanV
2017-08-02, 03:31:19
Wenn AMD Vega uns tatsächlich deutlich bessere MinFPS liefert als eine 1080 und sich bewusst nicht die MaxFPS Krone holen möchte, ist das für mich absolut okay.
Das ist ein anderer Ansatz, wie man an das Thema Spielgefühl ran geht und wenn sie das mit Freesync noch kombinieren wollen, wunderbare Sache.
Aber dann müssen sie jetzt auch abliefern, wenn sie nach dem gescheiterten "poor Volta" auf ein anderes Alleinstellungsmerkmal zeigen.
Die Frage ist doch auch, warum die eine Karte so hohe FPS erreicht, die andere aber deutlich besser bei den min fps ist.
Ist es der Hardware geschuldet??
Liegt es an der Software??
Und ist es eventuell gar tatsächlich so, dass die Hardware bei dem einen deutlich besser ist, der andere das ganze aber durch starke (und teure) Optimierungen der Software ausgleichen kann...
Und eben aufgrund dieser Optimierungen mit einer Mid Range Karte bei den anderen mit einer High End Karte mithalten kann, eben weil die Software so stark optimiert ist, dass alles raus geholt wird.
Interessant wird daher wohl id's neues Wolfenstein, wie es da ausschaut...
Ist halt echt blöd, dass die Software (=Treiber) so wichtig geworden sind, bei den GPUs...
Daredevil
2017-08-02, 03:57:53
Software und Lobbyarbeit ist halt auch wichtig neben der Hardware selber.
Sieht man ja an Microsoft und ihrer Smartphone Sparte. :D
Ahhh ich bin gespannt auf Vega!
Ich hab mir früher auch ne 2900xt gekauft, weil ich ein fucking breites Biest im Rechner haben wollte. :D ( Ging dann aber doch zurück.. )
Würde es diese Ausreißer nach oben hin nicht geben, würde ich die Karte ebenfalls in die Flopschublade legen, aber ne neue Architektur muss halt eben auch reifen, vielleicht tut sie das ja noch.
Wenn sie in manchen Benches eine 1080 komplett wegpustet, muss ja doch irgendwo noch Leistung begraben sein. Da sind ja auch ne Menge Transistoren mehr verbaut.
Wenn AMD Vega uns tatsächlich deutlich bessere MinFPS liefert als eine 1080 und sich bewusst nicht die MaxFPS Krone holen möchte, ist das für mich absolut okay.
Das ist ein anderer Ansatz, wie man an das Thema Spielgefühl ran geht und wenn sie das mit Freesync noch kombinieren wollen, wunderbare Sache.
gute Frametimes > Max FPS
Das wäre tatsächlich ein sehr gutes Argument für die RX Vega. Jeder Spieler weiß, dass gute Frametimes wesentlich wichtiger sind als Max FPS und für ein wirklich gutes Spielerlebnis ausschlaggebend sind. Wenn die Frametimes der RX Vega bei gleichen Einstellungen wesentlich besser sind als bei der GTX 1080 (oder gar der GTX 1080 Ti, wie von HardOCP angedeutet (https://www.youtube.com/watch?v=2CE-wSU1KMw)), dann schlage ich auch zu.
Grendizer
2017-08-02, 08:13:32
Was sagt ihr eigentlich dazu, das die ganzen Benchmarks auf Intel Systemen (z.B. I7-7700K@4,2 Ghz) gelaufen sind ?
StefanV
2017-08-02, 08:15:11
Gibt schlimmeres.
AMD wäre ziemlich blöd, wenn sie nicht (auch) auf Intel Systeme optimieren würde...
Insbesondere ältere Sandy und Ivy Bridge aber auch Haswell. Die dürften am meisten verbreitet sein zum jetzigen Zeitpunkt.
dargo
2017-08-02, 08:15:41
Was sagt ihr eigentlich dazu, das die ganzen Benchmarks auf Intel Systemen (z.B. I7-7700K@4,2 Ghz) gelaufen sind ?
Spannend. :D
Man stelle sich vor AMD würde Vega vor dem letzten RotTR DX12 Spielpatch bringen und die Testsysteme mit Ryzen ausstatten. Der Shitstorm wäre wieder riesig.
Vega wird von den neuesten Linuxkernels schon unterstützt, oder? Könnte mir auch die Limited Edition vorstellen.;)
Timbaloo
2017-08-02, 08:50:42
Wenn AMD Vega uns tatsächlich deutlich bessere MinFPS liefert als eine 1080 und sich bewusst nicht die MaxFPS Krone holen möchte, ist das für mich absolut okay.
Warum sollte Vega deutlich bessere Min-FPS gegenüberder 1080 liefern? Aufgrund der geschönten Folien die schon seziert wurden? ;D
Brillus
2017-08-02, 09:24:50
Vega wird von den neuesten Linuxkernels schon unterstützt, oder? Könnte mir auch die Limited Edition vorstellen.;)
Vom offiziellen nur ohne Grafikausgabe. Musst auf DC upstream warten oder AMD's branch verwenden.
Dino-Fossil
2017-08-02, 09:46:59
Vega wird von den neuesten Linuxkernels schon unterstützt, oder? Könnte mir auch die Limited Edition vorstellen.;)
Soweit ich weiß, dauert der volle Vega-Support unter Linux noch ein paar Monate.
Ist noch work-in-progress, aber korrigiert mich, sollte ich mich irren.
X-Bow
2017-08-02, 11:22:32
Sagt mal, irre ich mich oder gab es nicht extra mal noch ein Folie von AMD wo explizit auf die "hervorragende" CF-Skalierung von Vega eingegangen wurde? Find die nämlich nicht mehr und empfinde dies eben komisch das es extra beworben wurde aber jetzt man sich von CF-Unterstützung distanziert.
Weiß zufällig jemand aus welchem Vortrag die war?
Timbaloo
2017-08-02, 11:25:19
BTT
Sagt mal, irre ich mich oder gab es nicht extra mal noch ein Folie von AMD wo explizit auf die "hervorragende" CF-Skalierung von Vega eingegangen wurde? Find die nämlich nicht mehr und empfinde dies eben komisch das es extra beworben wurde aber jetzt man sich von CF-Unterstützung distanziert.
Weiß zufällig jemand aus welchem Vortrag die war?
Kann es sein, dass das Folien bezüglich VR waren?
X-Bow
2017-08-02, 11:27:27
Kann es sein, dass das Folien bezüglich VR waren?
Keine Ahnung, aber deswegen wollte ich mir die Folie auch nochmal anschauen im Bezug auf die gestrige Nachricht.
unl34shed
2017-08-02, 11:32:36
CES Anfang des Jahres? Meine mich auch an etwas Erin er zu können.
Cubitus
2017-08-02, 11:33:38
Spekulation:
Gegen die 1080 GTX bei mehr TDP, weniger bzw. identische Leistung und fast gleichem Preis. Wer tut sich sowas freiwillig an :confused:
Complicated
2017-08-02, 11:34:45
Das wurde hier im Thread schon mehrfach beantwortet: Jemand der 300,- € weniger für seinen Freesync Monitor bezahlen möchte.
Cubitus
2017-08-02, 11:36:26
Das wurde hier im Thread schon mehrfach beantwortet: Jemand der 300,- € weniger für seinen Freesync Monitor bezahlen möchte.
Okay wers braucht :D
Fragman
2017-08-02, 11:37:35
Okay wers braucht :D
ich glaub auch, das das ganze monitor thema komplett ueberschaetzt wird in der breite der user. hier im forum, klar, grosses thema, aber ausserhalb?
Dino-Fossil
2017-08-02, 11:39:37
Weiß jemand, wo AMDs Aussage zu finden ist, dass man die Auswirkungen von binning rasterizer und HBC noch nicht ganz abschätzen kann?
deekey777
2017-08-02, 11:47:18
Es wird wohl extrem auf die Reviewer ankommen, wie sie die gemessenen FPS dem Leser verkaufen. Für mich sieht es so aus, als würde AMD versuchen auf flache FPS-Kurven zu setzen und nicht auf Max-FPS (diese scheinen die Geforces zu bringen).
PS:
Bis auf die Folien von März und paar Fußnoten ist AMD sehr schweigsam zu VCE und UVD.
pilzsammler2002
2017-08-02, 11:48:32
ich glaub auch, das das ganze monitor thema komplett ueberschaetzt wird in der breite der user. hier im forum, klar, grosses thema, aber ausserhalb?
Also allen bekannten die schon nen Freesync haben (selbst wenn unbewusst gekauft) habe ich ne AMD karte empfohlen... Sogar wenn sie ne vergleichbare Nvidia vorher hatten waren sie davon überzeugt... (1050ti gehabt und dann auf 560 gewechselt als bsp.)
Das waren teilweise fertig rechner... Und 100 Euro (bzw +/-0€ da man die ti ja gut verkaufen kann) für besseres spielen ist günstigster als 250+++ für nen Gsync...
Gerade im "unteren" Bereich ein nicht zu verachtender Vorteil... ;D
grauenvoll
2017-08-02, 11:51:34
Sagt mal, irre ich mich oder gab es nicht extra mal noch ein Folie von AMD wo explizit auf die "hervorragende" CF-Skalierung von Vega eingegangen wurde? Find die nämlich nicht mehr und empfinde dies eben komisch das es extra beworben wurde aber jetzt man sich von CF-Unterstützung distanziert.
Ich rätsel auch noch. Die Aussage, dass man sich von der Idee der Multi-GPU-Lösungen distanziert finde ich auch etwas merkwürdig. AMD hat in den letzten Monaten da einiges investiert, viel getrommelt und auch in Zusammenarbeit mit Entwicklern einige ordentliche Ergebnisse gezeigt. Wenn man sich nun davon wieder distanziert... Vertrauen baut man so nicht auf...
Mal sehen ob sich das Gerücht erhärtet.
Hübie
2017-08-02, 11:54:06
@Dino-Fossil: Im Mittel spart man 14% Bandbreite, aber es wird sich so nicht 1:1 auf die Performance auswirken.
https://abload.de/img/dsbr-savingseozcm.png (http://abload.de/image.php?img=dsbr-savingseozcm.png)
Quelle (https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-43.jpg)
Es ist auch nicht immer von Vorteil. Dennoch fällt der Sprung kleiner als gedacht aus.
Dino-Fossil
2017-08-02, 11:54:31
Es wird wohl extrem auf die Reviewer ankommen, wie sie die gemessenen FPS dem Leser verkaufen. Für mich sieht es so aus, als würde AMD versuchen auf flache FPS-Kurven zu setzen und nicht auf Max-FPS (diese scheinen die Geforces zu bringen).
Wenn Vega das am Ende leistet (und da bleiben die unabhängigen Tests abzuwarten), wäre das immerhin ein wichtiges Argument pro-Vega.
Ob das allerdings zu überzeugen vermag, auch im Hinblick auf die diversen Probleme, hängt wohl stark von den individuellen Anforderungen ab.
Zumal "geringere Frametime-Schwankungen trotz niedrigeren fps" schwieriger zu verkaufen ist als ein simples Karte ist "schneller".
Bis auf die Folien von März und paar Fußnoten ist AMD sehr schweigsam zu VCE und UVD.
Evtl. keine wesentlichen Änderungen ggü. Polaris, bzw noch keine Treiberunterstützung dafür?
Troyan
2017-08-02, 12:00:52
Laut Guru3D bringt Mixed-Precision im Serra-Benchmark von Futuremark rund 14% mehr Leistung: http://www.guru3d.com/news-story/rapid-packed-math-fp16-to-be-used-in-fm-serrawolfenstein-2-and-far-cry-5.html
Dino-Fossil
2017-08-02, 12:03:51
@Dino-Fossil: Im Mittel spart man 14% Bandbreite, aber es wird sich so nicht 1:1 auf die Performance auswirken.
Dazu, wie sich "bytes per frame" in Performance übertragen, bin ich jedenfalls mal gespannt.
Insofern man den DSBR nicht manuell (de-)aktivieren kann, könnte man vielleicht in erster Näherung Vega taktnormiert mit Fiji vergleichen.
grauenvoll
2017-08-02, 12:04:55
Wenn Vega das am Ende leistet (und da bleiben die unabhängigen Tests abzuwarten), wäre das immerhin ein wichtiges Argument pro-Vega.
Das Argument ist aus der Not geboren. Gemessen wird man an max fps, auch wenn es unsinnig ist. AMD hätte da wahrscheinlich auch gerne mehr abgeliefert, besonders wenn man die hohe Leistungsaufnahme berücksichtigt.
Wenn man in verschiedenen Foren liest, zollt man AMD für die Architekturänderungen durchaus Respekt. Allerdings kaufen wollen sie nur wenige. Die meisten plädieren für abwarten. Vega ist ein Weg, aber noch nicht die Lösung.
dildo4u
2017-08-02, 12:09:24
Wenn die kleine Karte deutlich effizienter ist als die große steht AMD gut da,man gucke einfach mal bei Steam,die 1080 spielt kaum eine Rolle der Verkaufschlager ist die 1070.
http://store.steampowered.com/hwsurvey/videocard/
dargo
2017-08-02, 12:14:45
Das Argument ist aus der Not geboren. Gemessen wird man an max fps, auch wenn es unsinnig ist.
Was ein Bullshit wieder. Gemessen wird in avgs. Immer mehr Reviewer liefern auch 1% low. Bis der uninformierte Spieler begreift, dass letzteres deutlich wichtiger ist dauert es noch ein wenig. Wobei ich immer noch meine Zweifel habe ob den 08/15 Spieler überhaupt irgendwelcher Framecounter interessiert.
Menace
2017-08-02, 12:23:35
Haben jetzt eigentlich schon manche Redaktionen (Raff, y33h@, Igor, Blaire, ...?) eine Vega RX? Edit: Normalerweise wird doch sonst schon geteasert.
Dino-Fossil
2017-08-02, 12:24:20
Vega ist ein Weg, aber noch nicht die Lösung.
Vega ist nach bisherigem Stand vor allem 'ne öffentliche Beta.
Und sicherlich hatten die nicht geplant, sich leistungsmäßig gerade so mit einem Chip anzulegen, der nur gute 60% der Chipfläche hat und dabei deutlich sparsamer arbeitet (immerhin ausgehend von der angekündigten TBP 100-150W weniger).
Ich bin jedenfalls mal gespannt, ob die Reviews ein wenig aufklären können, ob Vega im wesentlichen ein Software-Problem hat, oder ob es noch ein grundlegendes Problem auf der Hardwareseite gibt.
Complicated
2017-08-02, 12:42:18
...die dann auch nicht die Qualität und / oder das Featureset erreichen. :redface: Und wenn ich dann so im Freesync-Thread lese, was es alles für Probleme gibt. Ne, ne das Argument ist imo nicht so gut.
Die Probleme sind nicht auf Freesync zurück zu führen sondern auf die jeweiligen Hersteller des jeweiligen Monitors. Auch ohne X-Sync gibt es da genug Unterschied um den einen Hersteller wegen besserer Qualität zu bevorzugen. Daran ändert auch der Aufpreis für GSync nichts. Daher ist das Argument sehr wohl valide bei 200 verschiedenen Modellen mit unterschiedlichen Eigenschaften und Problemen. Man sollte sich halt keinen Samsung oder Asus Monitor kaufen.
Agent117
2017-08-02, 12:47:08
Wenn die kleine Karte deutlich effizienter ist als die große steht AMD gut da,man gucke einfach mal bei Steam,die 1080 spielt kaum eine Rolle der Verkaufschlager ist die 1070.
http://store.steampowered.com/hwsurvey/videocard/
Auch die kleinere leidet aber unter dem Stromfresser Image der großen.
Wenn man da wirklich nur bei GTX 1070 Leistung rauskommt wäre der Effizienznachteil nach wie vor sehr groß (210W vs 150W), wobei 210W zumindest noch in einem mit Luft halbwegs kühlbaren Bereich liegen. Ich kann für AMD nur hoffen, dass man mit Vega56 zeitnah durch Treiberupdates die Performance der 1080 erreicht. Das wäre dann ein ganz guter Deal für 400€ und angesichts der sehr wahrscheinlich besseren Langlebigkeit von Vega auch rational der 1080 vorzuziehen, falls Nvidia preislich mitgeht.
y33H@
2017-08-02, 12:48:18
Edit: Haben jetzt eigentlich schon manche Redaktionen (Raff, y33h@, Igor, Blaire, ...?) eine Vega RX? Edit: Normalerweise wird doch sonst schon geteasert.Bisher nicht, erst mal TR.
Bisher nicht, erst mal TR.
Threadripper. So viel Zeit muss sein. :) Die Veganer dürften aber nicht mehr lange auf sich warten lassen (und wenn das Warten zuende ist, gibt's erst mal ein Embargo).
MfG,
Raff
grauenvoll
2017-08-02, 12:57:06
Ich bin jedenfalls mal gespannt, ob die Reviews ein wenig aufklären können, ob Vega im wesentlichen ein Software-Problem hat, oder ob es schon ein grundlegendes Problem auf der Hardwareseite gibt.
Ich kann mir schon vorstellen, dass in der Hardware der ein oder andere Bug vorhanden ist und man versucht das Problem softwareseitig zu umlaufen. Man deshalb nur zäh Fortschritte macht. Ist aber nur spekulativ.
fondness
2017-08-02, 12:57:14
Da es nicht so aussieht, als ob Vega besser skaliert wie Fiji (eher das Gegenteil), gehe ich auch davon aus, dass Vega56 deutlich interessanter wird. Vermutlich kaum langsamer und doch deutlich stromsparender.
Menace
2017-08-02, 12:57:16
Bisher nicht, erst mal TR.
Auch etwas nettes (vielleicht sogar netter). Danke für die Info. @Raff: Auch danke.
BoMbY
2017-08-02, 12:57:50
Bisher nicht, erst mal TR.
Könntest Du AMD mal fragen ob die irgendwas mit einem PCIe auf Infinity Fabric Upgrade planen, wenn Vega und TR, Vega und Epyc, oder Vega und Ryzen gemeinsam genutzt werden? CCIX soll ja zum Beispiel voll PCIe-Kompatibel sein (https://www.ccixconsortium.com/single-post/2017/06/28/Welcome-to-the-new-CCIX-Blog), und würde deutlich höhere Geschwindigkeit bieten.
Taigatrommel
2017-08-02, 13:08:36
Sagt mal, irre ich mich oder gab es nicht extra mal noch ein Folie von AMD wo explizit auf die "hervorragende" CF-Skalierung von Vega eingegangen wurde? Find die nämlich nicht mehr und empfinde dies eben komisch das es extra beworben wurde aber jetzt man sich von CF-Unterstützung distanziert.
Weiß zufällig jemand aus welchem Vortrag die war?
Mit der Folie kann ich nicht dienen, allerdings bin ich bzgl. der Crossfire Aussagen ein wenig skeptisch. Soweit ich weiß, bietet ja DX12 von Haus direkte Unterstützung für Multi-GPU Systeme. Gerade in Zeiten wo 4k irgendwo auch mit hohen Details bzw. dann irgendwann mit höheren Bildraten gewünscht wird, ist SLI bzw. eben Crossfire eben interessant. Beim AMA meinte Raja zu dem Thema folgendes:
RK: With new explicit APIs such as DirectX 12 and Vulkan, developers have full control over multi-GPU behavior. What I saw from developers such as Firaxis and Oxide were quite impressive and very encouraging. We’re constantly evangelizing the benefits of explicit multi-GPU implementations with developers, and I believe we will see more and more funky and efficient use-cases.
Ich denke man wird die Bemühen rein für Crossfire selbst zurückschrauben und sich halt mehr auf DX12 verlassen, wenn es denn so simpel ist. In einigen Artikeln liest es sich beinahe so, als würde AMD mit Vega den Multi-GPU Support quasi komplett aufgeben, was offenbar nicht der Fall ist. Ich habe mich mit der Materie seit längerer Zeit nicht mehr beschäftigt, wie sieht denn die Performance bei GeForce und Radeon Karten unter DX12 Titeln aus? Hat man da automatisch eine brauchbare Skalierung bzw. gibt es unter dieser API Besserung bzgl. Probleme mit Mikrorucklern?
BlacKi
2017-08-02, 13:21:49
Wenn die kleine Karte deutlich effizienter ist als die große steht AMD gut da,man gucke einfach mal bei Steam,die 1080 spielt kaum eine Rolle der Verkaufschlager ist die 1070.
http://store.steampowered.com/hwsurvey/videocard/
ob das auch für die custom karten gelten wird? die sparsamen karten wird man wieder suchen müssen. aber ich glaube auch nicht, dass das hauptmerkmal für die meisten käufer nur die power ist, sondern der kaufpreis. der liegt leider laut listenpreis oberhalb der 1070, was allerdings den straßenpreis angeht kann keiner wissen wo rx56 landen wird.
grauenvoll
2017-08-02, 13:22:30
Ich habe mich mit der Materie seit längerer Zeit nicht mehr beschäftigt, wie sieht denn die Performance bei GeForce und Radeon Karten unter DX12 Titeln aus? Hat man da automatisch eine brauchbare Skalierung bzw. gibt es unter dieser API Besserung bzgl. Probleme mit Mikrorucklern?
Habe es mal mit 2 RX480 unter CIV6 und ROTR versucht. Die Erwartungen waren niedrig aber das Ergebnis war ziemlich beeindruckend. Ist ein relativ kostengünstiger Weg zu mehr GPU-Leistung. Wäre schade.
Hatte man das nicht für VR als absolutes MUSS angepriesen?
X-Bow
2017-08-02, 13:48:10
@Taigatrommel: Danke, das untermauert meine Skepsis zu den gestrigen News.
Daredevil
2017-08-02, 13:52:52
gute Frametimes > Max FPS
Das wäre tatsächlich ein sehr gutes Argument für die RX Vega. Jeder Spieler weiß, dass gute Frametimes wesentlich wichtiger sind als Max FPS und für ein wirklich gutes Spielerlebnis ausschlaggebend sind. Wenn die Frametimes der RX Vega bei gleichen Einstellungen wesentlich besser sind als bei der GTX 1080 (oder gar der GTX 1080 Ti, wie von HardOCP angedeutet (https://www.youtube.com/watch?v=2CE-wSU1KMw)), dann schlage ich auch zu.
Dazu müssten Frametimes aber dann bei anderen Grafikkarten auch schlecht sein.... wo siehst du denn da einen Bedarf an Optimierung? o0
Mehr FPS bedeuten übrigens kleinere Frametimes.... wenn AMD stabilere Frametimes präsentieren kann, mag das wohl interessant sein.
Ist halt nur die Frage ob man für sowas dann auch den Stromverbrauch in kauf nehmen möchte und ob man diese Karte dann wirklich als performant ansehen mag.
Weil es gibt auch einen Gamer Markt für +100FPS und da brauch es diese hohe Leistung halt.
Warum sollte Vega deutlich bessere Min-FPS gegenüberder 1080 liefern? Aufgrund der geschönten Folien die schon seziert wurden? ;D
Weil AMD das gezeigt hat.
Erstmal muss man ja dem Hersteller glauben, wenn er das sagt.
Tests können ja dann später immer noch das Gegenteil behaupten und dann verliert AMD halt ganz schön viel Vertrauen. :)
Gipsel
2017-08-02, 13:56:13
Mal wieder etwas aufgeräumt. Bitte bleibt beim Thema!
Timbaloo
2017-08-02, 13:57:43
Weil AMD das angepriesen hat.
Erstmal muss man ja dem Hersteller glauben, wenn er das sagt.
Tests können ja dann später immer noch das Gegenteil behaupten und dann verliert AMD halt ganz schön viel Vertrauen. :)
Nochmal, die Folien wurden bereits auseinandergenommen. Wenn man den krassen Ausreisser CoD Infinity Warfairy (welches ein bekanntes Problem mit dem für die Tests verwendeten NV-Treiber hat), kommen mehr oder minder die gleichen Min-FPS wie bei der 1080 FE raus.
Botcruscher
2017-08-02, 14:00:16
Threadripper. So viel Zeit muss sein. :) Die Veganer dürften aber nicht mehr lange auf sich warten lassen (und wenn das Warten zuende ist, gibt's erst mal ein Embargo).
MfG,
Raff
Bios auf die FE ziehen und mit dem Treiber weiter testen.
Mich würde mal die Hintergründe der lächerlichen Aktion interessieren. Ein Embargo ist angesichts frei erhältlicher Hardware einfach total lächerlich.
Nochmal, die Folien wurden bereits auseinandergenommen. Wenn man den krassen Ausreisser CoD Infinity Warfairy (welches ein bekanntes Problem mit dem für die Tests verwendeten NV-Treiber hat), kommen mehr oder minder die gleichen Min-FPS wie bei der 1080 FE raus.
Die Frage ist auch nicht ob sondern warum überhaupt dieser Quatsch in die Folien gepackt wurde. Vega muss am Ende noch desaströser laufen als die ~30% auf Fiji vermuten lassen.
Dino-Fossil
2017-08-02, 14:02:15
Ein Embargo ist angesichts frei erhältlicher Hardware einfach total lächerlich.
RX Vega ist noch nicht frei erhältlich und eben nicht völlig identisch zur FE.
grauenvoll
2017-08-02, 14:05:17
Erstmal muss man ja dem Hersteller glauben, wenn er das sagt.
Bis sich herausstellt, dass das naiv war.
- Vega is on track... Vega is immer noch on track und niemand weiß wann Vega ankommt. Hat man von der Deutschen Bahn abgekupfert...
- 4k@60Hz... Wir müssen nur die Details soweit runterschrauben bis es passt...
Botcruscher
2017-08-02, 14:11:39
RX Vega ist noch nicht frei erhältlich und eben nicht völlig identisch zur FE.
Nach ein paar Bios- Anpassungen ist es im schlimmsten Fall eine RX mit 16GB.:rolleyes:
Dino-Fossil
2017-08-02, 14:30:02
Nach ein paar Bios- Anpassungen ist es im schlimmsten Fall eine RX mit 16GB.:rolleyes:
Ein RX Bios bekommst du vor dem tatsächlichen Launch nicht und blind "ein paar Bios-Anpassungen" zu machen dürfte nicht so effektiv sein.
Rancor
2017-08-02, 14:43:50
Die Frage ist doch auch, warum die eine Karte so hohe FPS erreicht, die andere aber deutlich besser bei den min fps ist.
Ist es der Hardware geschuldet??
Liegt es an der Software??
Und ist es eventuell gar tatsächlich so, dass die Hardware bei dem einen deutlich besser ist, der andere das ganze aber durch starke (und teure) Optimierungen der Software ausgleichen kann...
Und eben aufgrund dieser Optimierungen mit einer Mid Range Karte bei den anderen mit einer High End Karte mithalten kann, eben weil die Software so stark optimiert ist, dass alles raus geholt wird.
Interessant wird daher wohl id's neues Wolfenstein, wie es da ausschaut...
Ist halt echt blöd, dass die Software (=Treiber) so wichtig geworden sind, bei den GPUs...
Es könnte natürlich auch einfach sein, das die Karten des einen schlicht besser und effizienter sind als die des anderen. Es muss nicht immer Voodoo im Spiel sein..
Und ob die einen, besser als die anderen bei den min FPS sind sehen wir am 14.08.
Ich wäre ja dafür das die Karten des einen besser sind als die des großen anderen, denn das wäre gut für uns Kunden. Ich mag aber nicht dran glauben.. :biggrin:
dargo
2017-08-02, 15:01:42
Da es nicht so aussieht, als ob Vega besser skaliert wie Fiji (eher das Gegenteil), gehe ich auch davon aus, dass Vega56 deutlich interessanter wird. Vermutlich kaum langsamer und doch deutlich stromsparender.
Ich finde es etwas merkwürdig, dass die "Ökos" überhaupt nicht auf den Biosschalter eingehen. Mal angenommen RX Vega braucht tatsächlich 295W. Mit dem besagten Biosschalter soll die Karte angeblich nur noch 65% der Power (ich nehme an Asicpower?) bei 15% weniger Leistung brauchen. Grob gerechnet würde das bei einer Asicpower von 220W bedeuten, dass die gesamte Karte ca. 192W dann nur noch braucht (Asicpower dann nur noch 143W). Höchstwahrscheinlich etwas mehr da der Takt vom Speicher identisch bleibt. Ich würde eher mit ~200W dann rechnen.
Grendizer
2017-08-02, 15:03:19
Es könnte natürlich auch einfach sein, das die Karten des einen schlicht besser und effizienter sind als die des anderen. Es muss nicht immer Voodoo im Spiel sein..
Und ob die einen, besser als die anderen bei den min FPS sind sehen wir am 14.08.
Ich wäre ja dafür das die Karten des einen besser sind als die des großen anderen, denn das wäre gut für uns Kunden. Ich mag aber nicht dran glauben.. :biggrin:
Wenn man es geschickt argumentiert, hohe min. Werte und "normale" max. fps Werte. Dann kann man ja sogar argumentieren, das garantiert kein Spulenfiepen auftreten wird ;D
Menace
2017-08-02, 15:06:21
Ich finde es etwas merkwürdig, dass die "Ökos" überhaupt nicht auf den Biosschalter eingehen.
Doch, ich finde das nicht schlecht. Aber gab es das nicht auch schon vorher, nur dass es dann als "Silent" bezeichnet wurde? Igor wäre da ja eigentlich der richtige Ansprechpartner.
Grendizer
2017-08-02, 15:06:30
Ich finde es etwas merkwürdig, dass die "Ökos" überhaupt nicht auf den Biosschalter eingehen. Mal angenommen RX Vega braucht tatsächlich 295W. Mit dem besagten Biosschalter soll die Karte angeblich nur noch 65% der Power (ich nehme an Asicpower?) bei 15% weniger Leistung brauchen. Grob gerechnet würde das bei einer Asicpower von 220W bedeuten, dass die gesamte Karte ca. 192W dann nur noch braucht (Asicpower dann nur noch 143W). Höchstwahrscheinlich etwas mehr da der Takt vom Speicher identisch bleibt. Ich würde eher mit ~200W dann rechnen.
Weil das eigentlich fürn Arsch ist. Mit MSI Afterburner mache ich das doch heute schon manuell. Meine 1080 läuft auch bei 1924@ 0,9 V und die 390 habe ich damals auch heftig den Saft bei den Standardtakten weggenommen.
fondness
2017-08-02, 15:09:50
Weil das eigentlich fürn Arsch ist. Mit MSI Afterburner mache ich das doch heute schon manuell. Meine 1080 läuft auch bei 1924@ 0,9 V und die 390 habe ich damals auch heftig den Saft bei den Standardtakten weggenommen.
Sehe ich nicht so. Ein zusätzliches BIOS kostet kaum etwas und dafür habe ich einen garantieren zweite Betriebsmodi. Du musst lange herumtüfteln und niemand garantiert dir irgendetwas. Im übrigen ist der MSI Afterburner ein Tool, dessen Support auch mal enden kann oder das vielleicht auch mal durch diverse Bugs zu Problemen führen kann.
dargo
2017-08-02, 15:10:38
Doch, ich finde das nicht schlecht. Aber gab es das nicht auch schon vorher, nur dass es dann als "Silent" bezeichnet wurde? Igor wäre da ja eigentlich der richtige Ansprechpartner.
Ja... das ist in etwa mit dem Biosschalter bei Hawaii Referenz vergleichbar. Silent und Powermodus. Bei genaueren Überlegung kann man aber dann auch gleich zu Vega 56 für 100$ weniger greifen. Kommt aufs selbe mehr oder weniger raus was die Performance und Verlustleistung angeht.
Sehe ich nicht so. Ein zusätzliches BIOS kostet kaum etwas und dafür habe ich einen garantieren zweite Betriebsmodi. Du musst lange herumtüfteln und niemand garantiert dir irgendetwas. Im übrigen ist der MSI Afterburner ein Tool, dessen Support auch mal enden kann oder das vielleicht auch mal durch diverse Bugs zu Problemen führen kann.
So ein Biosschalter ist auf jeden Fall dautauglich und du bist nicht auf externe Software angewiesen die u.U. auch mal fehlerhaft sein kann.
ob das auch für die custom karten gelten wird?
Warum sollte das nicht für Customs gelten? Oder möchtest du mir jetzt erzählen, dass kein einziger Partner sich an die 210W TDP von AMD halten wird? Denkbar ist es zwar, ob es wirklich so kommt werden wir bald erfahren.
Grendizer
2017-08-02, 15:13:18
Sehe ich nicht so. Ein zusätzliches BIOS kostet kaum etwas und dafür habe ich einen garantieren zweite Betriebsmodi. Du musst lange herumtüfteln und niemand garantiert dir irgendetwas. Im übrigen ist der MSI Afterburner ein Tool, dessen Support auch mal enden kann oder das vielleicht auch mal durch diverse Bugs zu Problemen führen kann.
Ja von dem Aspekt sicherlich richtig. Allerdings schafft man es mit Afterburner bei gleicher Leistung weniger Saft zu verbrauchen und dadurch die Lüftersteuerung zu verbessern (AMD 390) bzw.höhere Leistung bei weniger Verbrauch (1080) zu konfigurieren.
Edit: Für mich persönlich eher unwichtig, aber für DAUs vieleicht wirklich gut..... wobei die mit Sicherheit immer max. Leistung haben wollen. Ein Umschalten im laufenden Betrieb wird ja vermutlich auch nicht möglich sein, oder ?
Screemer
2017-08-02, 15:36:07
Ja von dem Aspekt sicherlich richtig. Allerdings schafft man es mit Afterburner bei gleicher Leistung weniger Saft zu verbrauchen und dadurch die Lüftersteuerung zu verbessern (AMD 390) bzw.höhere Leistung bei weniger Verbrauch (1080) zu konfigurieren.
Edit: Für mich persönlich eher unwichtig, aber für DAUs vieleicht wirklich gut..... wobei die mit Sicherheit immer max. Leistung haben wollen. Ein Umschalten im laufenden Betrieb wird ja vermutlich auch nicht möglich sein, oder ?
man sieht, dass du keine amd karte neueren datums besessen hast. unwinder hat es bis heute nicht geschafft dafür zu sorgen, dass man mit ab die einzellnen p-states beeinflussen kann. geschweige denn ist es mit ab möglich spannungen für die einzelnen p-states zu zu ändern. dann gibts noch ne dritte taktstufe bei den 5xx modellen zwischen idle und power und auch die kann man nicht ändern. das tüpfelchen auf dem i ist, dass das mit wattman oder watttool (bis zum 17.7.1 und ohne 3te taktstufe) problemlos ging. dazu kommt, dass ab laufend andere settings beeinflusst, beim biosflash sogar zu bricks führen kann (bei mir passiert) und so weiter und so fort. ab ist absoluter ausschuss für amd karten neuer als hawaii/granada. einzig für manuelle lüfterkurven ist das tool überhaupt noch zu gebrauchen. alles andere können andere und sogar der amd treiber bedeutend besser.
dargo
2017-08-02, 15:37:47
Nochmal, die Folien wurden bereits auseinandergenommen. Wenn man den krassen Ausreisser CoD Infinity Warfairy (welches ein bekanntes Problem mit dem für die Tests verwendeten NV-Treiber hat), kommen mehr oder minder die gleichen Min-FPS wie bei der 1080 FE raus.
AMD gibt keine min.fps in den Folien an sondern misst mit 99% Minimum-FPS. Schon erstaunlich... jetzt wo Vega teilweise vor Pascal liegt sind Frametimes wieder unwichtig. :freak:
Grendizer
2017-08-02, 15:44:38
man sieht, dass du keine amd karte neueren datums besessen hast. unwinder hat es bis heute nicht geschafft dafür zu sorgen, dass man mit ab die einzellnen p-states beeinflussen kann. geschweige denn ist es mit ab möglich spannungen für die einzellnen p-states zu zu ändern. dann gibts noch ne dritte taktstufe bei den 5xx modellen zwischen idle und power und auch die kann man nicht ändern. das tüpfelchen auf dem i ist, dass das mit wattman oder watttool (bis zum 17.7.2 und ohne 3te taktstufe) problemlos ging. dazu kommt, dass ab laufend andere settings beeinfluss, beim biosflash sogar zu bricks führen kann (bei mir passiert) und so weiter und so fort. ab ist absoluter ausschuss für amd karten neuer als hawaii/granada. einzig für manuelle lüfterkurven ist das tool überhaupt noch zu gebrauchen. alles andere können andere und sogar der amd treiber bedeutend besser.
Ok.... mein Fehler ... ist in der Tat so...
Mehr FPS bedeuten übrigens kleinere Frametimes.... wenn AMD stabilere Frametimes präsentieren kann, mag das wohl interessant sein.
Ich meinte natürlich die 1% and 0,1% Lows... also das, was gerade diskutiert wurde.
Ist halt nur die Frage ob man für sowas dann auch den Stromverbrauch in kauf nehmen möchte und ob man diese Karte dann wirklich als performant ansehen mag.
Weniger Stromverbrauch ist immer besser, aber die 10 Euro p.a. zusätzlich für Strom wären es mir Wert, wenn die Frametimes wesentlich besser (stabiler!) sind.
grauenvoll
2017-08-02, 16:14:12
Ausführliche Review der Vega FE:
http://www.tomshardware.com/reviews/amd-radeon-vega-frontier-edition-16gb,5128.html
Screemer
2017-08-02, 16:16:18
löl? das ist die englische übersetzung von igors vor zwei wochen erschienen review: http://www.tomshardware.de/vega-benchmarks-workstation-leistungsaufnahme-gaming,testberichte-242375.html. lustig finde ich vor allem, dass ja seit gester folgender satz keine gültigkeit mehr hat :lol:
Während nämlich Nvidia aufpassen muss, nicht die eigene Schwesterkarte, die Quadro P6000, zu kannibalisieren, hat AMD (aktuell) keine hausinterne Schwester, die man damit schwächen könnte.
Nvidia has to segment its portfolio carefully; it doesn't want to cannibalize sales of the Quadro P6000 with Titan Xp.
dargo
2017-08-02, 16:18:03
Zudem ist die FE bereits verfügbar und hat hier nichts verloren. Da gehts lang.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581883&page=43
Dino-Fossil
2017-08-02, 16:25:09
Ich finde es etwas merkwürdig, dass die "Ökos" überhaupt nicht auf den Biosschalter eingehen. Mal angenommen RX Vega braucht tatsächlich 295W. Mit dem besagten Biosschalter soll die Karte angeblich nur noch 65% der Power (ich nehme an Asicpower?) bei 15% weniger Leistung brauchen.
Wenn es so kommt, ist es eine tolle Sache und sollte eigentlich die default-Einstellung der Karte sein. Aber vermutlich hat AMD wie schon bei Polaris beschlossen, die Effizienz über Bord zu werfen, um ein bestimmtes Performance-Ziel zu erreichen (damals die 970, heute die 1080).
Macht Vega immer noch nicht zu dem großen Wurf, auf den viele gehofft haben (weil die absolute Performance eben auch wichtig ist), aber es würde Perf/Watt enorm verbessern.
Flusher
2017-08-02, 16:33:27
gute Frametimes > Max FPS
Das wäre tatsächlich ein sehr gutes Argument für die RX Vega. JederKaum ein Spieler weiß, dass gute Frametimes wesentlich wichtiger sind als Max FPS und für ein wirklich gutes Spielerlebnis ausschlaggebend sind. Wenn die Frametimes der RX Vega bei gleichen Einstellungen wesentlich besser sind als bei der GTX 1080 (oder gar der GTX 1080 Ti, wie von HardOCP angedeutet (https://www.youtube.com/watch?v=2CE-wSU1KMw)), dann schlage ich auch zu.
Hab das mal für dich gefixt. ;)
dargo
2017-08-02, 16:37:14
Hab das mal für dich gefixt. ;)
Hier ist wieder die Fachpresse gefragt. Jahrelang hat man sich die "Meute" mit avgs. erzogen oder sollte ich gezüchtet sagen? Höchste Zeit für einen Wechsel.
Wenn AMDs Vega Architektur wirklich deutliche Vorteile bei den minFPS gegenüber Nvidia hätte, wäre das für informierte Käufer ein sehr gutes Argument. Gerade zusammen mit Freesync.
Gerade bei Spielen die selbst auf guter Hardware nur mühsam mal 60 fps halten, empfinde ich Freesync als Segen. Selbst erlebte Beispiele wären ArmA 3, Ark, PUBG, insbesondere in den early access Phasen. Da machen mir Framedrops auf ~35-40 fps wenig aus, weil mein Freesync Monitor das noch gut wegbügelt. Wenn ich nicht auf den Framecounter schaue, fällt das beim Spielen gar nicht auf. Drops unter die magischen 35 fps Freesync Range sind aber definitiv massiv störend.
Im Endeffekt sind average FPS deutlich uninteressanter als minFPS, insbesondere durch Freesync/G-sync. Da hat AMD schon ein gutes Argument. Konstante, etwas geringere Leistung ist deutlich besser als höhere, aber inkonsistente Leistung.
Ist ein interessanter Ansatzpunkt für die Reviewer, insbesondere da das AMDs Hauptargument für Vega zu sein scheint. Ich hoffe das sich Jemand die Arbeit macht, mit einer sinnvollen Spieleauswahl diese Behauptungen zu überprüfen. Und nicht wieder Benches von totoptimierten Spielen die sowieso jenseits von 100 fps laufen.
Dino-Fossil
2017-08-02, 17:54:58
Ich sehe da z.B. dank HBCC durchaus Potential für konstantere Frametimes.
Wie stark der Effekt ist (und wie sehr nVidia's 1080(Ti) im Vergleich darunter "leidet") müssen dann Reviews klären.
Tesseract
2017-08-02, 18:03:04
Im Endeffekt sind average FPS deutlich uninteressanter als minFPS
min-fps ist ein unsinniges maß, wenn dann 1%-quantil oder ähnliches.
Ich sehe da z.B. dank HBCC durchaus Potential für konstantere Frametimes.
Wie stark der Effekt ist (und wie sehr nVidia's 1080(Ti) im Vergleich darunter "leidet") müssen dann Reviews klären.
Bei welchem aktuellen Spiel (ohne Mods) reichen denn 8 GiB nicht?
Und bei welchem 11 GiB?
Dino-Fossil
2017-08-02, 18:10:16
Kurze "Nachladeruckler" sehe ich auch noch auf meiner 8GB Karte - ob da der HBCC was bringt, kann ich allerdings auch nicht sagen.
basix
2017-08-02, 18:13:00
Das könnte unter Umständen helfen. Aber nur, wenn die Nachladeruckler nicht an der CPU aufgehängt sind. Die GPU müsste selbstständig die Daten nachladen können. Ob das in jedem Fall funktioniert oder nur bei schon von der CPU in den RAM geladenen Daten muss sich zeigen. Da würde mich ein Test bei einem ans Limit getriebenen Gothic 3 interessieren :D (z.B. PCGH Config+)
dildo4u
2017-08-02, 18:17:47
Ich sehe da z.B. dank HBCC durchaus Potential für konstantere Frametimes.
Wie stark der Effekt ist (und wie sehr nVidia's 1080(Ti) im Vergleich darunter "leidet") müssen dann Reviews klären.
Die miesen Frametimes bei den AMD Benches kommen eher davon das sie immer Low Level genutzt haben wo es ging.BF1 und Deus Ex laufen z.b deutlich besser in DX11 als 12 auf Nvidia.
|MatMan|
2017-08-02, 18:30:30
Das könnte unter Umständen helfen. Aber nur, wenn die Nachladeruckler nicht an der CPU aufgehängt sind. Die GPU müsste selbstständig die Daten nachladen können. Ob das in jedem Fall funktioniert oder nur bei schon von der CPU in den RAM geladenen Daten muss sich zeigen. Da würde mich ein Test bei einem ans Limit getriebenen Gothic 3 interessieren :D (z.B. PCGH Config+)
Der HBCC kann nur was helfen, wenn das Spiel die Daten bereits in den VRAM geladen hat. Typische Nachladeruckler, die enstehen, weil das Spiel Texturen (oder was auch immer) von der Platte/SSD nachläd sind unabhängig davon. Selbst wenn das Spiel die Daten schon von der SSD in den System-RAM geladen hat, kann der HBCC nichts damit anfangen. Der HBCC hilft also potentiell nur gegen Ruckler durch zu wenig VRAM!
BoMbY
2017-08-02, 18:48:59
Der HBCC hilft also potentiell nur gegen Ruckler durch zu wenig VRAM!
Ja, und natürlich nur bei Spielen/Engines die auch schlau genug sind das angebotene VRAM auch zu nutzen. Es bringt nichts wenn RX Vega der Anwendung zwar sagt sie hat 16 GB VRAM (VRAM + zugeteilten Cache-Bereich im DRAM), aber die Anwendung trotzdem nur < 8 GB Texture-Cache nutzt. Abgesehen davon sollten DX12 und Vulkan Anwendungen sich auch selbst um so etwas kümmern, und da dürfte der HBCC eigentlich gar nichts bringen - DMA-Transfers unterstützen die Karten ja bisher auch schon.
Complicated
2017-08-02, 18:49:30
Selbst wenn das Spiel die Daten schon von der SSD in den System-RAM geladen hat, kann der HBCC nichts damit anfangen. Der HBCC hilft also potentiell nur gegen Ruckler durch zu wenig VRAM!
Das widerspricht der bisherigen technischen Beschreibung durch AMD.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/2.html
The example above showed uniformly sized pages, but the high-bandwidth cache controller is designed to handle irregularly sized memory pages as well. Typical page sizes are between 4K and 128K. It can access not just system memory and storage, but non-volatile RAM as well, such as Intel's new Optane technology-based SSDs. If you have used a small SDD as a scratch/cache disk with a spinning drive, think of the practical benefits you achieved.
Auf der Folie steht "System Memory/Storage"
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-7.jpg
x-force
2017-08-02, 19:11:37
gibt es mittlerweile weitere infos zu dem voodoo(kein 3dfx ;)) treiber, der features freischaltet und so die performance auf 1080ti oder höheres niveau hebt?
|MatMan|
2017-08-02, 19:14:12
Das widerspricht der bisherigen technischen Beschreibung durch AMD.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/2.html
Nein der widerspreche ich nicht. AMD meint damit sowas wie virtuellen Arbeitsspeicher (wie das pagefile von Windows).
Der HBCC ist ein gepimpter Speichercontroller in der GPU, der nun den System-RAM statt dem VRAM für die Speicherzugriffe der GPU verwenden kann und dabei den VRAM als Zwischenspeicher (Cache) mit unterschiedlichen Verdrängungsstrategien verwendet. Der Speichercontroller/HBCC einer GPU sieht keinen Gamecode, der weiß also nicht welche Texturen als nächstes benötigt werden. Selbst für den Treiber ist es nicht trivial vorherzusagen, welche Texturen als nächstes benötigt werden (bevor es das Spiel selbst weiß!). Selbst wenn der Treiber es wüsste, könnte er die Texturen auch ohne HBCC in den VRAM auf Verdacht vorladen.
Der HBCC kann mit Sicherheit nicht irgendwelche Dateien von der Festplatte / Netzwerkspeichern lesen!
reaperrr
2017-08-02, 19:17:43
gibt es mittlerweile weitere infos zu dem voodoo(kein 3dfx ;)) treiber, der features freischaltet und so die performance auf 1080ti oder höheres niveau hebt?
Wirkliche Infos nicht, aber AMDs eigene Marketing-Slides deuten darauf hin, dass der "Voodoo"-Treiber aus dem etwas trägen Kreuzer wohl auch kein Turbo-Schlachtschiff machen wird.
Zockerfrettchen
2017-08-02, 19:41:36
Ich kenne mich mit dem ganzen Mining-Quatsch nicht besonders gut aus ;-)
Habe aber das Gefühl, der Öko-Knopf im Bios wurde nur für die Miner gemacht. Kann einer die Attraktivität einer solchen Karte für Miner einschätzen (65% Verbrauch bei -15% Performance)? Wenn die Karte da Nutzen stifftet, ist es eigentlich egal, wie sie im Gaming im Vergleich zu Nvidia steht. Vega FE für CAD-Einsatz, Vega fürs Mining (und Gaming im höheren Preissegment). Wenn es für AMD gut läuft, hält der Mining-Boom bis Navi am Markt ist und man die Probleme von Vega gefixed hat. Dann hat man auch nicht das Problem, dass die RX480 etc den Markt fluten, da Navi das erfüllt was Vega versprochen hat: Deutliche Mehrperformance.
Wenn das so hinauen sollte ist Vega für AMD ne Goldgrube, zumindest deutlich lukrativer als die Generation hier dargestellt wird. Nichts für Gamer aber sehr gut fürs Konto von AMD...
Grüße,
Zockerfrettchen
Raymond
2017-08-02, 19:45:18
Nein der widerspreche ich nicht. AMD meint damit sowas wie virtuellen Arbeitsspeicher (wie das pagefile von Windows).
Der HBCC ist ein gepimpter Speichercontroller in der GPU, der nun den System-RAM statt dem VRAM für die Speicherzugriffe der GPU verwenden kann und dabei den VRAM als Zwischenspeicher (Cache) mit unterschiedlichen Verdrängungsstrategien verwendet. Der Speichercontroller/HBCC einer GPU sieht keinen Gamecode, der weiß also nicht welche Texturen als nächstes benötigt werden. Selbst für den Treiber ist es nicht trivial vorherzusagen, welche Texturen als nächstes benötigt werden (bevor es das Spiel selbst weiß!). Selbst wenn der Treiber es wüsste, könnte er die Texturen auch ohne HBCC in den VRAM auf Verdacht vorladen.
Der HBCC kann mit Sicherheit nicht irgendwelche Dateien von der Festplatte / Netzwerkspeichern lesen!
Davon mal abgesehen die Geschwindigkeit von PCI Express, Festplatten und co durch den HBCC auch nicht schneller werden und daher immer noch der limitierende Faktor beim Nachladen sind. Der Unterschied zwischen einer guten Engine die ihre Daten intelligent streamed und dem HBCC dürfte daher gegen Null gehen. Die wirklichen Vorteile werden daher erst Tests zeigen können.
Grendizer
2017-08-02, 19:46:42
Ich kenne mich mit dem ganzen Mining-Quatsch nicht besonders gut aus ;-)
Habe aber das Gefühl, der Öko-Knopf im Bios wurde nur für die Miner gemacht. Kann einer die Attraktivität einer solchen Karte für Miner einschätzen (65% Verbrauch bei -15% Performance)? Wenn die Karte da Nutzen stifftet, ist es eigentlich egal, wie sie im Gaming im Vergleich zu Nvidia steht. Vega FE für CAD-Einsatz, Vega fürs Mining (und Gaming im höheren Preissegment). Wenn es für AMD gut läuft, hält der Mining-Boom bis Navi am Markt ist und man die Probleme von Vega gefixed hat. Dann hat man auch nicht das Problem, dass die RX480 etc den Markt fluten, da Navi das erfüllt was Vega versprochen hat: Deutliche Mehrperformance.
Wenn das so hinauen sollte ist Vega für AMD ne Goldgrube, zumindest deutlich lukrativer als die Generation hier dargestellt wird. Nichts für Gamer aber sehr gut fürs Konto von AMD...
Grüße,
Zockerfrettchen
Wenn die Gamer die wegen Freesync eine Vega haben wollen, diese nicht bekommen wegen den Minern wäre das dauerhaft auch keine gute Entwicklung für AMD. I
Digidi
2017-08-02, 19:53:01
Davon mal abgesehen die Geschwindigkeit von PCI Express, Festplatten und co durch den HBCC auch nicht schneller werden und daher immer noch der limitierende Faktor beim Nachladen sind. Der Unterschied zwischen einer guten Engine die ihre Daten intelligent streamed und dem HBCC dürfte daher gegen Null gehen. Die wirklichen Vorteile werden daher erst Tests zeigen können.
Das Problem ist das 90% aller Spiele gerade keinen Wert auf das Streaming legen. Deshalb ist ja der Vram verbrauch auch so explodiert ;)
dargo
2017-08-02, 19:54:00
Ich kenne mich mit dem ganzen Mining-Quatsch nicht besonders gut aus ;-)
Habe aber das Gefühl, der Öko-Knopf im Bios wurde nur für die Miner gemacht.
Nein... fürs Mining waren gesonderte Karten von beiden IHVs angedacht. Wie gesagt... auch Hawaii hatte schon zwei Biose mit unterschiedlichen PT-Limits und entsprechend anderer Lüfterkurve.
Edit:
Es geht hier ausschließlich um das Referenzdesign. Ob alle Partner bei den Customs ebenfalls zwei Biose anbieten werden ist eher fraglich. Außer Sapphire vielleicht.
Zockerfrettchen
2017-08-02, 19:56:15
Wenn die Gamer die wegen Freesync eine Vega haben wollen, diese nicht bekommen wegen den Minern wäre das dauerhaft auch keine gute Entwicklung für AMD. I
Nicht falsch verstehen, ich bin auch dafür das AMD den Gamingmarkt beliefert. Ich habe nur das Gefühl, Vega wurde nicht für diesen gemacht. AMD ist eine AG, da steht die Marge im Fokus. Und durch Vega steigt diese deutlich an (Profimarkt und Mining). Das man auch im Gaming ein höheres Preissegment ansprechen kann, wurde dann durch einen höheren Verbrauch erkauft. Und die, die auf Freesync so abfahren, denen ist auch der Mehrverbrauch egal bzw. nicht so wichtig.
Mir geht es allgemein darum, dass man das Gefühl bekommt, AMD hätte alles falsch gemacht mit Vega. Aus Sicht eines Gamers mag das sein, rein ökonomisch könnte Vega sogar ein großer Wurf werden. Und nein, ich bin kein Fanboy^^
Grüße,
Zockerfrettchen
|MatMan|
2017-08-02, 21:06:24
Davon mal abgesehen die Geschwindigkeit von PCI Express, Festplatten und co durch den HBCC auch nicht schneller werden und daher immer noch der limitierende Faktor beim Nachladen sind. Der Unterschied zwischen einer guten Engine die ihre Daten intelligent streamed und dem HBCC dürfte daher gegen Null gehen. Die wirklichen Vorteile werden daher erst Tests zeigen können.
Ja genau. Der Zugriff auf Speicher außerhalb vom System-RAM wird für Spiele nicht relevant sein. Da geht es um Profi- Anwendungen auf die auch die Vega SSG zielt, also Dinge die einfach nicht mehr in bezahlbaren RAM passen.
Entwickler von Spielen werden sich zu Lebzeiten von Vega wie bisher Gedanken um das Speichermanagement machen müssen, allein schon deshalb weil nur Vega einen
HBCC hat. Außerdem ist es auch mit Vega sicher keine Gute Idee beim Spielstart erstmal sämtliche Texturen in den Grafikspeicher zu laden und der GPU zu überlassen wie sie damit klarkommt. Nicht jeder Privatanwender hat Unmengen System-RAM und der Spielstart würde auch ewig dauern.
HBCC ist hauptsächlich ein Profi Feature, dass für GPGPU Programmierung echt interessant ist. Bei Spielen kann es was bringen, wenn diese mehr als 8 GB benötigen. Da kann ich mir vorstellen, dass es etwas Erfahrung und Feintuning vom Treiber braucht, damit es rund läuft (z.B. unterschiedliche Verdrängungsstrategien je nach Spiel).
Complicated
2017-08-02, 21:08:26
Nein der widerspreche ich nicht. AMD meint damit sowas wie virtuellen Arbeitsspeicher (wie das pagefile von Windows).Nein das ist falsch. Es steht Storage und nichts anderes auf der Folie. Hier noch die Folie aus der ersten HBCC Präsentation wo es noch eindeutiger ist:
http://techreport.com/r.x/amdvegapreview/HBCC.png
Der Speichercontroller/HBCC einer GPU sieht keinen Gamecode, der weiß also nicht welche Texturen als nächstes benötigt werden. Genauso wenig wie es der Cache einer CPU vorhersehen kann - funktioniert dennoch.
Der HBCC kann mit Sicherheit nicht irgendwelche Dateien von der Festplatte / Netzwerkspeichern lesen!Doch das kann er - er kann direkte memory reads und writes sogar auf Netzwerkspeicher durchführen.
http://techreport.com/review/31224/the-curtain-comes-up-on-amd-vega-architecture
HBM2 is only one potential step in a hierarchy of new caches where data to feed a Vega GPU could reside, however. The high-bandwidth cache controller has the ability to address a pool of memory up to 512TB in size, and that pool could potentially encompass other memory locations like NAND flash (as seen on the Radeon Pro SSG), system memory, and even network-attached storage.
Davon mal abgesehen die Geschwindigkeit von PCI Express, Festplatten und co durch den HBCC auch nicht schneller werden und daher immer noch der limitierende Faktor beim Nachladen sind. Der Unterschied zwischen einer guten Engine die ihre Daten intelligent streamed und dem HBCC dürfte daher gegen Null gehen. Die wirklichen Vorteile werden daher erst Tests zeigen können.
Das wäre als ob du sagen würdest, dass es keinen Unterschied macht ob eine CPU L2 Cache nutzt oder nicht weil die Festplatte bremst. Es geht darum wann welche Daten geladen werden und wie hoch die Cache Hitrate ist. Die liegt über 95% im Normalfall.
Ich kenne mich mit dem ganzen Mining-Quatsch nicht besonders gut aus ;-)
Habe aber das Gefühl, der Öko-Knopf im Bios wurde nur für die Miner gemacht. Kann einer die Attraktivität einer solchen Karte für Miner einschätzen (65% Verbrauch bei -15% Performance)?
Null. Vega ist deutlich teurer als Polaris, liefert aber keine wirklich bessere Leistung als Miner Karte. Miner modifizieren das Bios der Karte gleich selbst, und overclocken auch kräftig.
basix
2017-08-02, 21:28:37
Genauso wenig wie es der Cache einer CPU vorhersehen kann - funktioniert dennoch.
...
Das wäre als ob du sagen würdest, dass es keinen Unterschied macht ob eine CPU L2 Cache nutzt oder nicht weil die Festplatte bremst. Es geht darum wann welche Daten geladen werden und wie hoch die Cache Hitrate ist. Die liegt über 95% im Normalfall.
Der einzige Unterschied ist natürlich die sehr viel geringere Latenz eines normalen Cache + DRAM Systems. Dennoch reduziert sich mit HBCC potentiell die Latenz, da der Umweg über die CPU nicht mehr zwingend gemacht werden muss. Und da sehr, sehr viel in HW gegossen wird, um Latenzen zu reduzieren oder verstecken, bringt jegliche Reduktion einen Vorteil. Wie gross der ist sehen wir am Launch-Tag ;) Zudem kann die GPU unter Umständen genauer wissen, welche Daten wann benötigt werden. Das bietet einen zusätzlichen Vorteil.
AMDoderNvidia
2017-08-02, 21:29:38
Das Problem ist das 90% aller Spiele gerade keinen Wert auf das Streaming legen. Deshalb ist ja der Vram verbrauch auch so explodiert ;)
Kannst Du mir das mal bitte genauer erklären, wie das funktionieren soll aus der Sicht eines Programmierers? Bei MMX/SSE kann man ja vorab schon sagen, welche Daten als nächstes verarbeitet werden sollen und die CPU kümmert sich um das (frühe) Laden aus dem RAM. Ist das so gemeint? Und wenn ja, können das die APIs DirectX/OpenGL bereits, nur verwendet es keiner?
Troyan
2017-08-02, 21:32:08
To bring Project 47 to life, AMD worked closely with Samsung Electronics with respect to the HBM2 memory used across the “Vega”-based product lines including the Radeon Instinct MI25 accelerators.
https://instinct.radeon.com/en-us/p47-announcement/
foenfrisur
2017-08-02, 22:11:12
"Radeon RX Vega has great potential to improve over time with our strong software ecosystem & professional technologies."
https://twitter.com/Radeon/status/892792530634493954
na mal sehen, wie lange man warten muss...
ich hole mir die vega 64...
mir reicht die :)
mfg
redfirediablo
2017-08-02, 22:20:51
Ich bin zwar eigentlich ein AMD Fan aber wenn ich mir den Vergleich zur Fury anschaue... 20, vielleicht 25% besser? Ernsthaft?
Mir fällt wirklich nicht ein wie man Vega noch schönreden soll, außer irgendwelche ominösen Treiberwunder down the road.
Was ein Aufwand (Entwicklungszeit, Chipfläche, Fertigungsprozess, HBM) und dann kommt, wenn es gut läuft, Fury + 25% raus bei tw. 50% höherem Takt? Was haben die nur gemacht? Stimmt das Gerücht, das alle Kanadier stück für stück rausgeekelt wurden und jetzt die Inder in der RTG nichts auf die Reihe bekommen?
Digidi
2017-08-02, 22:24:18
Ich bin zwar eigentlich ein AMD Fan aber wenn ich mir den Vergleich zur Fury anschaue... 20, vielleicht 25% besser? Ernsthaft?
Mir fällt wirklich nicht ein wie man Vega noch schönreden soll, außer irgendwelche ominösen Treiberwunder down the road.
Was ein Aufwand (Entwicklungszeit, Chipfläche, Fertigungsprozess, HBM) und dann kommt, wenn es gut läuft, Fury + 25% raus bei tw. 50% höherem Takt? Was haben die nur gemacht? Stimmt das Gerücht, das alle Kanadier stück für stück rausgeekelt wurden und jetzt die Inder in der RTG nichts auf die Reihe bekommen?
Die meisten verstehen es einfach nicht es liegt an der Software. AMD hat Vega mit sehr viel Zukunftstechnik vollgestopft. So wie der Primitive Shader. Amd muss jetzt die Spiele Entwickler überzeugen das in Ihre Games mit aufzunehmen. Aber das wird leider wieder scheitern weil AMD nicht genug Marktanteil besitzt.
Die Karten werden erst dann besser laufen wenn Nvidia das Feature implementiert. So war es bis jetzt immer.
|MatMan|
2017-08-02, 22:27:29
Nein das ist falsch. Es steht Storage und nichts anderes auf der Folie. Hier noch die Folie aus der ersten HBCC Präsentation wo es noch eindeutiger ist:
http://techreport.com/r.x/amdvegapreview/HBCC.png
Storage ist so ein allgemeiner Begriff - sie schreiben übrigens nicht file system... Die Folie zielt mehr in Richtung SSG (das hatte ich ja schon erwähnt). Was AMD mit Network Storage meint und wie das performant sein soll ist mir bis jetzt unklar.
Genauso wenig wie es der Cache einer CPU vorhersehen kann - funktioniert dennoch.
Kann denn ein CPU Cache von der Festplatte lesen? ;)
Doch das kann er - er kann direkte memory reads und writes sogar auf Netzwerkspeicher durchführen.
http://techreport.com/review/31224/the-curtain-comes-up-on-amd-vega-architecture
Du meinst der HBCC kann direkt auf eine Festplatte / SSD / Netzwerkspeicher zugreifen? Direkt heißt also auch noch am Betriebssystem vorbei? Damit könnte man schön das Dateisystem zerschießen, abgesehen vom Sicherheitsrisiko. :eek: Und was macht der HBCC dann, wenn er den Ordner mit dem Spiel gefunden hat (wie eigentlich)? Da liegt dann ein Archiv herum (im besten Fall ne zip Datei die dekomprimiert werden muss), wo die Texturen nach irgendeinem vom Spielentwickler festgelegten System und Format liegen. Wie soll der HBCC wissen was da genau gebraucht wird und wie das zu verwenden ist?
Das wäre als ob du sagen würdest, dass es keinen Unterschied macht ob eine CPU L2 Cache nutzt oder nicht weil die Festplatte bremst. Es geht darum wann welche Daten geladen werden und wie hoch die Cache Hitrate ist. Die liegt über 95% im Normalfall.
Wenn die benötigten Daten auf die Festplatte ausgelagert sind, hilft der L2 Cache tatsächlich nicht :D
Der Arbeitsspeicher, den der Cache zwischenspeichert, ist ganz anders organisiert und verwaltet als eine Festplatte auf dem das Spiel liegt. Software greift eben nicht auf eine beliebige Speicheradresse auf der Festplatte zu, sondern sie öffnet über das Betriebssystem eine Datei (ganz grob). Das ist fundamental verschieden.
Für mich ist hier Schluss. Du kannst gern glauben, dass der HBCC magisch das Nachladen von Texturen eines Spiels beschleunigt. Es wird nur nicht passieren.
Digidi
2017-08-02, 22:29:40
Du meinst der HBCC kann direkt auf eine Festplatte / SSD / Netzwerkspeicher zugreifen? Direkt heißt also auch noch am Betriebssystem vorbei? Damit könnte man schön das Dateisystem zerschießen, abgesehen vom Sicherheitsrisiko. :eek: Und was macht der HBCC dann, wenn er den Ordner mit dem Spiel gefunden hat (wie eigentlich)? Da liegt dann ein Archiv herum (im besten Fall ne zip Datei die dekomprimiert werden muss), wo die Texturen nach irgendeinem vom Spielentwickler festgelegten System und Format liegen. Wie soll der HBCC wissen was da genau gebraucht wird und wie das zu verwenden ist?
Ich habe keine Ahnung wie der HBCC funktionier, du aber anscheinend auch nicht.
RoughNeck
2017-08-02, 22:34:36
@Digidi
Ich finde es super dass AMD für die Zukunft plant.
Ich kenne viele die Karten für 3 oder 5 Jahre kaufen, nur wollen die auch JETZT Leistung haben und genau da sehe ich aktuell den größten Minus Punkt bei VEGA. Je länger ich mich damit befasse desto mehr wird mir klar dass alles mit der Software steht und fällt, bei VEGA mehr als bei anderen Single GPU Karten.
Digidi
2017-08-02, 22:40:01
@Digidi
Ich finde es super dass AMD für die Zukunft plant.
Ich kenne viele die Karten für 3 oder 5 Jahre kaufen, nur wollen die auch JETZT Leistung haben und genau da sehe ich aktuell den größten Minus Punkt bei VEGA. Je länger ich mich damit befasse desto mehr wird mir klar dass alles mit der Software steht und fällt, bei VEGA mehr als bei anderen Single GPU Karten.
Aber genau so erzeugt man eine Spirale abwärts.
Botcruscher
2017-08-02, 22:41:39
AMD hat Vega mit sehr viel Zukunftstechnik vollgestopft.
Der Sprung von der Furi ist nett ausgedrückt minimalistisch. Bei den zusätzlichen Transistoren zur Taksteigerung wird es noch lächerlicher. Von Polaris ist es quasi nichts.
HBCC wird Spielern außer in ein paar ausgesuchten Situationen vermutlich auch nichts bringen.
Unterm Strich passen Chipgröße, Takt, Verbrauch und Effizienz hinten und vorne nicht. Ein doppelter Polaris wäre vermutlich auch in den Regionen und wäre dank der Miner wenigstens eine Cashcow. Selbst ein 14nm Hawaii dürfte in dem Bereich nicht mal schlecht da stehen.
Die einzige Hoffnung im Moment ist eine günstige 56. Nicht weil die irgendwie super toll wäre, sondern weil die 1070 im Vergleich total überteuert ist.
Aber genau so erzeugt man eine Spirale abwärts.
Eine Tüte Mitleid bitte für AMD.
Complicated
2017-08-02, 22:41:59
Für mich ist hier Schluss. Du kannst gern glauben, dass der HBCC magisch das Nachladen von Texturen eines Spiels beschleunigt. Es wird nur nicht passieren.
Klar - es ist immer magisch wenn man die Technik nicht versteht die dahinter steckt. Die Folien von AMD und auch der Präsentationen sind eindeutig und du räumst ein es nicht zu verstehen. Das selbe ist hier im Thread schon mehr als ausführlich besprochen worden.
Jo. Wie bei Hawaii... nur war dort die Leistung zu Beginn konkurrenzfähig und je nach Modell mehr oder weniger der Verbrauch ein Manko, den man aber entsprechend zügeln konnte bzw. durch mehr vram und co hinwegsehen konnte.
Wäre Vega 64 wenigstens DURCHGEHEND zwischen 1080/TI und AMD würde sagen, da kommt mittels Optimierungen noch ne gute Schippe oben drauf, dann wäre das durchaus kein schlechter Deal.
Aber was hab ich davon, wenn die Karte dann auf dem Level ist, wennse dann schon EOL ist.. nix. Kann ich genauso gut auf die nächste Gen warten und sehen, was NV/AMD anbieten.
Auch sehe ich nicht wirklich, dass AMD sich durch das besetzen der Konsolen, für den PC einen Vorteil dahingehend verschafft, den es ermöglichen würde mit Technologien zu kommen, die dann auch genutzt werden müssen, wo der Marktanteil quasi obsolet wird.
Aber da ist auch nix... weiterhin dem guten Willen der Studios unterlegen.
Will oder kann AMD nicht der Arsch sein und die Konsolen dahingehend Missbrauchen, um neue Technologien dort so auszurichten, das die dann auch auf dem PC genutzt werden können?
Kriton
2017-08-02, 22:44:47
Wegen HBCC - mal daran zurückdenken:
85ProuqAof0
Digidi
2017-08-02, 22:47:56
Der Sprung von der Furi ist nett ausgedrückt minimalistisch. Bei den zusätzlichen Transistoren zur Taksteigerung wird es noch lächerlicher. Von Polaris ist es quasi nichts.
HBCC wird Spielern außer in ein paar ausgesuchten Situationen vermutlich auch nichts bringen.
Unterm Strich passen Chipgröße, Takt, Verbrauch und Effizienz hinten und vorne nicht. Ein doppelter Polaris wäre vermutlich auch in den Regionen und wäre dank der Miner wenigstens eine Cashcow. Selbst ein 14nm Hawaii dürfte in dem Bereich nicht mal schlecht da stehen.
Die einzige Hoffnung im Moment ist eine günstige 56. Nicht weil die irgendwie super toll wäre, sondern weil die 1070 im Vergleich total überteuert ist.
Eine Tüte Mitleid bitte für AMD.
Das Problem ist das die Software nicht für Vega geschrieben wurde und Vega nun die Software wie die FuryX behandeln muss. (Siehe auch hierzu das Bild von meinem Rasterizer die Fall back Lösung ist genau die Gleiche wie auf der FuryX) Das ist klar das es da langsamer läuft als auf der FuryX.
Das hat nichts mit Mitleid zu tun. Es ist einfach der Gesunde Menschenverstand das man versucht Konkurrenz aufrecht zu halten in einem Kapitalistischen System.
Geh mal in Großkonzerne die haben für alles 2-3 Zulieferer (auch wenn die etwas schlechter sind) nicht das so etwas passiert wie bei VW letztens ;)
dargo
2017-08-02, 22:54:38
Der Sprung von der Furi ist nett ausgedrückt minimalistisch. Bei den zusätzlichen Transistoren zur Taksteigerung wird es noch lächerlicher. Von Polaris ist es quasi nichts.
HBCC wird Spielern außer in ein paar ausgesuchten Situationen vermutlich auch nichts bringen.
Unterm Strich passen Chipgröße, Takt, Verbrauch und Effizienz hinten und vorne nicht. Ein doppelter Polaris wäre vermutlich auch in den Regionen und wäre dank der Miner wenigstens eine Cashcow. Selbst ein 14nm Hawaii dürfte in dem Bereich nicht mal schlecht da stehen.
Ich finde es immer wieder bemerkenswert wie schlau unsere Möchtegern- Ingenieure hier sind. Wer sagt denn, dass das GPU-Design @Fiji oder Hawaii bei einem Shrink die Taktraten von Vega nur annäherend erreichen könnten?
Botcruscher
2017-08-02, 22:55:15
Wegen HBCC - mal daran zurückdenken:
http://youtu.be/85ProuqAof0
Nur ist das Marketing BS übelster Sorte. Künstliches Limit auf fucking 2GB! In Worten ZWEI! _KÜNSTLICH_! Die Konkurrenz hat im Moment 8 und 11GB. Die werden nicht in der Lebenszeit von Vega knapp werden. Pascal ist zudem auf dem halben Wege EOL. Nächstes Jahr steht GDDR6 an.
Zeigt mir Situationen mit den vollen 8GB oder schert euch zum Teufel.
Zum Rendern oder CAD aber sicher die Technolgie schlechthin.
Ich finde es immer wieder bemerkenswert wie schlau unsere Möchtegern- Ingenieure hier sind. Wer sagt denn, dass das GPU-Design @Fiji oder Hawaii bei einem Shrink die Taktraten von Vega nur annäherend erreichen könnten?
Was jucken mich die Taktraten wenn ich Einheiten, Einheiten und noch mehr Einheiten haben kann? Das stand auch das kleine Wörtchen Mining. Da limitiert das Frontend nicht. Aber bleiben wir doch bei Polaris... Für die 380W kann sich das auch der Möchtegern-Ing an den Fingern abzählen. Dann hat er eben nur 1,1 GHz aber was solls. Am Ende bleiben es nur 30% auf 28nm Fiji. In BF1/Doom nicht mal das, weil Fiji da seine Leistung ausfahren kann.
dargo
2017-08-02, 23:00:15
Auch sehe ich nicht wirklich, dass AMD sich durch das besetzen der Konsolen, für den PC einen Vorteil dahingehend verschafft, den es ermöglichen würde mit Technologien zu kommen, die dann auch genutzt werden müssen, wo der Marktanteil quasi obsolet wird.
Aber da ist auch nix... weiterhin dem guten Willen der Studios unterlegen.
Will oder kann AMD nicht der Arsch sein und die Konsolen dahingehend Missbrauchen, um neue Technologien dort so auszurichten, das die dann auch auf dem PC genutzt werden können?
Dir ist aber schon klar, dass so eine Gameentwicklung paar Jährchen dauert bzw. Vorlauf braucht? Das erste Feature Rapid Packed Math kommt bereits in Oktober mit Wolfenstein 2. Nicht zuletzt dank der guten Zusammenarbeit mit id sondern auch weil die PS4 Pro dieses Feature zuerst mit doppeltem Durchsatz beherrschte. Von Farcry 5 wissen wir bereits auch, dass FP16 genutzt wird.
Was jucken mich die Taktraten wenn ich Einheiten, Einheiten und noch mehr Einheiten haben kann?
Hast du dir die selbe Frage auch beim Pascaldesign gestellt? :rolleyes: Was haben Fiji nochmal die vielen SPs letztendlich gebracht zum damaligen Zeitpunkt in einer PC-Umgebung mit überwiegend high level APIs?
Digidi
2017-08-02, 23:01:32
Nur ist das Marketing BS übelster Sorte. Künstliches Limit auf fucking 2GB! In Worten ZWEI! _KÜNSTLICH_! Die Konkurrenz hat im Moment 8 und 11GB. Die werden nicht in der Lebenszeit von Vega knapp werden. Pascal ist zudem auf dem halben Wege EOL. Nächstes Jahr steht GDDR6 an.
Zeigt mir Situationen mit den vollen 8GB oder schert euch zum Teufel.
Zum Rendern oder CAD aber sicher die Technolgie schlechthin.
Was jucken mich die Taktraten wenn ich Einheiten, Einheiten und noch mehr Einheiten haben kann? Das stand auch das kleine Wörtchen Mining. Da limitiert das Frontend nicht. Aber bleiben wir doch bei Polaris... Für die 380W kann sich das auch der Möchtegern-Ing an den Fingern abzählen. Dann hat er eben nur 1,1 GHz aber was solls.
Das Problem ist das mehr Einheiten nicht besser skalieren als mehr Takt. Alleine am Anfang das alles aufzudröseln und am Ende dann wieder alles zusammenzusetzen stell ich mir sehr kompliziert vor. Es gibt ein Grund warum AMD bei 4 Geometrieengine geblieben ist.
Interessant ist auch das der Rasterizer bei Vega trotzt 1600 Mhz takt so schnell ist wie der von Nvidia die bei GP102 mehr 2 Geometrieengines und damit 2 Rasterizer mehr haben.
Hier kannst du mal schauen, der Polygonenoutput von Nvidia zwischen 1080 und Titan X(Pascal) skaliert hier mal gar nicht beim Beyond3d Test.
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a1
|MatMan|
2017-08-02, 23:02:46
Ich habe keine Ahnung wie der HBCC funktionier, du aber anscheinend auch nicht.
Im Gegensatz zu dir verstehe ich den Ansatz und Sinn von HBCC - und damit auch dessen Grenzen und Möglichkeiten.
Klar - es ist immer magisch wenn man die Technik nicht versteht die dahinter steckt. Die Folien von AMD und auch der Präsentationen sind eindeutig und du räumst ein es nicht zu verstehen. Das selbe ist hier im Thread schon mehr als ausführlich besprochen worden.
Beantworte doch mal die Fragen die ich aufgeworfen habe wie es funktionieren soll die Texturen eines Spiels von der Festplatte zu laden. Das waren Denkanstöße, die aufzeigen sollten, dass der HBCC das nicht leisten kann.
Wegen HBCC - mal daran zurückdenken:
http://youtu.be/85ProuqAof0
Der VRAM wurde künstlich auf 2GB beschränkt. Wie ich weiter oben geschrieben habe, ist das genau der Fall wo der HBCC was bringen kann -> bei VRAM Mangel.
G3cko
2017-08-02, 23:06:06
Erste Full-Cover-Kühler.
https://www.hardwareluxx.de/index.php/news/hardware/wasserkuehlung/43899-ekwb-praesentiert-full-cover-wasserblock-fuer-die-amd-radeon-rx-vega.html
http://cdn01.hardwareluxx.de/razuna/assets/1/8A5C69A29A0740548B0E38D2AF3A3CD5/img/957E68CB66AA4ED7A3D062A8D66C4A10/EK-FC_Radeon_Vega_1_957E68CB66AA4ED7A3D062A8D66C4A10.jpg
Botcruscher
2017-08-02, 23:08:53
Hast du dir die selbe Frage auch beim Pascaldesign gestellt? :rolleyes: Was haben Fiji nochmal die vielen SPs letztendlich gebracht zum damaligen Zeitpunkt?
Doom.
Was soll an Pascal schlecht sein? Von dem Taktboost träumt AMD.
dargo
2017-08-02, 23:09:12
Am Ende bleiben es nur 30% auf 28nm Fiji. In BF1/Doom nicht mal das, weil Fiji da seine Leistung ausfahren kann.
Manchmal glaube ich echt ich rede mit einer Wand. Was glaubst du wohl wo Vega vs. Fiji stehen wird wenn Doom FP16 bekommt? Und erst recht wenn id sich mit den zusätzlichen 40 Shader Intrinsics auseinander setzt? Auf letzteres tippe ich zwar jetzt nicht unbedingt. Dann wirst du das volle Potenzial von RX Vega halt erst mit Wolfenstein 2 Ende Oktober sehen.
Doom.
Ich sprach vom Releasedate von Fiji. :rolleyes: Fiji kam Juni 2015. Doom wurde in Mai 2016 veröffentlicht. Der Vulkanpatch kam noch paar Monate später.
Was soll an Pascal schlecht sein? Von dem Taktboost träumt AMD.
Von den Shadereinheiten die Vega bietet kann NV nur träumen. :P
Digidi
2017-08-02, 23:20:20
Doom.
Was soll an Pascal schlecht sein? Von dem Taktboost träumt AMD.
Dafür träumt Nvidia gerade vom Primitive shader und nun?
Wann begreifen die Menschen das Takt nicht alles ist, es ist ein wichtiger Punkt aber nur ein Teilaspekt von vielen.
AMD Taktet nicht hoch weil viele Transistoren verbaut wurden. Dafür gibt's aber Primitive Shader, HBCC etc. etc.
horn 12
2017-08-02, 23:22:37
Wo bitte bleibt:
@Nakai
oder
@Ailuros
Jene sollten wissen was Sache ist bei Vega und ob wir die Überraschung erleben in 12 Tagen oder ob sich AMD da blutig hart tun wird.
Digidi
2017-08-02, 23:24:05
Wo bitte bleibt:
@Nakai
oder
@Ailuros
Jene sollten wissen was Sache ist bei Vega und ob wir die Überraschung erleben in 12 Tagen oder ob sich AMD da blutig hart tun wird.
Da wird nicht viel kommen in 2 Wochen, aber in einem halben Jahr können wir gerne noch mal drüber reden.
MartinRiggs
2017-08-02, 23:24:53
Von den Shadereinheiten die Vega bietet kann NV nur träumen. :P
Mein Auto hat 450PS, fährt aber leider nur 120 KM/H....:lol:
Ich wette das selbst in Wolfenstein 2 Vega kein Land gegen die 1080Ti sieht.
Vega ist vielleicht in Anwendungen gut, aber was bringt mir das als Zocker?
Ich kaufe mir eine neue Grafikkarte um die dementsprechende Leistung zu haben und nicht damit vielleicht irgendwann(vielleicht im Oktober:confused:) in einem Spiel meine Grafikkarte mal eine wirklich überzeugende Performance hinlegt.
StefanV
2017-08-02, 23:25:01
Nur ist das Marketing BS übelster Sorte. Künstliches Limit auf fucking 2GB! In Worten ZWEI! _KÜNSTLICH_!
Du hast den Sinn der Übung nicht verstanden.
Der Sinn davon ist zu zeigen, wie (gut) HBCC funktioniert und was passiert, wenn der Speicher aus geht.
Und dafür ist die Limitierung auf 2GiB sehr gut geeignet. Denn bei den Settings limitiert das ja wohl sehr stark - und genau DAS wollte man demonstrieren, was passiert, wenn der Speicher auf der Karte aus ist.
Wie sollte man es deiner Meinung nach sonst machen?!
Man hätte auch das ganze noch weiter limitieren können...
scully1234
2017-08-02, 23:26:32
FP16 macht bei den Transistoren ja wohl die kleinste Steigerung aus.:rolleyes:
.
Die nächste Sau die durchs Dorf getrieben wird, nachdem nun das TBR als Hoffnungsträger abgefrühstückt ist
ob wir die Überraschung erleben in 12 Tagen.
ganz gewiss sogar, die seltsamen Folien ,sprechen da eine unmissverständliche Sprache
Schnoesel
2017-08-02, 23:29:30
Erste Full-Cover-Kühler.
https://www.hardwareluxx.de/index.php/news/hardware/wasserkuehlung/43899-ekwb-praesentiert-full-cover-wasserblock-fuer-die-amd-radeon-rx-vega.html
http://cdn01.hardwareluxx.de/razuna/assets/1/8A5C69A29A0740548B0E38D2AF3A3CD5/img/957E68CB66AA4ED7A3D062A8D66C4A10/EK-FC_Radeon_Vega_1_957E68CB66AA4ED7A3D062A8D66C4A10.jpg
Das ging schneller als gedacht. Mal sehen wann watercool und aquacomputer nachziehen.
Dir ist aber schon klar, dass so eine Gameentwicklung paar Jährchen dauert bzw. Vorlauf braucht? Das erste Feature Rapid Packed Math kommt bereits in Oktober mit Wolfenstein 2. Nicht zuletzt dank der guten Zusammenarbeit mit id sondern auch weil die PS4 Pro dieses Feature zuerst mit doppeltem Durchsatz beherrschte. Von Farcry 5 wissen wir bereits auch, dass FP16 genutzt wird.
Jo. Das ist nix.
Die üblichen verdächtigen die da gescheite Entwicklungen machen, bei Ubisoft stehts eher 50:50, die zähle ich jetzt nicht zu den zuverlässigen.
So, weiter, was ändert das daran? Nix.
Es sind wiedereinmal nur die üblichen paar Verdächtigen (an einer Hand) die gut-sehr gut auf Vega laufen werden.
Nächstes Jahr vielleicht(!) noch Star Citizen...
Aber was solls. In 8 Jahren zählt ohnehin nur eins: Guns, Coins and Beans.
dargo
2017-08-02, 23:30:47
Du hast den Sinn der Übung nicht verstanden.
Der Sinn davon ist zu zeigen, wie (gut) HBCC funktioniert und was passiert, wenn der Speicher aus geht.
Und dafür ist die Limitierung auf 2GiB sehr gut geeignet. Denn bei den Settings limitiert das ja wohl sehr stark - und genau DAS wollte man demonstrieren, was passiert, wenn der Speicher auf der Karte aus ist.
Für den einen oder anderen reicht der Horizont dafür halt nicht aus. Vielleicht verstehen es diese Leute erst wenn Vega 11 und/oder APUs mit weniger als 8GB Speicher kommen. Andere Möglichkeit... wenn das erste Spiel kommt wo 8GB ohne HBCC nicht mehr reichen.
Digidi
2017-08-02, 23:32:28
Kann die Diskussion hier bitte Sachlich weitergehen?
Locuza
2017-08-02, 23:35:40
Manchmal glaube ich echt ich rede mit einer Wand. Was glaubst du wohl wo Vega vs. Fiji stehen wird wenn Doom FP16 bekommt? Und erst recht wenn id sich mit den zusätzlichen 40 Shader Intrinsics auseinander setzt? Auf letzteres tippe ich zwar jetzt nicht unbedingt. Dann wirst du das volle Potenzial von RX Vega halt erst mit Wolfenstein 2 Ende Oktober sehen.
[...]
Von den Shadereinheiten die Vega bietet kann NV nur träumen. :P
1. Die ISA wurde um 40 neue Instruktionen erweitert, dass heißt nicht das 40 neue Shader Intrinsics dazu kommen und überhaupt für Spielentwickler gedacht sind.
2. Da tupfen sie sich vermutlich wirklich die feuchten Augen mit ein paar Dollarscheinen ab.
Und mit Volta bleibt AMD vermutlich kaum noch ein technischer Vorteil übrig.
Dafür träumt Nvidia gerade vom Primitive shader und nun?
Wann begreifen die Menschen das Takt nicht alles ist, es ist ein wichtiger Punkt aber nur ein Teilaspekt von vielen.
AMD Taktet nicht hoch weil viele Transistoren verbaut wurden. Dafür gibt's aber Primitive Shader, HBCC etc. etc.
WANN bringen Primitive Shader AMD etwas und wo?
AMDs Transistordichte ist kaum höher, als bei der Konkurrenz.
Digidi
2017-08-02, 23:38:20
1. Die ISA wurde um 40 neue Instruktionen erweitert, dass heißt nicht das 40 neue Shader Intrinsics dazu kommen und überhaupt für Spielentwickler gedacht sind.
2. Da tupfen sie sich vermutlich wirklich die feuchten Augen mit ein paar Dollarscheinen ab.
Und mit Volta bleibt AMD vermutlich kaum noch ein technischer Vorteil übrig.
WANN bringen Primitive Shader AMD etwas und wo?
AMDs Transistordichte ist kaum höher, als bei der Konkurrenz.
Primitive Shader bringt dann etwas wenn es in der Software intigriert ist und du Detailreiche Polyognenmodelle hast.
https://www.pcper.com/reviews/Graphics-Cards/AMD-Vega-GPU-Architecture-Preview-Redesigned-Memory-Architecture/Primitive-Sh
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-21.jpg
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/4.html
Botcruscher
2017-08-02, 23:45:30
Erkläre erst mal jemand die Einheit auf der Folie. :rolleyes:
Troyan
2017-08-02, 23:47:37
Soll wohl Milliarden sein. Aber "Giga" klingt viel besser. :lol:
BTW: 21 Mrd. Dreiecke kann man auch nur effizient mit Tessellation erstellen. Und ratet mal, welche Gruppe von Leuten sich seit Jahren massiv gegen Tessellation ausgesprochen haben? Lmao.
Digidi
2017-08-02, 23:49:36
Soll wohl Milliarden sein. Aber "Giga" klingt viel besser. :lol:
BTW: 21 Mrd. Dreiecke kann man auch nur effizient mit Tessellation erstellen. Und ratet mal, welche Gruppe von Leuten sich seit Jahren massiv gegen Tessellation ausgesprochen haben? Lmao.
Du hast es immer noch nicht gerafft oder? Polygonenoutput ist nicht Tesselation ;). Ich bin übrigens immer noch Tesselation. Die Polygonen gehören ins Grundmodell und nicht irgendwie über komische Mathematische Algorithmen hinzugefügt.
Nur zum Vergleich Nvidia hängt bei 10 Irgendwo rum. Das Ist der Polygonenoutput wird auch hier in der Beyond3d Suite gemessen.
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a1
derpinguin
2017-08-02, 23:49:38
Moderator hilfe wir brauchen Zwangspausen :rolleyes:
Würde helfen, wenn du das melden würdest. Den Post hier sieht man, wenn überhaupt, nur zufällig.
Opprobrium
2017-08-02, 23:51:08
Mein Auto hat 450PS, fährt aber leider nur 120 KM/H....:lol:
Schon die neue Software für den Dieselmotor eingespielt?
sorry
Ist doch eigentlich alles wie immer in den letzten Jahren:
AMD bringt fortschrittliche Technologie, kriegt die PS nicht sofort auf die Strasse (um bei Autos zu bleiben), kriegt dafür von der einen Seite aufs Maul, wird von der anderen Seite gehypt. Im Endeffekt ist Vega vermutlich weder so toll wie die Einen, noch so schlimm wie die Anderen behaupten, verbraucht etwas mehr Strom und ist definitv dazu in der Lage eine ansehenliche Grafik auf den Bildschirm zu zaubern. Vermutlich mit deutlichem Leistungsplus über die nächsten 6 bis 18 Monate im Vergleich zum Releasezeitpunkt, auch wenn es dann eh niemanden mehr interessiert weil dann schon Navi & Volta gegeneinander antreten.
Und das ganze Theater schon Wochen und Monate bevor es überhaupt erste Reviews gibt ;D
Troyan
2017-08-02, 23:52:47
Du hast es immer noch nicht gerafft oder? Polygonenoutput ist nicht Tesselation ;)
Natürlich ist es das. Das ist hier keine Geburt, wo der Storch die Dreiecke bringt. :rolleyes:
Nur zum Vergleich Nvidia hängt bei 10 Irgendwo rum. Das Ist der Polygonenoutput
12 Mrd. beim Cullen. Das sind 200 Mio. Dreicke pro Frame bei 60 Bilder pro Sekunde oder 24 Dreicke pro Pixel bei 4K.
Digidi
2017-08-02, 23:53:56
Natürlich ist es das. Das ist hier keine Geburt, wo der Storch die Dreiecke bringt. :rolleyes:
12 Mrd. beim Cullen. Das sind 200 Mio. Dreicke pro Frame bei 60 Bilder pro Sekunde. :rolleyes:
Nein ist es nicht:
https://simonschreibt.de/gat/renderhell-book2/
Das ist Punkt 3.9. Der ist sogar versteckt, weil Tesselation für die Grafikpipline erst mal nicht von Bedeutung ist
Jede GPU kommt ohne Tesselation aus. Aber keine GPU kommt ohne Polygonenoutput aus ;)
Und nein du must anderster rechnen. 10 Gigapolyonen sind 10.000 Mega Polyognen sind 10.000.000 Kilopolygonen sind 10.000.000.000. Polygonen und amd kann hier das 3x Fache!
Das heißt Nvidia kann 10 GigaPolygonen bearbeiten pro Sekunde und AMD hier 30 Giga Polyognen pro Sekunde bearbeiten.
In der Szene von Deus ex gibt es 220.000.000 Polygonen. Das heißt Nvidia könnte mit diesem Frame maximal 45 FPS die Sekunde auswerfen. AMD kann hier dank Primitive Shader 135 FPS auswerfen.
(10.000.000.000/220.000.000=45)
https://www.pcper.com/reviews/Graphics-Cards/AMD-Vega-GPU-Architecture-Preview-Redesigned-Memory-Architecture/Primitive-Sh
Birdman
2017-08-02, 23:54:41
Doch das kann er - er kann direkte memory reads und writes sogar auf Netzwerkspeicher durchführen.
Nein, nein und nochmals nein, er kann direkt keine Dateien auf einer Disk oder einem Netzwerkspeicher lesen, ist einfach nicht möglich - und das war die originale Aussage von MatMan.
Er kann sich auf nem Storage einen Bereich reservieren (Auf einem Disk Subsystem wird wird dann wohl als eine x GB/TB grosse Datei abgebildet, vergleichbar mit der vhd/vmdk einer VirtualMachine) und da drin dann seine Daten nach eigenem Gusto ablegen.
Da rein kommen die Daten aber auch nur via 3D API, OS, Filesystem, Memory und CPU und erst nachdem diese von der Applikation überhaupt mal angefordert wurden.
Der HBCC wird da auch nur Zeugs reinspeichern was zuvor mal im physischen VRAM der Grafikkarte drin war und dann mangels Platz für neue Daten rausgeschmissen werden musste.
Das (initiale) Laden von einem Spiel oder Level wird daher überhaupt nicht schneller. Ein Vorteil kann sich erst ergeben, wenn mal die Situation eintritt dass aus dem VRAM rausgeschmissene Daten erneut gebraucht werden.
basix
2017-08-03, 00:05:58
Nun könnte Vega die Daten in den RAM schreiben anstatt zu verwerfen, wenn die Spielszene ändert. Das wäre ja sehr einfach zu erledigen. Eine erneute Anfrage über die CPU kann ausbleiben und spart indirekt CPU-Last. Braucht insgesamt mehr RAM und evtl. aber nicht zwingend mehr PCIe Bandbreite, ja. Meiner Meinung nach wäre es ja sinnvoll, sehr Rechenintesive Dinge zu Cachen, welche aber nicht allzu viele Daten generieren und am besten 1zu1 wiederverwendet werden können. Solange man genug VRAM hat macht das letztgenannte sehr wahrscheinlich nicht sehr viel Sinn.
Wie gesagt, wie viel es bringt sehen wir beim Launch (bei irgend einem Spiel geistern +7% herum)
Locuza
2017-08-03, 00:13:12
Primitive Shader bringt dann etwas wenn es in der Software intigriert ist und du Detailreiche Polyognenmodelle hast.
[...]
Die Frage bleibt aufgrund unterschiedlicher Interpretationen die gleiche.
Wann und wo?
Gibt es dafür Erweiterungen in diesem Jahr? Im nächsten?
Welche Spiele werden es verwenden und wenn sie es verwenden, wie sieht die Performance dann aus?
Immerhin soll hier das Shader-Array aushelfen, dass wäre nicht mehr "gratis" im Vergleich zu einem reinem Fixed-Function-Block.
Von Marketing-Folien habe ich als Kunde nicht direkt etwas und die Konkurrenz bringt das auch nichts zweifelsfrei zum träumen.
[...]
BTW: 21 Mrd. Dreiecke kann man auch nur effizient mit Tessellation erstellen. Und ratet mal, welche Gruppe von Leuten sich seit Jahren massiv gegen Tessellation ausgesprochen haben? Lmao.
Du kannst sie so oder so erzeugen und wenn die neue Geometrie-Pipe flexibler beim programmieren ist und gute Performance aufweist, dann wäre das vorzuziehen, vor allem da Tessellation nur limitierte Anwendungsfälle aufweist und praktisch meistens so unnütz bleibt wie Geometry-Shader seit DX10.
Bleibt eben die Kernfrage oben, wann können das Entwickler verwenden und wie viel Masse kann das Feature binden?
Wenn es relativ gesehen fast keine Sau verwendet, ist das eine, als auch das andere leider nur für eine Nische gut
Digidi
2017-08-03, 00:13:56
Die Frage bleibt aufgrund unterschiedlicher Interpretationen die gleiche.
Wann und wo?
Gibt es dafür Erweiterungen in diesem Jahr? Im nächsten?
Welche Spiele werden es verwenden und wenn sie es verwenden wie sieht die Performance dann aus?
Immerhin soll hier das Shader-Array aushelfen, dass wäre nicht mehr "gratis" im Vergleich zu einem reinem Fixed-Function-Block.
Von Marketing-Folien habe ich als Kunde nicht direkt etwas und die Konkurrenz bringt das auch nichts zweifelsfrei zum träumen.
In Deus Ex muss da was in der mache sein. Deshalb auch dieser Artikel:
https://www.pcper.com/reviews/Graphics-Cards/AMD-Vega-GPU-Architecture-Preview-Redesigned-Memory-Architecture/Primitive-Sh
Hat AMD nicht auch leztens ein Gegenpart zu Gameworks ins spiel geworfen und die Hauseigenen Entwickler in diesem Bereich aufgestockt?
Wobei ich diese Entwicklung nicht begrüße
Dino-Fossil
2017-08-03, 00:15:58
Meine persönliche Meinung dazu:
All die schönen theoretischen (noch?) AMD-Exklusiven Features, die leider gesondert von den Engineentwicklern angesprochen werden müssen bringen AMD erstmal fast nichts.
Und da liegt der Hund begraben, denn unterm Strich haben sie dadurch mit Vega einen ineffizienten, großen und vermutlich teuren Chip von dem bei den allermeisten Leuten hängen bleibt: too little, too late.
Die "Elite" von erleuchteten Forumisten, die sich an den technischen Details erfreuen kann wird AMD den Karren nicht aus dem Dreck ziehen (davon abgesehen, dass nVidia durchaus auch innovativ ist).
Man kann anerkennen, dass sie da ein paar interessante Ansätze verfolgen, aber was sie bräuchten wäre einfach nur eine Karte die jetzt konsistent effizient und schnell ist. Nicht erst in 2 Jahren in den paar Spielen, die dann die tollen Dinge unterstützen, die Vega jetzt schon wirklich gut kann - wenn man die Karte in der richtigen Mondphase bei sanfter Jazzmusik an der richtigen Stelle streichelt.
Gipsel
2017-08-03, 00:24:20
Nein, nein und nochmals nein, er kann direkt keine Dateien auf einer Disk oder einem Netzwerkspeicher lesen, ist einfach nicht möglich - und das war die originale Aussage von MatMan.
Er kann sich auf nem Storage einen Bereich reservieren (Auf einem Disk Subsystem wird wird dann wohl als eine x GB/TB grosse Datei abgebildet, vergleichbar mit der vhd/vmdk einer VirtualMachine) und da drin dann seine Daten nach eigenem Gusto ablegen.
Da rein kommen die Daten aber auch nur via 3D API, OS, Filesystem, Memory und CPU und erst nachdem diese von der Applikation überhaupt mal angefordert wurden.
Der HBCC wird da auch nur Zeugs reinspeichern was zuvor mal im physischen VRAM der Grafikkarte drin war und dann mangels Platz für neue Daten rausgeschmissen werden musste.
Das (initiale) Laden von einem Spiel oder Level wird daher überhaupt nicht schneller. Ein Vorteil kann sich erst ergeben, wenn mal die Situation eintritt dass aus dem VRAM rausgeschmissene Daten erneut gebraucht werden.Zusätzliche Möglichkeit:
Eine (Profi-)Anwendung, die sich der Fähigkeiten bewußt ist, öffnet die Dateien mit den benötigten Daten als memory mapped Files und dann macht die GPU ihr Ding (und das OS dann auch). Wäre eine nette Interaktion des GPU- und CPU-Speichermanagements.
Digidi
2017-08-03, 00:40:31
@Locuza
Mantle (Hust.. Dx12/Vulkan) hat man auch erfolgreich in den Markt gepresst ;)
Mit Bethesda hat man eine Kooperation und EA hat wegen der Reichweite schon immer ein Interesse daran AMD Features einzusetzen.
Und Ubisoft dürfte nach den ganzen Gameworks Desastern auch nicht abgeneigt sein.
Screemer
2017-08-03, 00:56:20
Null. Vega ist deutlich teurer als Polaris, liefert aber keine wirklich bessere Leistung als Miner Karte. Miner modifizieren das Bios der Karte gleich selbst, und overclocken auch kräftig.
claymore ist noch broken auf vega. da wird aber hart daran geschraubt. ich gehe von deutlich höherer performance vega in kürzester zeit aus. mit 17.7.2 und dem aktuellen claymore soll z.b. das degrading mit steigender dag gefixt sein.
Locuza
2017-08-03, 01:00:03
@Locuza
Mantle (Hust.. Dx12/Vulkan) hat man auch erfolgreich in den Markt gepresst ;)
Und wie sehr hat Mantle/DX12/Vulkan GCN Produkten gegenüber der Konkurrenz geholfen?
Wenn die neue Geo-Pipe ein Standard wird, dann kann man von mir aus AMD für eine bessere Welt danken, ihre Produkte werden deswegen aber nur die Wenigsten kaufen.
Das Problem ist das man als Kunde viele Sachen (zu) spät bekommt und AMD kein Kapital daraus schlagen kann.
Was für ein enormes Potential der Konsolendeal hat(te) und AMD konnte nur wenig damit anfangen, da die APIs zu spät kamen, da die Shader-Intrinsics zu spät kamen, da zu Finanzen für Kooperationen gefehlt haben.
Das mit Bethesda klingt gut, aber AMD muss diesmal selbst die Grundperformance ihrer Produkte hochziehen.
Mit Volta habe ich sowieso kaum noch Hoffnung für diese Runde.
StefanV
2017-08-03, 01:35:51
Die nächste Sau die durchs Dorf getrieben wird, nachdem nun das TBR als Hoffnungsträger abgefrühstückt ist
Genau wie damals bei nV30...
Wenn ich im Forum suche, werde ich dann auch Beiträge von dir finden, in denen du auf FP16 bei den FXen hoffst??
Das hab ich schon vor ein paar Seiten geschrieben, dass FP16 schon ein Pixelshader 2.0 Zeugs war. Nur damals für die grünen, nicht die roten. So what?!
Warum kann man nicht einfach drüber stehen und den anderen ihren Spass lassen? WARUM??
mczak
2017-08-03, 01:40:52
Zusätzliche Möglichkeit:
Eine (Profi-)Anwendung, die sich der Fähigkeiten bewußt ist, öffnet die Dateien mit den benötigten Daten als memory mapped Files und dann macht die GPU ihr Ding (und das OS dann auch). Wäre eine nette Interaktion des GPU- und CPU-Speichermanagements.
Eine nette Idee, glaube aber nicht dass das vernünftig funktionieren würde. Die GPU hätte Texturdaten sehr gerne Tiled (und ausserdem häufig noch mit alignment-Einschränkungen) man kann also nicht so tun als würden die Daten quasi so wie sie die GPU benötigt schon im System-Ram liegen wo sie dann z.B. seitenweise angefordert werden. Man kommt wohl kaum darum herum die zuerst per GPU-Blit zu "konvertieren", sonst würde das wohl sehr ineffizient.
Gipsel
2017-08-03, 02:24:56
Eine nette Idee, glaube aber nicht dass das vernünftig funktionieren würde. Die GPU hätte Texturdaten sehr gerne Tiled (und ausserdem häufig noch mit alignment-Einschränkungen) man kann also nicht so tun als würden die Daten quasi so wie sie die GPU benötigt schon im System-Ram liegen wo sie dann z.B. seitenweise angefordert werden. Man kommt wohl kaum darum herum die zuerst per GPU-Blit zu "konvertieren", sonst würde das wohl sehr ineffizient.
Zuerst sprach ich ja von Profianwendungen und deren Daten, also z.B. irgendwelche -zig GB bis TB an Werten für irgendwelche Simulationen oder Visualisierungen. Aber selbst für Texturen wäre das durchaus möglich (zumindest wenn die als BCx und nicht besser komprimiert z.B. als jpg vorliegen und erst vom Streamingsystem entpackt werden müssen). Die kann man nämlich auch schon im richtigen Layout auf die Platte legen. Übrigens können die DMA-Engines bei Transfers das Layout on-the-fly anpassen. Warum sollte das nicht auch bei der Hardware-Paging-Engine des HBCC möglich sein?
BlacKi
2017-08-03, 02:45:50
bin gespannt ob die leaks nicht fake sind. http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
mczak
2017-08-03, 03:32:04
Zuerst sprach ich ja von Profianwendungen und deren Daten, also z.B. irgendwelche -zig GB bis TB an Werten für irgendwelche Simulationen oder Visualisierungen. Aber selbst für Texturen wäre das durchaus möglich (zumindest wenn die als BCx und nicht besser komprimiert z.B. als jpg vorliegen und erst vom Streamingsystem entpackt werden müssen).
Auch BCx sind wenn ich mich richtig erinnere zusätzlich getiled.
Die kann man nämlich auch schon im richtigen Layout auf die Platte legen.
Ok ja das würde natürlich gehen (dann muss man das bloss einmal tun pro neue Grafikkarte in der Theorie...).
Übrigens können die DMA-Engines bei Transfers das Layout on-the-fly anpassen. Warum sollte das nicht auch bei der Hardware-Paging-Engine des HBCC möglich sein?
Ich habe nicht gesagt dass es nicht geht nur dass es ineffizient wäre - weil dann eben die Daten nicht aus einer Seite des Speichers kommen sondern vielleicht aus 32. Wenn du die Blöcke dann auch noch alle von der HD laden musst weil sie auch nicht im Hauptspeicher sind ist dann die Latenz nicht mehr so schön...
gravitationsfeld
2017-08-03, 05:36:48
Das tiling fuer Cache-Optimierung ist bei GCN lokalisiert und hat eine Granularitaet kleiner als die 64KiB-Pages. Sonst wuerde PRT (aka sparse textures) ja auch nicht funktionieren.
Und das swizzling innerhalb der Pages kann wie Gipsel schon sagte die DMA-Einheit erledigen (was sie auch bei normalen Texture-Uploads macht btw).
decimad2
2017-08-03, 06:35:56
Wenn der HBCC ein 32*32-Block einer Textur wünscht und das dann in 32 Transfers verteilt über den Host-Speicher übersetzt wird, weil die Textur nicht blockweise vorliegt, stelle ich mir das auch arg ineffizient vor.
Das ist ja eine etwas andere Situation als wenn die Engine sagt: Lad mir mal die Textur hoch, weil dann ja eben das komplette Teil hochgeladen wird und dann ohne "Verschnitt" dort neu organisiert werden kann.
decimad2
2017-08-03, 06:39:54
Andererseits kann ja nun auch der Host-Speicher als L99 verwaltet sein, sodass die Texturen in jedem Fall erstmal einen Roundtrip über PCIe machen und dann eben im richtigen Format im RAM zu liegen kommen, wenn der HBCC die Teile auslagert.
AMDoderNvidia
2017-08-03, 06:55:25
Was soll an Pascal schlecht sein? Von dem Taktboost träumt AMD.
AMD Taktet nicht hoch weil viele Transistoren verbaut wurden.
Wie jetzt? :D
Sooo schlecht ist der Takt von Vega doch gar nicht. Statt bisher ca. 1 GHz sind sie nun beim (Herstellter-)Boost von 1.6 GHz und da soll noch mehr drin sein.
Und zu den Transistoren: Da ist es doch genau andersrum: Erst durch das Verbauen von zusätzlichen Transistoren war dieses Hochtakt-Design möglich (darüber hatte doch pcgh.de erst kürzlich berichtet).
G3cko
2017-08-03, 07:10:49
Mein Auto hat 450PS, fährt aber leider nur 120 KM/H....:lol:
Ich wette das selbst in Wolfenstein 2 Vega kein Land gegen die 1080Ti sieht.
Vega ist vielleicht in Anwendungen gut, aber was bringt mir das als Zocker?
Ich kaufe mir eine neue Grafikkarte um die dementsprechende Leistung zu haben und nicht damit vielleicht irgendwann(vielleicht im Oktober:confused:) in einem Spiel meine Grafikkarte mal eine wirklich überzeugende Performance hinlegt.
Wieder einer der es nicht verstanden hat. Wenn AMD beim Release nicht teurer ist als Nvidia, tut es Niemandem weh wenn die Karten Leistungsmäßig über die Zeit zulegen.
Digidi
2017-08-03, 07:34:57
Und wie sehr hat Mantle/DX12/Vulkan GCN Produkten gegenüber der Konkurrenz geholfen?
Wenn die neue Geo-Pipe ein Standard wird, dann kann man von mir aus AMD für eine bessere Welt danken, ihre Produkte werden deswegen aber nur die Wenigsten kaufen.
Das Problem ist das man als Kunde viele Sachen (zu) spät bekommt und AMD kein Kapital daraus schlagen kann.
Was für ein enormes Potential der Konsolendeal hat(te) und AMD konnte nur wenig damit anfangen, da die APIs zu spät kamen, da die Shader-Intrinsics zu spät kamen, da zu Finanzen für Kooperationen gefehlt haben.
Das mit Bethesda klingt gut, aber AMD muss diesmal selbst die Grundperformance ihrer Produkte hochziehen.
Mit Volta habe ich sowieso kaum noch Hoffnung für diese Runde.
Und ewig drehst du dich im Hamster Rad. Nur du als Konsument kannst es mit deiner Wahl Ändern. Aber genau dafür fehlt hier vielen das Verständnis, das man vielleicht Mal auf 10% verzichtet oder etwas länger wartet um später bessere Produkte zu haben.
G3cko
2017-08-03, 07:38:55
Das ging schneller als gedacht. Mal sehen wann watercool und aquacomputer nachziehen.
Zu Watercool
https://www.hardwareluxx.de/community/f137/watercool-produktinfo-278904-161.html#post25719053
horn 12
2017-08-03, 07:41:40
Pros:
Finally an AMD card at the high(ish) end of the market
Has the performance to be worthy of pairing with the high-res, 144hz Freesync monitors on the market
Competitive with the GTX 1080 in performance now at about the same price
Might eventually end up cheaper than and/or be a little faster than the 1080 with driver updates
Cons:
Coming out a year after the card it directly competes with and is not a clear winner on performance or value
Cannot match the top-of-the-line Nvidia cards
Higher power draw than the competition
Might be superseded by new Volta cards from Nvidia relatively quickly
Edit: This list is primarily for the Vega 64 but basically swap "1070" in the above for "1080" for Vega 56
Von reddit.com kopiert
Hier der Link:
https://www.reddit.com/r/Amd/comments/6r7oj0/rx_vega_why_should_i_be_excited_about_it_why_and/
Complicated
2017-08-03, 08:08:16
Nein, nein und nochmals nein, er kann direkt keine Dateien auf einer Disk oder einem Netzwerkspeicher lesen, ist einfach nicht möglich - und das war die originale Aussage von MatMan.
Ja und die ist einfach falsch.
Beantworte doch mal die Fragen die ich aufgeworfen habe wie es funktionieren soll die Texturen eines Spiels von der Festplatte zu laden. Das waren Denkanstöße, die aufzeigen sollten, dass der HBCC das nicht leisten kann.
Das habe ich schon mehr als ausführlich hier im Thread getan, Ich kann nichts dafür wenn du zu spät zur Party kommst. Das ist ein Forum und du kannst das in Ruhe nachlesen was im Mai hier schon besprochen wurde.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11385840#post11385840
Die selbe Haltung mit der selben Verbohrtheit haben hier auch schon andere gezeigt.
Grendizer
2017-08-03, 08:11:37
Pros:
Finally an AMD card at the high(ish) end of the market
Has the performance to be worthy of pairing with the high-res, 144hz Freesync monitors on the market
Competitive with the GTX 1080 in performance now at about the same price
Might eventually end up cheaper than and/or be a little faster than the 1080 with driver updates
Cons:
Coming out a year after the card it directly competes with and is not a clear winner on performance or value
Cannot match the top-of-the-line Nvidia cards
Higher power draw than the competition
Might be superseded by new Volta cards from Nvidia relatively quickly
Edit: This list is primarily for the Vega 64 but basically swap "1070" in the above for "1080" for Vega 56
Von reddit.com kopiert
Hier der Link:
https://www.reddit.com/r/Amd/comments/6r7oj0/rx_vega_why_should_i_be_excited_about_it_why_and/
Ok das hört sich gut an. Da sehe ich dann gerade zu dem Preispunkt richtig gute Chancen für Vega 56. Damit ist das meiner Meinung nach die ideale Karte für 1440p.
Es zeichnet sich ein Bild ab:
Gleicher Preis wie 1070 -> V56 deutlich schneller als diese
Gleicher Preis wie 1080 -> V64 deutlich schneller als diese (hier ist die FE ja schon verdammt nah dran)
Damit hat AMD doch eigentlich alles richtig gemacht. Mit mehr Treiberarbeit wird man sicherlich der 1080Ti nahe kommen und somit GV104 einigermaßen in Schach halten können denke ich. GV102 kann man vielleicht mit V20 kontern, bei noch mehr Stromverbrauch vermutlich - vllt setzt man hier auch auf 14LPU oder gar HP, was ebenfalls was bringen könnte. Wehrmutstropfen ist halt wieder der Stromverbrauch, was, denke ich, wieder an den geringen Optimierungsmöglichkeiten bei 14LPP liegen dürfte. Erst 7nm soll ja die Möglichkeit mitbringen, Transistoren einzeln zu optimieren, so wie bei TSMCs 16nm. Deswegen sprach AMD auch von deutlich komplexeren Designs für 7nm mMn.
Grendizer
2017-08-03, 08:25:21
Es zeichnet sich ein Bild ab:
Gleicher Preis wie 1070 -> V56 deutlich schneller als diese
Gleicher Preis wie 1080 -> V64 deutlich schneller als diese (hier ist die FE ja schon verdammt nah dran)
...
;D
dildo4u
2017-08-03, 08:26:17
Die Karten werden bei den Reviews unter den Nvidia Karten liegen,da dort viel mehr DX11 gebencht wird.Vega wird 2018 besser aussehen aber da ist dann halt auch Volta im Markt,1080 Performance für 120 Watt sind dann möglich.
Grendizer
2017-08-03, 08:30:15
Die Karten werden bei den Reviews unter den Nvidia Karten liegen,da dort viel mehr DX11 gebencht wird.Vega wird 2018 besser aussehen aber da ist dann halt auch Volta im Markt,1080 Performance für 120 Watt sind dann möglich.
Was ich hier aber mal einwerfen will. DX11 gegen DX12. Ist ja nicht so, das man durch die Verwendung von DX12 per se bessere Grafikeffekte bekommt.
Screemer
2017-08-03, 08:32:56
Was ich hier aber mal einwerfen will. DX11 gegen DX12. Ist ja nicht so, das man durch die Verwendung von DX12 per se bessere Grafikeffekte bekommt.
Den Einwurf gab es in diesem Thread ca. alle 10 Seiten. Also ca. 53x Diskussionen dazu und genau so oft war es off topic. Verdammte kacke.
Eine Sache noch dazu: Wenns anders wäre, hätten sie andere Preise abgerufen. Der DSBR funktioniert auch in DX11 :D.
Als wenn das jetzt so ein Nachteil wäre... :freak:
Mal zu V20: Ich gehe davon aus, dass 7nm mit 64NCUs einfach BS waren, der sieht nicht so aus, das macht 0 Sinn. 7nm ist Navi. V20 wird eine Profivariante sein, die ebenfalls in den Consumerbereich einsickern wird. Und nein, es macht definitiv keinen Sinn, 2 Chips mit jeweils 64NCUs in 14nm zu designen. Ich vermute für V20 daher folgendes:
- 80 NCUs
- 14HP
- 1:2 DP
- keine Spezialcores, so ein Chip kann sich für AMD nicht rechnen
- deutlich >600mm²
- >350W TDP
- 4 HBM-Stacks
Dieser Chip wird sicherlich wieder einige Jahre aktuell sein im HPC-Bereich.
Palpatin
2017-08-03, 09:02:04
Die Karten werden bei den Reviews unter den Nvidia Karten liegen,da dort viel mehr DX11 gebencht wird.Vega wird 2018 besser aussehen aber da ist dann halt auch Volta im Markt,1080 Performance für 120 Watt sind dann möglich.
Ich rechne bei halbwegs aktuellen Pakours (Computerbase) mit einem Patt zwischen Vega64 Luft und 1080FE ( wie 1060(9gb)vs RX580). Die Wakü zwischen 5 und 10% drüber die Vega56 gut 10%-15% darunter.
dildo4u
2017-08-03, 09:06:05
Hier sieht man z.b was für ein Unterschied DX11 vs 12 bei BF1 macht.
http://abload.de/img/ib1cp7zda.png
Screemer
2017-08-03, 09:07:18
Nicht schon wieder.
X-Bow
2017-08-03, 09:09:46
@Dildo: Der Vergleichstest wirkt relativ alt, wie viel Treiberupdates liegen den zwischen den damals verwendeten Treibern und den Treibern wo AMD verwendet hat? (Für die NV Karten)
Grendizer
2017-08-03, 09:10:12
Nicht schon wieder.
Wen laufend behauptet wird das die Vega schneller als eine 1080 ist.:biggrin:
Screemer
2017-08-03, 09:13:23
Wenn die kolportierten ~30% auf fury stimmen, was an sich schon fail genug wäre, dann ist sie das durchaus in beiden apis. Sogar in Dildos Hand selektierten Beispielen. Just do the fucking math and don't post every bloob that runns through your head.
Mangel76
2017-08-03, 09:15:14
Die Karten werden bei den Reviews unter den Nvidia Karten liegen,da dort viel mehr DX11 gebencht wird.
Vielleicht ist es dir entgangen, aber auch bei den AMD-Benchmarks (zumindest UHD) waren 4 von 11 DX11-Spiele, siehe https://www.3dcenter.org/news/die-amd-eigenen-benchmarks-zur-radeon-rx-vega-64. FC Primal und Fallout 4 gleichauf, Overwatch ca. 10% zurück und COD IW +>100% (Was ist da eigentlich mit der 1080 los? Die ist schlechter als die 980Ti!)
Zudem sind diese Werte noch mit sehr viel Vorsicht zu behandeln. Es sind keine avgfps sondern Durchschnitts-FPS der 1% langsamsten????:confused:
Doom sieht auch sehr komisch aus, in QHD deutlich vor der Fury X, in UHD dahinter, wobei die Fury X so gut wie nichts durch den Auflösungswechsel verliert???
dargo
2017-08-03, 09:18:43
COD IW +>100% (Was ist da eigentlich mit der 1080 los? Die ist schlechter als die 980Ti!)
Angeblich kaputter NV-Treiber.
Doom sieht auch sehr komisch aus, in QHD deutlich vor der Fury X, in UHD dahinter, wobei die Fury X so gut wie nichts durch den Auflösungswechsel verliert???
Wurde auch schon öfter gesagt. Ich weiß es ist heutzutage nicht ganz einfach. Aber manche Spiele reduzieren automatisch Details wenn der Vram nicht reicht. Bei solchen Ungereimheiten sollte man das immer im Hinterkopf behalten.
Screemer
2017-08-03, 09:20:12
COD IW +>100% (Was ist da eigentlich mit der 1080 los? Die ist schlechter als die 980Ti!)
Zudem sind diese Werte noch mit sehr viel Vorsicht zu behandeln. Es sind keine avgfps sondern Durchschnitts-FPS der 1% langsamsten????:confused:
Bug in genau dem Treiber den AMD verwendet hat und der bis zur Präsentation der aktuellste war. Der führte dazu, dass die minfps über die Zeit immer niedriger wurde. Ist im aktuellen Treiber gefixt. Find grad allerdings die releasenotes nicht in denen das stand. Vielleicht kann da jemand anderes aushelfen?
DrFreaK666
2017-08-03, 09:41:15
wurde das schon gepostet??
http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
|MatMan|
2017-08-03, 09:41:26
Das habe ich schon mehr als ausführlich hier im Thread getan, Ich kann nichts dafür wenn du zu spät zur Party kommst. Das ist ein Forum und du kannst das in Ruhe nachlesen was im Mai hier schon besprochen wurde.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11385840#post11385840
Die selbe Haltung mit der selben Verbohrtheit haben hier auch schon andere gezeigt.
Ich habe den kompletten Thread mitgelesen, auch den Teil wo du schon andere Leute mit Sachverstand ignoriert hast und lieber blind dem Marketing vertraust. Wie schon geschrieben, du kannst gerne glauben, dass der HBCC Texturen eines Spiels direkt von der Festplatte lesen kann und damit Nachladeruckler verhindert (glauben kann man in der Kirche, was bei den teilweise religiösen Zügen hier ja irgendwie passend ist).
Zum Topic: Ich hoffe es gibt zum Launch ausführliche Tests mit diesem Tool, das nachgewiesen hat, dass der TBR bei Vega FE nicht aktiv ist. Man müsste daran Unterschiede zu nVidias Ansatz erkennen und ableiten können, warum TBR bei Vega scheinbar nicht so viel bringt. Vielleicht sind die Tiles kleiner?
Screemer
2017-08-03, 09:46:38
wurde das schon gepostet??
http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
Jap hier
bin gespannt ob die leaks nicht fake sind. http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
Hat aber keinen interessiert...
deekey777
2017-08-03, 09:50:58
Jap hier
Hat aber keinen interessiert...
Sie erholen sich noch von dem Schock. X-D
Im Erst:
Die Vega 56 scheint die interessantere Grafikkarte zu sein.
THEaaron
2017-08-03, 09:51:31
Sollte Vega56 etwas schneller als die 1070 sein und dabei nicht mehr als 400€ kosten bin ich dabei. Bei allem anderen bleibe ich noch meiner 390 treu und warte den Jahreswechsel ab.
Wird aber Zeit für offizielles. Diese Leaks und Infohäppchen sind alle doof. ;(
Screemer
2017-08-03, 09:52:50
Sie erholen sich noch von dem Schock. X-D
Im Erst:
Die Vega 56 scheint die interessantere Grafikkarte zu sein.
Ach man hat auf den einzigen interessanten post seit gefühlten 15 seiten, einfach noch mal 2 seiten OT und derailing folgen lassen. Vega ist doch jetzt schon scheiße...
Menace
2017-08-03, 09:53:30
Hat aber keinen interessiert...
Oh, sogar sehr. Eine "Danke"-Button wäre manchmal sehr hilfreich. @ Moderatoren :rolleyes:
Allerdings sind mir hier in letzter Zeit wieder zu viele der typischen Marodeure unterwegs.
AffenJack
2017-08-03, 09:54:18
wurde das schon gepostet??
http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
Ich bin gespannt ob sich das bewahrheitet. Sollte es so sein, dann ist Vega56 wohl ziemlich nah an Vega64 dran. So -15%. Bedenkt man den Gflops und Bandbreitenunterschied würde Vega wohl nicht so sehr an der Bandbreite hängen, sondern wäre eher mal wieder Front-End oder Rop limitiert.
Die Vega 56 scheint die interessantere Grafikkarte zu sein.
Mit Gewissheit, ohne das getestet zu haben. Die CU-Differenz wird wieder zu vernachlässigen sein und dank des geringeren Verbrauchs werden leise Designs möglich, evtl. sogar mit Dual-Slot-Kühlung.
MfG,
Raff
dargo
2017-08-03, 09:57:06
Jap hier
Hat aber keinen interessiert...
Doch... mich. Nur muss man jetzt auf jeden unbestätigten Leak eingehen damit es hier wieder seitenlang einen Grabenkrieg gibt?
Im Erst:
Die Vega 56 scheint die interessantere Grafikkarte zu sein.
Das hatte ich schon viele Seiten zuvor gesagt. 210W hören sich einfach "sexy(ger)" an als 295W bei grob ~15% weniger Leistung. Nix gegen Vega 64. Wäre ich der Wakü-Typ würde mich das auch nicht jucken.
Edit:
Bei den Customs von Vega 56 bin ich mir allerdings ziemlich sicher, dass viele Partner Richtung 225-250W gehen werden.
Grendizer
2017-08-03, 10:02:38
Die Werte bestätigen, das die Vega 56 genau die richtige Karte für 1440p sein wird. Da ist sie der 1070 wohl deutlich voraus. Wenn der Preis stimmt und nicht durch Verfügbarkeitsprobleme oder Mining Hamsterkäufe negativ beeinflußt wird, wird das definitv ein Verkaufsschlager.
Edit: Das ist ja das Ergebnis, das man auch für Vega 64 erwarten mußte. Eine deutlich bessere Performance als die 1080. Bei der Vega 56 stimmt das Ergebnis, aber das kann ja nicht das Ziel von AMD gewesen sein.
dargo
2017-08-03, 10:08:52
Ich bin gespannt ob sich das bewahrheitet. Sollte es so sein, dann ist Vega56 wohl ziemlich nah an Vega64 dran. So -15%. Bedenkt man den Gflops und Bandbreitenunterschied würde Vega wohl nicht so sehr an der Bandbreite hängen, sondern wäre eher mal wieder Front-End oder Rop limitiert.
Geht das schon wieder los? :D
Von den Rohdaten her liefert Vega 56 17% weniger als Vega 64 (ich kann hier aktuell nur die Boostdaten vergleichen, wenn der eine in der Praxis etwas anders boostet als der andere kommt es hier zu minimalen Verschiebungen), auch was die Bandbreite angeht. Wie naheliegend ist es dann wohl, dass Vega 56 ca. 15% langsamer sein wird? Für mich bedeutet das perfekt ausbalanciert.
AffenJack
2017-08-03, 10:09:12
Sind eher Fake Werte nach dem Vergleich mit AMDs Folien:
https://pics.computerbase.de/7/9/3/4/8/4-1080.196971914.png
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/
BF1 und Doom herrscht nach AMD Gleichstand. Wie soll Vega56 da 30% schneller als die GTX1070 sein? Da wäre sie genauso schnell wie Vega 64.
foenfrisur
2017-08-03, 10:10:07
http://diit.cz/clanek/architektura-radeon-rx-vega
für freakz ein paar spanende infos.
mfg
Hübie
2017-08-03, 10:14:46
Vega56 ist für die meisten hier sicher der beste Kompromiss. Gute Taktbarkeit, ootb ein vernünftiger Spagat aus Leistung und Verbrauch, kostengünstig und eben deutlich schneller als die 1070 (vermutlich wird die 1070 selbst bei 2 GHz geschlagen).
Für meine Verhältnisse ist das aber ein viel zu kleiner Sprung, wenn ich bedenke dass meine Karte jede 1070 schlägt.
Ich hoffe ja dass diese Mining-Scheiße endlich mal staatlich reguliert wird und dann im Boden versinkt. Dann wären normale Preise am Markt. Kann ja nicht sein, dass jetzt jeder Geld drucken kann wie er Leistung hat und somit Banknoten entwertet. Aber das ist ein anderes Thema. :rolleyes:
X-Bow
2017-08-03, 10:15:04
Sind eher Fake Werte nach dem Vergleich mit AMDs Folien:
https://pics.computerbase.de/7/9/3/4/8/4-1080.196971914.png
https://www.computerbase.de/2017-07/radeon-rx-vega-vorgestellt/2/
BF1 und Doom herrscht nach AMD Gleichstand. Wie soll Vega56 da 30% schneller als die GTX1070 sein? Da wäre sie genauso schnell wie Vega 64.
Naja, ich hab das so verstanden das die AMD-Folien 99% Min FPS darstellen und in dem geleakten Bench der V56 die Standard Balkenlänge angegeben wurde... also aus meiner Sicht keine zwei vergleichbaren Werte.
AffenJack
2017-08-03, 10:17:30
Naja, ich hab das so verstanden das die AMD-Folien 99% Min FPS darstellen und in dem geleakten Bench der V56 die Standard Balkenlänge angegeben wurde... also aus meiner Sicht keine zwei vergleichbaren Werte.
Also willst du damit sagen, dass AMD in den MinFPS schlechter als Nvidia ist?:biggrin: Das wäre nämlich die Konsequenz dieser These, wenn AMD bei den avg FPS schneller ist. Nee, daran glaube ich nicht.
M4xw0lf
2017-08-03, 10:17:45
http://diit.cz/clanek/architektura-radeon-rx-vega
für freakz ein paar spanende infos.
mfg
Alles schon auf TPU gewesen, bis auf vielleicht die zusätzlichen Vega Nano Bilder.
Mmmmh, Vega Nano :heart:
http://diit.cz/sites/default/files/radeon_rx_vega_nano_01.jpghttp://diit.cz/sites/default/files/radeon_rx_vega_nano_02.jpg
dargo
2017-08-03, 10:19:46
Vega56 ist für die meisten hier sicher der beste Kompromiss. Gute Taktbarkeit, ootb ein vernünftiger Spagat aus Leistung und Verbrauch, kostengünstig und eben deutlich schneller als die 1070 (vermutlich wird die 1070 selbst bei 2 GHz geschlagen).
Abwarten.
Was die Taktbarkeit angeht erinnert mich Vega 56 ein wenig an die HD7950.
Alles schon auf TPU gewesen, bis auf vielleicht die zusätzlichen Vega Nano Bilder.
Mmmmh, Vega Nano :heart:
http://diit.cz/sites/default/files/radeon_rx_vega_nano_01.jpghttp://diit.cz/sites/default/files/radeon_rx_vega_nano_02.jpg
Wird man bei der Nano eigentlich wieder 175W TDP anstreben?
Hübie
2017-08-03, 10:23:32
Was war denn mit der HD 7950? :confused:
CompuJoe
2017-08-03, 10:32:37
Die lies sich meist ohne Probleme um 30-40% übertakten!
Nakai
2017-08-03, 10:35:17
http://www.tweaktown.com/news/58635/amd-radeon-rx-vega-56-leaked-benchmarks-gtx-1070-killer/index.html
Wie schon erwähnt, sollte man Treiberupdates abwarten. Ich denke da kann sehr viel rausgeholt werden.
Alles schon auf TPU gewesen, bis auf vielleicht die zusätzlichen Vega Nano Bilder.
Mmmmh, Vega Nano :heart:
http://diit.cz/sites/default/files/radeon_rx_vega_nano_01.jpghttp://diit.cz/sites/default/files/radeon_rx_vega_nano_02.jpg
Dieses Produkt gehört in die erste Reihe, direkt zum Launch. Aber anscheinend kommt sie wieder später, wie die alte Nano. Grmpf, AMD lernt es nicht. Die Nano war zwar kein Verkaufsschlager, brachte aber Aufmerksamkeit.
MfG,
Raff
dargo
2017-08-03, 10:39:25
Was war denn mit der HD 7950? :confused:
Grundtakt 800Mhz welcher sich nicht selten auf 1,1Ghz anheben ließ.
X-Bow
2017-08-03, 10:41:32
Also willst du damit sagen, dass AMD in den MinFPS schlechter als Nvidia ist?:biggrin: Das wäre nämlich die Konsequenz dieser These, wenn AMD bei den avg FPS schneller ist. Nee, daran glaube ich nicht.
Ähh ne das wollt ich nicht sagen^^ AMD ist laut AMD besser in den MinFPS und laut Leak auch schneller in den avg FPS :freak:
Aber halt das wir von den Leak avg FPS nicht auf irgendwas von den AMD Folien schließen können, dass sollte meine Aussage darstellen^^
X-Bow
2017-08-03, 10:44:21
AMD hat doch auf der Sig gesagt das die Vega 56 sich am besten übertakten lassen sollte.
dargo
2017-08-03, 10:44:26
Dieses Produkt gehört in die erste Reihe, direkt zum Launch. Aber anscheinend kommt sie wieder später, wie die alte Nano. Grmpf, AMD lernt es nicht. Die Nano war zwar kein Verkaufsschlager, brachte aber Aufmerksamkeit.
Ich wette mit dir, dass Vega 56 mehr Aufmerksamkeit bekommt als Vega Nano. Vega Nano ist mit dem Formfaktor was Spezielles, nichts für die große Masse. Preis der Nano wird in etwa auf Niveau von Vega 64 liegen. Performance wird die Nano ähnlich wie Vega 56 liefern mit paar Wattchen weniger. Das wird aber nur die wenigen jucken wenn sie dafür ~100$ mehr ausgeben müssen. Zudem wird die Nano mit dem einen Lüfter lauter sein als viele Customs von Vega 56 wenn sich die Partner nicht zu weit von den 210W TDP entfernen.
Edit:
Sorry Gipsel.
M4xw0lf
2017-08-03, 10:46:30
Dieses Produkt gehört in die erste Reihe, direkt zum Launch. Aber anscheinend kommt sie wieder später, wie die alte Nano. Grmpf, AMD lernt es nicht. Die Nano war zwar kein Verkaufsschlager, brachte aber Aufmerksamkeit.
MfG,
Raff
Jo, meine Aufmerksamkeit hatten und haben sie auf jeden Fall :biggrin:
Ich wette mit dir, dass Vega 56 mehr Aufmerksamkeit bekommt als Vega Nano. Vega Nano ist mit dem Formfaktor was Spezielles, nichts für die große Masse. Preis der Nano wird in etwa auf Niveau von Vega 64 liegen. Performance wird die Nano ähnlich wie Vega 56 liefern mit paar Wattchen weniger. Das wird aber nur die wenigen jucken wenn sie dafür ~100$ mehr ausgeben müssen. Zudem wird die Nano mit dem einen Lüfter lauter sein als viele Customs von Vega 56 wenn sich die Partner nicht zu weit von den 210W TDP entfernen.
Das glaube ich nicht. Die erste Nano war ein Haloprodukt für alle Fijis, da sie zeigte, was an Effizienz möglich war/ist mit dem Chip. Dazu hat Vega 56 den "Makel" des salvage parts, während die Vega Nano vermutlich wieder auf den vollen Chip setzen wird.
Gipsel
2017-08-03, 10:49:27
@all:
Trollposts bitte nur melden und nicht noch darauf eingehen.
Danke.
dargo
2017-08-03, 10:51:28
Das glaube ich nicht. Die erste Nano war ein Haloprodukt für alle Fijis, da sie zeigte, was an Effizienz möglich war/ist mit dem Chip. Dazu hat Vega 56 den "Makel" des salvage parts, während die Vega Nano vermutlich wieder auf den vollen Chip setzen wird.
Das bringt der Nano rein gar nichts. Oder was glaubst du wie diese die deutlich niedrigere TDP erreicht im Vergleich zu Vega 64? Das geht beim vollen Chip nur über stark reduzierten Takt, welcher selbstverständlich mit deutlich geringerer Spannung gekoppelt ist. Vega Nano würde wesentlich mehr Aufmerksamkeit bekommen wenn sie zum ähnlichen Preis wie Vega 56 kommen würde.
Wir kennen den Preis der Vegano nicht. Es ist aber wirklich zu befürchten, dass selektierte XTX-Chips, welche man als "LP" vermarktet, nicht billig sind. Aber sexy. :biggrin:
MfG,
Raff
M4xw0lf
2017-08-03, 10:55:35
Das bringt der Nano reich gar nichts. Oder was glaubst du wie diese die deutlich niedrigere TDP erreicht im Vergleich zu Vega 64? Das geht beim vollen Chip nur über stark reduzierten Takt, welcher selbstverständlich mit deutlich geringerer Spannung gekoppelt ist.
Hast du die Reviews zur Fiji-Nano alle vergessen? Die ist sehr viel effizienter als Fury X und non X, bei kaum geringerer Leistung (~10-15% vs Fury X). Ein zwei P-States an der Spitze eingespart, und schon ist die TDP 100W niedriger (nicht mal sehr übertrieben dargestellt ;) ).
dargo
2017-08-03, 10:56:43
Wir kennen den Preis der Vegano nicht.
Schau dich einfach bei Fiji um, Nano vs. Fury non X. Fiji XT würde ich da rausnehmen da die AIO das Gesamtpaket etwas verteuern dürfte.
Klevapalis
2017-08-03, 11:01:22
Ich sage es gern nochmal:
Die Min-FPS Werte, die AMD prominent angibt, kamen durch einen Treiberbug bei NVIDIA zustande, der zum Testzeitpunkt bereits gefixt war (neuer Treiber war online):
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-36.jpg
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_Preview/images/slides-raja-52.jpg
http://www.nvidia.de/download/driverResults.aspx/120944/de
Tatsächlich hätte AMD, wenn das verbuggte CoD ignoriert, die Werte 36 bzw. 40 fps für die NVIDIA-Karten angeben müssen.
DrFreaK666
2017-08-03, 11:06:29
Die Slides wurden am 24.7 erstellt. Releasedatum des Treibers: 24.7 ^^
Loeschzwerg
2017-08-03, 11:06:34
Wird man bei der Nano eigentlich wieder 175W TDP anstreben?
Chris Hook spricht von 150Watt TGP (Typical Gaming Power; GPU+Mem) für die Nano.
https://www.youtube.com/watch?v=A1vLL1O9iQo (ab 1:12)
Menace
2017-08-03, 11:07:08
Bei der Nano geht es nicht darum, die breite Masse anzusprechen, sondern einfach eine besondere Karte vorzustellen, die klein, kühl, sparsam und trotzdem leistungsstark ist. Sie hat gute Kritiken bekommen (von dem Gefiepe die wohl viele hatten abgesehen) und dadurch gezeigt, dass Fiji gar nicht so schlecht ist.
Und es gibt immer ein paar Menschen, die sich dann halt so ein Produkt gönnen.
Ob sich aber eine sparsame Vega Nano von einer Fiji Nano absetzen kann bezweifle ich ein wenig. :confused:
dargo
2017-08-03, 11:08:12
Hast du die Reviews zur Fiji-Nano alle vergessen? Die ist sehr viel effizienter als Fury X und non X, bei kaum geringerer Leistung (~10-15% vs Fury X).
Sie war immer minimal langsamer bis gleich schnell wie Fiji Salvage.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-Nano-Test-Review-1170704/2/
Deshalb sage ich ja... Vega Nano wird paar Wattchen weniger als Vega 56 brauchen (ich tippe mal auf 175-190W vs. 210W) bei vergleichbarer Leistung. Dafür halt um die 100$ mehr kosten (Aufpreis für Formfaktor + voller Chip).
Chris Hook spricht von 150Watt TGP (Typical Gaming Power; GPU+Mem) für die Nano.
https://www.youtube.com/watch?v=A1vLL1O9iQo (ab 1:12)
Das wird sicherlich die Asic Power sein. Falls es tatsächlich die ganze Karte ist dann Respekt.
Ob sich aber eine sparsame Vega Nano von einer Fiji Nano absetzen kann bezweifle ich ein wenig. :confused:
Bei der Vega FE liegt der Sweetspot im Bereich um 1.400 MHz (siehe aktuelle PCGH), darunter lohnt sich Undervolting kaum noch. Wenn die Vegano damit antanzt, kommt sie bestimmt 20-30 Prozent von der Nano weg. Oder mehr, wenn endlich der Wundertreiber erscheint. :ugly:
MfG,
Raff
Loeschzwerg
2017-08-03, 11:12:39
Das wird sicherlich die Asic Power sein. Falls es tatsächlich die ganze Karte ist dann Respekt.
Er sagt GPU und Mem, also können wir fast sicher von 175Watt TBP ausgehen.
In jedem Fall wird es interessant sein zu sehen, ob hier die verbesserten Stromsparmechanismen deutlich zur Geltung kommen :)
Menace
2017-08-03, 11:18:08
@ Raff: Danke für die Info. Kommt noch der zusätzliche Speicher hinzu.
dargo
2017-08-03, 11:18:21
Er sagt GPU und Mem, also können wir fast sicher von 175Watt TBP ausgehen.
Das ist es ja... die Spawas ziehen ja auch noch was. Ich blicke bei den ganzen Stromangaben eh nicht ganz durch. Ist GPU + Mem = Asic Power? Immerhin sitzt beides auf einem Interposer. Oder nimmt AMD bei den Asic Angaben den HBM2 raus?
AffenJack
2017-08-03, 11:21:04
Das wird sicherlich die Asic Power sein. Falls es tatsächlich die ganze Karte ist dann Respekt.
Vega56 hat 165W TGP bei 210W TDP.
Die Nano 150W TGP, also wird es schwer mit den 175W TDP wie bei der alten Nano, außer alles drumrum ist extrem auf effizienz getunt im Vergleich zur V56. 185W/190W wäre mein Tipp.
Loeschzwerg
2017-08-03, 11:25:26
Wiso wird das schwierig? Thermisch kannst du die Karte doch wunderbar bei 175 Watt abriegeln lassen.
dargo
2017-08-03, 11:35:09
Wiso wird das schwierig? Thermisch kannst du die Karte doch wunderbar bei 175 Watt abriegeln lassen.
Weil die Relationen nicht passen wie AffenJack bereits geschrieben hat. Es sei denn die Nano hat weniger Spannungswandler (eventuell effizientere, schließlich bezahlt man auch mehr). Dann könnte es hinkommen.
Complicated
2017-08-03, 11:47:34
Ich habe den kompletten Thread mitgelesen, auch den Teil wo du schon andere Leute mit Sachverstand ignoriert hast und lieber blind dem Marketing vertraust. Wie schon geschrieben, du kannst gerne glauben, dass der HBCC Texturen eines Spiels direkt von der Festplatte lesen kann und damit Nachladeruckler verhindert (glauben kann man in der Kirche, was bei den teilweise religiösen Zügen hier ja irgendwie passend ist).
Also wenn AMD klare Aussagen macht und technische Erklärungen abgiebt hat das nichts mit Glauben meinerseits zu tun.
Du bezeichnest das als Marketingaussagen und du glaubst es nicht. Da kommt dein (Un)Glauben ins Spiel nicht meiner und somit ist die Religiösität eher dir zuzuordnen in diesem Fall.
Ich habe auch keinen mit Sachverstand ignoriert. Nur diejenigen die es behaupten ohne es nachzuweisen.
Wenn du AMD nicht glaubst, liegt es an dir das zu widerlegen. Nicht durch Behauptung. Neue Technologien kann man eben nicht dadurch weg reden indem man sagt wie es bisher war. Wir würden immer noch auf Pferden reiten wenn dieses Prinzip Gültigkeit hätte.
Weil die Relationen nicht passen wie AffenJack bereits geschrieben hat. Es sei denn die Nano hat weniger Spannungswandler (eventuell effizientere, schließlich bezahlt man auch mehr). Dann könnte es hinkommen.
Man kann unter anderem mit besonders niederohmigen Bauteilen etwas sparen. Wandlerverluste sind das große Problem bei besonders versoffenen GPUs. Je weniger Strom fließt, desto geringer auch die Verluste. Ich sehe daher kein Problem, eine sparsame Vegano zu bauen. :)
MfG,
Raff
dargo
2017-08-03, 11:57:40
@M4xw0lf und Loeschzwerg
Bitte nicht vergessen, dass man mit Vega 64 und dem Biosschalter auch eine Art Nano bekommt, nur halt nicht den entsprechenden Formfaktor.
Ein kleines Rechenbeispiel mit 220W Asic Power und 295W TDP.
295*65% = 191,75W
295/220 = 1,34
220*65% = 143W
143*1,34 = 191,62W
Gipsel
2017-08-03, 11:58:47
Also wenn AMD klare Aussagen macht und technische Erklärungen abgiebt hat das nichts mit Glauben meinerseits zu tun.
Du bezeichnest das als Marketingaussagen und du glaubst es nicht. Da kommt dein (Un)Glauben ins Spiel nicht meiner und somit ist die Religiösität eher dir zuzuordnen in diesem Fall.
Ich habe auch keinen mit Sachverstand ignoriert. Nur diejenigen die es behaupten ohne es nachzuweisen.
Wenn du AMD nicht glaubst, liegt es an dir das zu widerlegen. Nicht durch Behauptung. Neue Technologien kann man eben nicht dadurch weg reden indem man sagt wie es bisher war. Wir würden immer noch auf Pferden reiten wenn dieses Prinzip Gültigkeit hätte.AMD hat nie gesagt, wie genau man über das HBCC-Feature auf Dinge wie Netzwerkspeicher zugreifen kann. Da es durchaus ein paar technischere Erklärungen seitens AMD gibt, die daruf hindeuten, daß der HBCC praktisch (auch) die Funktion einer Hardware-Paging-Engine ausführt, steht es stark zu vermuten, daß für bestimmte Zugriffe (z.B. auf Netzwerklaufwerke) die Mithilfe des OS/Treiber von Nöten ist. Wie das allgemein z.B. mittels memory mapped files funktionieren kann, habe ich schon vor einiger Zeit erklärt. Das ist eine recht universelle Lösung, die aber eben nicht völlig autonom von der GPU durchgeführt werden kann (es verläßt sich auf das Memory Management des OS, dessen virtueller Adressraum eben im 49Bit-Adressraum der GPU vollständig enthalten ist; Funktionen des OS zu duplizieren wäre ja bescheuert und nie so flexibel seitens der möglichen Hardware- und Softwareunterstützung). Es fügt sich aber harmonisch ein.
Menace
2017-08-03, 12:02:00
Bitte nicht vergessen, dass man mit Vega 64 und dem Biosschalter auch eine Art Nano bekommt, nur halt nicht den entsprechenden Formfaktor.
Ich hoffe, dass wirklich alle mögliche Kombinationen durchgetestet werden:
Vega 64 Power - Eco
Vega 56 Power - Eco
Nano Power - Eco (sofern vorhanden)
Wobei ja die Tests ja ähnlich chaotisch verlaufen werden, wenn das was d2kx angedeutet hat zutrifft.
@Raff: Du wolltest doch noch die Hintergründe dieses "Embargos" erläutern, schon vergessen? :biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.