Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Digidi
2017-06-10, 20:19:10
Warum nicht 12? Es scheint ja alles sehr symmetrisch zu sein - demnach wäre anzunehmen, dass jede Geometry Engine 3 verarbeiten kann, es aber irgendwo einen Bottleneck gibt. Die logischte Erklärung die mir dazu einfällt ist eine Begrenzug von Cache/Register Ports - die sind idR. eine 2er Potenz.
Angenommen 16 Ports - 11 wäre 5, das könnte von Grpphics Command Processor sowie 4 ACE herrühren.
Andererseits hat irgendwer ein detaillierteres Wissen wie sich die Geometry Processors bei Fiji/Polaris bezüglich Tesselatin/Culling etc. per clock verhalten?
Bonusfrage und was limitert aktuell (wo würde mehr IPC etwas bringen) in der Praxis?
Die Schwachstelle von FIJI ist ja, dass das Teil viele Shader hat, man aber sehr viele Zuneigung der Spieleprogrammierer braucht um die Shader auch auszulasten. Shader können ja nur von Pixeln die aus Polygonen stammen ausgelastet werden. Hinzu kommt das FIJI ja nicht sichtbare Polygonen nicht aussortiert hat, wodurch die Shader dann noch dazu verdammt wurden unnötige Arbeit zu vollrichten.
Ob das jetzt besser wird mit 4 Rasterizer und dem aussortieren der nicht sichtbaren Polygonen? Ich bin mir da nicht so sicher. Wobei wenn man von 4 Rasterizern und einen Takt von 1600Mhz ausgeht wären das gut 6,4 Milliarden Polygonen pro Sekunde die in Pixel umgesetzt werde. Wenn man nun davon ausgeht das ein Polygon so groß ist wie ein Pixel und alle anderen Rausgefiltert werden, hat man bei einer Auflösung von 3840x2160 Pixeln und 6,4 Milliarden Pixel pro Sekunde noch gut 772 FPS
Aber man will sich darum bemühen. Wenn ich mir das Raumschiff und der Polygonen Haufen aus Deus Ex auf den Präsentationsfolie anschaue muss das eine sehr große Polygonschleuder gewesen sein. Das lässt mich noch hoffen das mehr als 4 Rasterizer darin stecken.
https://cdn.videocardz.com/1/2017/01/AMD-VEGA-VIDEOCARDZ-2.jpg
https://cdn.videocardz.com/1/2017/01/AMD-VEGA-VIDEOCARDZ-20.jpg
Der_Korken
2017-06-10, 21:57:30
Mal eine Laien-Frage: Bei der Berechnung eines Frames fängt die GPU, wie hier bereits beschrieben wurde, mit Dreiecken aus der Szene an, verarbeitet und cullt diese gegebenenfalls, verrastert die Dreiecke dann und führt dann auf den Pixeln das Shading durch. Finden diese Schritte bei GCN-CPUs alle zeitlich verschränkt statt, d.h. wird erstmal ein bischen tesseliert und verrastert, damit die CUs schon mal was zu tun haben oder werden die genannten Schritte alle strikt nacheinander ausgeführt? Ich habe mich nur mal gefragt, ob eine "Tile-weise" Abarbeitung der Dreiecke an sich schon für eine bessere Auslastung im Chip führt. Sorry, wenn die Frage bullshit ist :).
Eldoran
2017-06-10, 22:10:44
Ich glaube nicht, dass die 11 polygons sich ausschließlich auf die primitive shader beziehen, das wäre ja "nur" eine Optimierung der scheinbar ohnehin möglichen Berechnung über compute shader: https://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2016/03/29204330/GDC_2016_Compute.pdf (vorsicht ist ~50MB). Netterweise ist da die PC Referenz eine Fury X.
basix
2017-06-10, 22:28:41
@Korken:
Ich finde das eine sehr gute Frage. Optimalerweise wird die Einheitenauslastung und -effizienz auch auf diese Weise gesteigert. Ob und wie das genau funktionieren kann, müssen aber die Experten hier erläutern ;)
Zudem wäre dies ein Weg, um die Erwärmung des Chips ein wenig gleichmässiger zu verteilen.
Digidi
2017-06-11, 01:28:58
Mal eine Laien-Frage: Bei der Berechnung eines Frames fängt die GPU, wie hier bereits beschrieben wurde, mit Dreiecken aus der Szene an, verarbeitet und cullt diese gegebenenfalls, verrastert die Dreiecke dann und führt dann auf den Pixeln das Shading durch. Finden diese Schritte bei GCN-CPUs alle zeitlich verschränkt statt, d.h. wird erstmal ein bischen tesseliert und verrastert, damit die CUs schon mal was zu tun haben oder werden die genannten Schritte alle strikt nacheinander ausgeführt? Ich habe mich nur mal gefragt, ob eine "Tile-weise" Abarbeitung der Dreiecke an sich schon für eine bessere Auslastung im Chip führt. Sorry, wenn die Frage bullshit ist :).
In der Fachsprache heißt es Grafik Pipeline wegen dem Seriellen Karakter :wink:
Die Schritte finden sozusagen nacheinander statt, wobei du einen Pixel aber im Shader selbst dann in eine Schleife schicken kannst, falls da mehrere Berechnungen anfallen. Deshalb war der Rasterizer (Bis jetzt?) immer eine Fixed function.
https://de.wikipedia.org/wiki/Grafikpipeline
N0Thing
2017-06-11, 01:42:02
In der Fachsprache heißt es Grafik Pipeline wegen dem Seriellen Karakter :wink:
Das ist schon ziemlich hart. :D
decimad2
2017-06-11, 12:44:18
In der Fachsprache heißt es Grafik Pipeline wegen dem Seriellen Karakter :wink:
Die Schritte finden sozusagen nacheinander statt, wobei du einen Pixel aber im Shader selbst dann in eine Schleife schicken kannst, falls da mehrere Berechnungen anfallen. Deshalb war der Rasterizer (Bis jetzt?) immer eine Fixed function.
https://de.wikipedia.org/wiki/Grafikpipeline
Der Frage entnehme ich nicht die Annahme, dass für ein Dreieck für sich genommen irgendwie von dem Pipeline-Charakter abgewichen wird sondern ob dennoch eine Verschränkung zwischen Geometrie- und Pixellast für ein Frame stattfindet. Schon alleine aus energetischen Gesichtspunkten würde ich hoffen, dass das der Fall ist.
davidzo
2017-06-11, 13:32:47
Das ganze Mining Zeugs ist sowas von einer Blase...aber Mining ist vielleicht gar nicht mal so der falsche Ausdruck dafür (Goldgräber Run und so...).
Das wird in 6-12Monaten stark gegen die GPU-Hersteller zurückschlagen.
Wenn der gehypte Kurs von Ether zurückfedert und neue hashes so schwierig werden dass es sich effizienztechnisch auf den GPUs nicht mehr lohnt, wird der Markt von gebrauchten Polaris-Karten überschwemmt werden..
Für GPUhersteller ist das ein zweischneidiges Schwert, kurzfristig können sie richtig gute Gewinne im Performance-sektor machen, das gesamte Inventory direkt verkaufen, erkaufen sich dass aber mit schwer planbaren Produktionsstückzahlen und langfristig schlechterer Nachfrage im mainstream-sektor.
Idealerweise hat man dann ein starkes neues Performance-eisen im Feuer um den Markt von den gebrauchten Polariskarten abzulenken, z.B. Vega 11.
BoMbY
2017-06-11, 17:20:33
Die Schritte finden sozusagen nacheinander statt, wobei du einen Pixel aber im Shader selbst dann in eine Schleife schicken kannst, falls da mehrere Berechnungen anfallen. Deshalb war der Rasterizer (Bis jetzt?) immer eine Fixed function.
https://de.wikipedia.org/wiki/Grafikpipeline
Der Draw Stream Binning Rasterizer scheint (http://www.freshpatents.com/-dt20161222ptan20160371873.php) wohl eher aus zwei Sortern und zwei Rasterizern zu bestehen:
https://i.imgur.com/mCB84BB.png
Und generell scheint das alles zweistufig zu funktionieren:
https://i.imgur.com/NnIklSy.png
Der_Korken
2017-06-11, 20:20:23
Der Frage entnehme ich nicht die Annahme, dass für ein Dreieck für sich genommen irgendwie von dem Pipeline-Charakter abgewichen wird sondern ob dennoch eine Verschränkung zwischen Geometrie- und Pixellast für ein Frame stattfindet. Schon alleine aus energetischen Gesichtspunkten würde ich hoffen, dass das der Fall ist.
Genauso war die Frage gemeint. Der oben verlinkte Wikipedia-Artikel zur Grafikpipeline impliziert, dass die einzelnen Pipeline-Stages strikt nacheinander durchlaufen werden, sodass für ein Frame immer nur eine Stage gleichzeitig aktiv ist. Das würde aber zu einer sehr schlechten Auslastung der Hardware führen. Bei CPUs wird das Problem dadurch gelöst, dass zeitversetzt mehrere Instruktionen durch die Pipeline geschickt werden, sodass mit jedem Takt jede Stage Arbeit verrichten kann.
Bei GPUs würde das bedeuten, dass man mehrere Frames in die Grafik-Pipeline schicken müsste, um sie entsprechend auszulasten, was aber zu störender Latenz bei der Ausgabe führen würde. Da ich mir gedacht, dass AMD und Nvidia das doch sicher geschickter gelöst haben, z.B. indem man die Primitives geschickt zu kleinen Batches zusammenfasst, die (weitgehend) unabhängig durch die Pipeline laufen können und somit auch die hinteres Stages früh genutzt werden. Dann dachte ich mir, dass man für sowas am besten Primitives nimmt, die z.B. aus Kamerasicht räumlich dicht zusammenstehen, damit man schonmal innerhalb der Batches sich überdeckende Dreiecke erkennen kann. Ich habe mich halt gefragt, wie es bisher gemacht wurde bzw. ob das Tiling von Vega an diesem Vorgang was ändert oder damit überhaupt nichts zu tun hat.
basix
2017-06-11, 23:13:49
Eine Wohltat mal schöne Diskussionen / Fragen / Erläuterungen zu lesen ohne Fanboy gebashe *up*
Das was du meinst geht in Richtung Out-of-Order Execution, wenn ich das richtig verstehe. Keine Ahnung inwieweit GPUs hier fortgeschritten sind. Bei CPUs ist dies ja ein recht grosser Teil des ganzen Kernkonstrukts. Die Frage ist hier ob das einer GPU überhaupt viel nützt. Bei CPUs ist die Pipeline zwischen 12-30 Stufen lang, je nach Design. Wie sieht das bei GPUs aus?
Eldoran
2017-06-12, 10:38:10
An sich sind GPUs massiv parallel und Out of order - zB die GCN CUs arbeiten viele Wavelets parallel ab um Stalls/Latenzen zu vermeiden. Wobei das vermutlich eher mit einem massiven SMT bei CPUs vergleichbar wäre.
Das Problem bei Out of order ist, dass es nur funktionieren kann, wenn diese Operationen jeweils völlig unabhängig von einander sind UND und gleichzeitig vorliegen.
Mein google-fu reicht dafür leider nicht,bzw. braucht das wohl mehr als ein paar stunden...
Es gibt offensichtlich kein Problem die Polygone/Pixel parallel von einander abzuarbeiten, aber es scheint bei OpenGL/DirectX (<12) so zu sein, dass diese irgendwie pro Frame EINE Pipeline mit stufen ist. Mit Mantle,DirectX12,Vulcan gibt es scheinbar konzeptuell mehrere Pipelines ohne fixe stufen.
Andererseits sli/crossfire AFR ist per Definition mehrere Frames parallel, wobei das glaube ich das Problem mit Latenz tauscht (das Display ist Frames hinter der game engine)...
Bei Tiling scheint die Reihenfolge auch nicht so ganz zu funktionieren. Aber vielleicht hat ja jemand hier im Forum Praxiserfahrung / kennt Details.
Es heisst nicht umsonst pipeline, du kannst halt nicht das Lighting fuer Flaechen berechnen, die noch gar nicht verarbeitet sind. Naturlich kann man aber (und das wird auch gemacht) mehrere Durchlaeufe (passes) pro Frame machen, z.B. fuer shadow maps. Bei Vulkan (und d3d12) hast du verschiedene queues, sodass man compute shader und Kopieroperationen gleichzeitig zu "normalen" Grafikoperationen abarbeiten kann. DOOM nutzt etwa genau das und macht das komplette post processing in der compute queue (shaderlastig) waehrend fixed function units schon fuer den naechsten Frame die depth pre passes fuer die Schatten machen.
Man sollte auch nicht vergessen, dass vertex shader eben logischerweise auch auf den CUs laufen, dazu wie weiter oben verlinkt auch mit compute einiges an der Geometrie gemacht werden kann und inzwischen auch wird. Es ist also nicht so dass ueber weite Strecken die ganzen Shader cores einfach nichts machen.
Gipsel
2017-06-12, 17:11:09
Mal eine Laien-Frage: Bei der Berechnung eines Frames fängt die GPU, wie hier bereits beschrieben wurde, mit Dreiecken aus der Szene an, verarbeitet und cullt diese gegebenenfalls, verrastert die Dreiecke dann und führt dann auf den Pixeln das Shading durch. Finden diese Schritte bei GCN-CPUs alle zeitlich verschränkt statt, d.h. wird erstmal ein bischen tesseliert und verrastert, damit die CUs schon mal was zu tun haben oder werden die genannten Schritte alle strikt nacheinander ausgeführt?Die Schritte werden schon sehr lange so weit wie möglich parallel abgearbeitet, um die Auslastung zu erhöhen. Das gilt also nicht nur für GCN.
Ich habe mich nur mal gefragt, ob eine "Tile-weise" Abarbeitung der Dreiecke an sich schon für eine bessere Auslastung im Chip führt.Die bessere Auslastung kommt daher, daß man die Effektivität der Caches erhöht, also weniger oft durch den Speicher limitiert wird. Und je nachdem wie man es macht (z.B. hidden surface removal in den Tiles vor Ausführung des Pixelshaders) kann man auch die Menge der ausgeführten Arbeit reduzieren. Letzteres erhöht nicht wirklich die Auslastung (es kann sie sogar reduzieren), aber wenn man mit 90% Auslastung nur 60% der Arbeit machen muß, ist man trotzdem schneller als wenn man mit 100% Auslastung 100% der Arbeit erledigen soll.
Zudem wäre dies ein Weg, um die Erwärmung des Chips ein wenig gleichmässiger zu verteilen.Da inzwischen alle Shader (egal ob Geometrie-/Vertex-/Pixel-/Compute-/whatever-Shader) auf dem gleichen Array ausgeführt werden, spielt das eher eine untergeordnete Rolle (ein paar fixed function Einheiten wie die Rasterizer oder ROPs bleiben da heute noch übrig). Als es noch dedizierte Einheiten für Vertexshader und Pixelshader gab (vor Xenos/G80/R600), mag das eine Rolle gespielt haben.
Der oben verlinkte Wikipedia-Artikel zur Grafikpipeline impliziert, dass die einzelnen Pipeline-Stages strikt nacheinander durchlaufen werden, sodass für ein Frame immer nur eine Stage gleichzeitig aktiv ist.Die gängigen Grafik-APIs verlangen, daß das Resultat dieser Vorgehensweise entsprechen muß. Aber das läuft praktisch nicht unbedingt so ab. Das wäre viel zu ineffizient.
Das würde aber zu einer sehr schlechten Auslastung der Hardware führen. Bei CPUs wird das Problem dadurch gelöst, dass zeitversetzt mehrere Instruktionen durch die Pipeline geschickt werden, sodass mit jedem Takt jede Stage Arbeit verrichten kann.
Bei GPUs würde das bedeuten, dass man mehrere Frames in die Grafik-Pipeline schicken müsste, um sie entsprechend auszulasten, was aber zu störender Latenz bei der Ausgabe führen würde. Da ich mir gedacht, dass AMD und Nvidia das doch sicher geschickter gelöst haben, z.B. indem man die Primitives geschickt zu kleinen Batches zusammenfasst, die (weitgehend) unabhängig durch die Pipeline laufen können und somit auch die hinteres Stages früh genutzt werden. Dann dachte ich mir, dass man für sowas am besten Primitives nimmt, die z.B. aus Kamerasicht räumlich dicht zusammenstehen, damit man schonmal innerhalb der Batches sich überdeckende Dreiecke erkennen kann. Ich habe mich halt gefragt, wie es bisher gemacht wurde bzw. ob das Tiling von Vega an diesem Vorgang was ändert oder damit überhaupt nichts zu tun hat.Erstmal ist ein Frame ja nicht monolithisch. Üblicherweise gibt es da recht viele Drawcalls (oft einige tausend), bis ein Frame fertig ist. Hier gibt es viel Potential, etwas parallel abzuarbeiten, solange man weiß, was davon unabhängig ausgeführt werden kann. DX12 legt da die Verantwortung mehr in die Hände des Entwicklers (der muß explizit synchronisieren, falls es Abhängigkeiten gibt), während bei DX11 größtenteils der Treiber für die Erkennung verantwortlich ist (was eben häufig nicht nur zu suboptimalen Ergebnissen sondern auch einem hohen CPU-Aufwand im Treiber führt, um da alle möglichen Checks zu betreiben). Aber auch innerhalb eines Drawcalls besteht die Möglichkeit, die Ausführung der verschiedenen Stages zu überlappen.
Als Beispiel nehmen wir mal einen Drawcall mit einer sehr vereinfachten Pipeline:
Ein Vertexshader liest Geometriedaten (Vertexkoordinaten und -parameter), transformiert die Koordinaten um das Objekt richtig in der Welt relativ zur Kamera zu positionieren und berechnet für jeden Vertex die Beleuchtung (z.B. Helligkeit, Farbe) und gibt die Ergebnisse wieder aus (z.T. ungeändert, z.B. Texturkoordinaten).
Der Rasterizer arbeitet dann mit diesen Daten weiter (DX und OpenGL unterscheiden sich übrigens in Details, wie das genau gehandhabt wird). Bevor es ans Rastern geht, "baut" zuerst der Primitive Assembler daraus die Primitives (typischerweise Dreiecke), denn in einem Triangle Strip ist ja jeder Vertex nur einmal drin, der Rasterizer benötigt aber drei pro Dreieck. Die müssen also entsprechend gruppiert werden. Weiterhin erfolgt die Transformation von den bisher verwendeten homogenen Koordinaten (x,y,z,w) in kartesische Koordinaten in Screenspace (2D), optional das Backface-Culling sowie das Clippen auf den Viewport (Clipping am view frustum [im Prinzip 6 Ebenen, oben unten recht links, vorne hinten] bzw. am Viewport selber [scissor rectangle], dort werden aber nicht nur komplette Dreiecke verworfen, sondern gegebenenfalls Dreiecke, die die Grenzen überschreiten entsprechend geteilt). Im Rasterizer wird für jedes Dreieck die genauen Pixel festgestellt, die es bedeckt. Danach werden die benötigten Daten für die Pixelshaderstage zusammengestellt (Output-Merger). Nur Pixel, die innerhalb des Viewports liegen, müssen auch weiter bearbeitet werden, außerdem kann die Ausgabe der Vertexshader nicht direkt benutzt werden. Klassisch werden dabei für jeden Pixel (eigentlich Fragment) die Vertexparameter der drei Eckpunkte interpoliert (da gab es extra Einheiten für) und der Wavefront/dem Warp (Gruppen von 64 bzw. 32 gesammelten Fragments) in entsprechenden Datenstrukturen bereitgestellt (traditionell spezielle Register). Heutzutage machen das aber die Pixelshader selber (es wird Code für die Interpolation eingefügt und die Vertexparameter im LDS hinterlegt).
Die Pixelshader legen dann anhand der interpolierten Vertexparameter und eventuell zusätzlich geladener Informationen (Texturen, Light-/Shadow-/Normalmaps/whatever) die endgültige Pixelfarbe fest, die dann über die ROPs zum Framebuffer exportiert werden. Die ROPs sind dann auch die finale Instanz, in denen letztendlich die Sichtbarkeit eines Fragments festgelegt wird, also ob es vor oder hinter bereits vorher gerenderten Fragments liegt, die auf die gleiche Pixelposition fallen (Z-Test; verschiedene Optimierungen versuchen Fragments möglichst früh zu verwerfen um Rechenleistung und Bandbreite zu sparen, wenn bereits feststeht, daß das Fragment verdeckt ist [early-Z]).
Wird jetzt so ein Drawcall abgesetzt, fängt die GPU an, die Vertexdaten im Vertexshader zu bearbeiten. Sobald hiervon Resultate vorliegen, kann der Rasterizer seine Arbeit aufnehmen und danach dann der Pixelshader. Letzterer kann also schon anfangen, bevor alle Vertexdaten durch sind. Was nicht geht, ist daß man die Ausgabe vom Vertexshader in beliebiger Reihenfolge an den Rasterizer gibt. Hier muß die Renderreihenfolge (also die Reihenfolge der Dreiecke) beachtet werden (genauer: das Resultat muß dem entsprechen, wenn man jedes Dreieck schön nacheinander rendert, das zieht sich also bis zum Schreiben in den Framebuffer über die ROPs durch). Dies kann die Parallelität in den Shaderstages beeinträchtigen (man kann oft auch gar nicht alles simultan starten, da man dann im Zweifelsfall auch den kompletten Output zwischenspeichern müßte, bevor man dann letztendlich den Framebuffer schreiben kann).
Mehrere Frames zu überlappen, ist aus Latenzsicht relativ schlecht. Um die Auslastung der GPU zu erhöhen, wird aber teilweise das Postprocessing eines Frames mit der Berechnung des nächsten Frames überlappt.
Was die Änderungen mit Vega angeht (oder allgemein bei Tiling/Binning Rasterizern), passiert im Grunde genau das, was Du vorgeschlagen hast. In einem Drawcall (bei nV ist das Binning auf einen Drawcall begrenzt, das funktioniert nicht über mehrere Drawcalls hinweg, bei Vega ist das noch unbekannt) werden ja häufig eng beeinander liegende Primitives gerendert (z.B. irgendein Mesh). Mit dem oben geschilderten Verfahren ist es da recht wahrscheinlich, daß merkliche Teile des Meshes durch ihn selber verdeckt sind (etwa die Hälfte zeigt einfach vom Betrachter weg, was das Backface-Culling erledigen kann, aber bei komplizierteren Gebilden verdeckt sich auch ein Teil der front-facing Dreiecke) und die zugehörigen Fragments erst von den ROPs verworfen werden (weil early-Z so schnell nicht greift) oder sogar mehrfach die gleichen Pixel im Framebuffer schreiben (vorne liegende Fragments überschreiben dahinter liegende). So oder so, man berechnet dann Fragments für gar nichts und verschwendet Bandbreite (weil die ROP-Caches sehr klein sind, sehr viel Wiederbenutzung also nicht drin ist).
Sammelt man dagegen die Geometrie vor dem Rasterizer also speichert möglichst komplett den Output des Vertexshaders) und teilt sie in Bins ein (Screenspace-Rechtecke), dann kann man zum einen mehrere (eine relativ kleine einstellige Anzahl abhängig von GPU-/Cache-Größe) Bins ohne Probleme parallel abarbeiten (weil Dreiecke in einem Bin keine Dreiecke in einem anderen Bin überdecken können). Außerdem sollte der zu einem Bin gehörige Framebuffer-Abschnitt komplett in die Caches passen, so daß zumindest keine externe (RAM-)Bandbreite verschwendet wird, man hat innerhalb eines Drawcalls (wenn man wie bei nV kein Binning über Drawcallgrenzen hinweg betreibt [das wäre komplexer]) bestmöglichen Cache-Reuse.
Im Prinzip kann man sogar Hidden-Surface-Removal (Z-Test) vor dem Rasterizer machen, was dann auch noch Arbeit für die Shader und ROPs spart, da so noch mehr Fragements verworfen werden können. Wieviel Geometrie man genau vor dem Rasterizer speichern kann, wird interessant. Mehr ist natürlich im Prinzip besser, aber auch da schlägt irgendwann der sinkende Grenzertrag zu (nV binnt auch nicht übermäßig viel an Geometrie, bevor man dann doch den Pixelshader anstößt, auch wenn noch nicht Alles an Geometrie durch ist).
Eine weitere Möglichkeit, den Durchsatz zu verbessern, ist die Dinge etwas anders zu organisieren. Wie schon vorher dargestellt, limitiert bei AMD (unter Anderem) die Setup Rate des Primitive-Assembly. Diese beträgt eben auch nur genau 1 Primitive (Dreieck) pro Takt für jede Shader-Engine/Rasterizer. Bei nV ist das seit Fermi verteilt angelegt. Jeder SM hat im Prinzip sein eigenes Primitive Assembly mitsamt Viewport-Transform/Culling (und "coarse Raster", also Bestimmung der Screentile, in den das fällt). Dadurch ist die Setup-Rate höher (auch wenn jeder SM vier Takte oder so pro Dreieck dafür benötigt) und das Verwerfen von Dreiecken in dieser Phase führt zu deutlich einem höheren Dreiecksdurchsatz. Außerdem ermöglicht es ein besseres Loadbalancing durch Umverteilung zwischen den SMs (besonders wichtig, wenn es eine starke Expansion der Geometriedaten durch Tesselation gibt). In diesen Szenarien hat AMD definitiv Reserven. Ob man einen ähnlichen Weg geht wie nV, keine Ahnung. Die Sache mit dem Primitive Shader deutet vielleicht an, daß man dort einen etwas anderen Weg beschreiten will, der aber offenbar ebenfalls zu einer Erhöhung der Setup-Rate führen kann (eben 11 Dreiecke statt bisher nur vier pro Takt, Rastern wird man aber weiterhin nur 4 Dreiecke pro Takt, aber man kann vermutlich mehr Verwerfen als bisher). Welchen Anteil Soft- und Hardware an den Steigerungen haben wird und was mit und ohne Änderungen an Spieleengines möglich ist, werden wir sehen müssen.
====================================
Der Draw Stream Binning Rasterizer scheint (http://www.freshpatents.com/-dt20161222ptan20160371873.php) wohl eher aus zwei Sortern und zwei Rasterizern zu bestehen:
https://i.imgur.com/mCB84BB.png
Und generell scheint das alles zweistufig zu funktionieren:
https://i.imgur.com/NnIklSy.pngNun, die Bilder zeigen eigentlich nur, wie man in die Bins sortiert und dann die Bins nacheinander abarbeitet (in den normalen "fine rasterizer" schickt). Das Sortieren passiert durch das was ich "coarse rasterization" und die da da "span rasterization" nennen. Im Prinzip bestimmt man über die Boundingbox des Dreiecks, in welche Screentile das fällt. Die Screentiles sind halt im Patent in Spalten und Reihen organisiert, welche mittels des H(orizontal) Span und V(ertical) Span Rasterizers bestimmt werden. Groß anders kann man das eigentlich kaum machen.
Edit:
Achja, im Patent (hier auch vollständig als Text und nicht nur als Bild (http://www.google.com/patents/US20160371873)) ist Hidden Surface-Removal vor dem Pixelshader übrigens explizit erwähnt:
At step 604, contributing and non-contributing fragments associated with the identified bin are determined. For example, step 604 may be performed by accumulator 216 of processing unit 210. Primitives are rasterized into “pixel fragments”. [..] Fragments within the identified bin may overlap. Such overlapping may result in certain fragments not contributing to the final color or depth because these fragments are either completely occluded or the fragments. Such fragments are determined to be non-contributing fragments.
[..]
At step 606, non-contributing fragments are discarded. Non-contributing fragments may be discarded by accumulator 216 of processing unit 210. Non-contributing fragments are discarded prior to performing a shading operation. If a fragment is determined to be non-contributing, the fragment is discarded because performing shading operations on such pixels is not necessary and would be an inefficient use of bandwidth and ALU capabilities. In this way embodiments reduce the number of pixel shading operations that are needed.
oder auch:
Primitives are rasterized into “pixel fragments”. Processing module 140 is configured to perform tests on the fragments and perform filtering operations to determine which fragments will need to be shaded. In any given scene to be rendered, primitives may overlap or primitives may be transparent, for example. Thus, certain primitives and their corresponding fragments may not contribute to the final color or depth of a scene. Processing module 140 is configured to discard fragments which do not contribute to a final pixel color or pixel depth prior to performing any shading operation. The use of deferred primitive batch binning in an immediate mode rendering system is opportunistically employed and degrades to an immediate mode rendering system with small delay when a primitive batch size is based on one or more conditions forcing receipt of only one primitive per batch. Additionally the deferred primitive batch binning does is a completely embedded hardware process which results in reduced external bandwidth.Das Patent enthält sogar mal ziemlich verständliche Charakterisierungen.
Und man erwähnt sogar explizit, daß das Ganze mit dem "partially deferred immediate mode renderer" (so hatte ich das mal vor einiger Zeit genannt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11252105&), das Patent paßt sehr gut zu meinen vorherigen Posts (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11252200)) die tief hängenden Früchte bei einem immediate Mode Renderer ernten soll und es im Zweifelsfall ohne Probleme wie ein herkömmlicher IMR arbeitet.
edit2:
Hah, das Patent hattest Du ja schon damals im Januar verlinkt. Hatte ich nur nie reingeschaut. Muß ich wohl überlesen haben.
LordCama
2017-06-12, 18:50:52
sorry OT, aber: danke Gipsel.
basix
2017-06-12, 19:44:18
Danke Gipsel :up:
Für mich stellt sich noch die Frage, ob man durch das Tiling noch mehr machen kann. Blöd gesagt Kacheln wie bei Cinebench nacheinander + parallel je nach Anzahl Cores abarbeiten, jedoch mit überlappender Ausführung (die Anzahl Cores wäre z.B. die Anzahl Rasterizer). Als Analogie für das untenstehende Schema kann man sich auch das Durchscannen bei Kathodenstrahlröhren z.B. bei PAL vorstellen. Hier mal ein sehr vereinfachtes Schema der überlappenden Ausführung:
Geometrie für Tile #1 berechnen
Geometrie für Tile #2 Berechnen; gleichzeitig Beleuchtung für Tile #1
Geometrie für Tile #3 Berechnen; gleichzeitig Beleuchtung für Tile #2 sowie Postprocessing für Tile #1
Geometrie für Tile #4 Berechnen; gleichzeitig Beleuchtung für Tile #3 sowie Postprocessing für Tile #2
usw.
Man müsste im Cache nur die Geometrie der gerade zu bearbeitenden Tiles vorhalten (im Beispiel wären es maximal 3). Je nach belasteter HW-Einheiten hätte man praktisch für alle jeweils zum grössten Teil der Zeit etwas zu tun (von vorne bis hinten durch die Pipeline durch). Die Frage ist, wie gross die Tiles dafür sein müssen um Überlappungen von Geometrie schon möglichst früh zu vermeiden oder ob man wie Gipsel beschrieben schon möglichst den ganzen Output aus dem Vertex-Shader haben sollte. Vielleicht könnte man mit "asymmetrischen" Tiles für Geometrie gegenüber Beleuchtung / Postprocessing arbeiten (dementsprechend etwas grössere Tiles für den Vertex-Shader verwenden). Schlussendlich limitiert die Cache-Grösse die Tile-Grössen sowie deren Anzahl.
Erbsenkönig
2017-06-14, 23:36:31
Hallo! Kann mir jemand ganz kurz auf die Sprünge helfen: Ich hab die Vega Thematik bisher gar nicht verfolgt und hab auf die Schnelle auch nichts übersichtliches finden können.
Soweit ich das verstehe, wird Vega wohl in verschiedenen Phasen auf den Markt kommen. "Vega 10" soll dabei eher "High-End" sein, während "Vega 11" eher die Mittelklasse bedienen dürfte. Während Vega 10 aber wohl in den nächsten Monaten irgendwann erscheinen wird, kann man mit Vega 11 erst gegen Jahresende rechnen.
Korrekt?
vinacis_vivids
2017-06-14, 23:43:20
Es ist auch möglich, dass eine Dual-Vega released wird.
Vega FE gibs ab 27.06.2017
Vega 10 gibs ab 30.07-03.08.2017
Erbsenkönig
2017-06-14, 23:53:42
Es ist auch möglich, dass eine Dual-Vega released wird.
Vega FE gibs ab 27.06.2017
Vega 10 gibs ab 30.07-03.08.2017
Das ist dann aber praktisch dieselbe Karte, oder? FE ist ja nur das Referenzdesign, oder?
Unicous
2017-06-15, 00:04:52
Nein, die Frontier Edition ist an sich eine Pro-Karte und afaik wird es zum Start auch keine Radeon-Treiber geben.
Wie die Referenzdesigns aussehen werden (und ob es welche gibt) ist noch nicht durchgesickert, soweit ich weiß.
Aber sie werden sicherlich nicht Blau sein.:wink:
Derselbe Chip ist es aber, und darauf bezog sich die Frage offensichtlich. Dazu kann man schon sagen, dass mit V10, also alles was demnaechst kommt, keine Mittelklassekarten zu erwarten sind, das ist deutlich ueber Polaris mit der 580. Ueber v11 wissen wir quasi noch nichts.
vinacis_vivids
2017-06-15, 00:08:30
Das ist dann aber praktisch dieselbe Karte, oder? FE ist ja nur das Referenzdesign, oder?
FE hat 16GB und consumer hat 8GB.
Beide werden zuerst in Referenz kommen, custom consumer wird sicher seine Zeit brauchen.
Es wird auch spekuliert, dass Vega beim Erscheinen lange ausverkauft sein wird, wenn HBM² beim mining abgeht...
Erbsenkönig
2017-06-15, 00:19:41
Danke für eure Antworten.
Ich überlege gerade, meine R9 390 zu verschachern, solange es noch genug Irre gibt, die mir beim Gebrauchtverkauf einen Gewinn über die Anschaffungskosten bescheren wollen :D Nun weiß ich aber nicht so recht, was als Ersatz herhalten sollte, denn RX 4x0/5x0 fällt natürlich im Moment flach. GTX 1060 ist nicht der Rede wert und dann bleibt eigentlich nur noch 980 Ti, 1070 oder 1080 (Ti). Die sind dann aber preislich auch wieder nicht gerade billig...
Deswegen meine Frage hinsichtlich Vega. Möchte ich aber kein "High-End-Gerät" für zig Hundert €, werde ich wohl dort in nächster Zeit auch nicht glücklich werden...
AlphaNUSS
2017-06-15, 11:38:43
Laut AMD soll Vega genau wie Ryzen high end performace für einen deutlich günstigeren Preis bringen, aber was da genau dran ist, kann man natürlich nicht sagen.
tm0975
2017-06-15, 13:22:34
Laut AMD soll Vega genau wie Ryzen high end performace für einen deutlich günstigeren Preis bringen, aber was da genau dran ist, kann man natürlich nicht sagen.
wahrscheinlich vergleicht amd dann eher mit titan als mit ti... in paar tagen wissen wir mehr. wie tauglich sind denn die workstation karten zum spielen bzw. wie gut läßt sich an diesen erkennen, wie schnell die comsumer-karten werden?
Rampage 2
2017-06-15, 13:24:47
Danke für eure Antworten.
Ich überlege gerade, meine R9 390 zu verschachern, solange es noch genug Irre gibt, die mir beim Gebrauchtverkauf einen Gewinn über die Anschaffungskosten bescheren wollen :D Nun weiß ich aber nicht so recht, was als Ersatz herhalten sollte, denn RX 4x0/5x0 fällt natürlich im Moment flach. GTX 1060 ist nicht der Rede wert und dann bleibt eigentlich nur noch 980 Ti, 1070 oder 1080 (Ti). Die sind dann aber preislich auch wieder nicht gerade billig...
Deswegen meine Frage hinsichtlich Vega. Möchte ich aber kein "High-End-Gerät" für zig Hundert €, werde ich wohl dort in nächster Zeit auch nicht glücklich werden...
Der Vega im Vollausbau wird mindestens 600$ (UVP) kosten - möglicherweise sogar 700 (je nachdem, wie gut man an die 1080Ti herankommt oder sie gar überflügelt). Rechne dazu noch Einfuhrumsatzsteuer, Mehrwertsteuer und den aktuellen Dollar-Kurs, dann kommen da 650-700€ bzw. 750-800€ heraus. Unter 600€ wirst du die Top-Vega für eine längere Zeit nicht bekommen - höchstens einen teildeaktivierten Salvage-Part (sofern AMD einen solchen auf den Markt bringt), und auch der wird 400-500€ kosten.
Wenn du also keine HighEnd-Preise bezahlen willst, dann bleiben dir nur 2 Möglichkeiten: kauf dir 'ne 1070 von Nvidia oder warte auf eine Vega-Salvage (dann könnte auch der Preis der 1070 noch weiter fallen); das könnte aber noch lange dauern - vermutlich wird AMD in den ersten Monaten nur den Vega-Vollausbau anbieten...
R2
BlacKi
2017-06-15, 13:53:49
Der Vega im Vollausbau wird mindestens 600$ (UVP) kosten - möglicherweise sogar 700 (je nachdem, wie gut man an die 1080Ti herankommt oder sie gar überflügelt). Rechne dazu noch Einfuhrumsatzsteuer, Mehrwertsteuer und den aktuellen Dollar-Kurs, dann kommen da 650-700€ bzw. 750-800€ heraus. Unter 600€ wirst du die Top-Vega für eine längere Zeit nicht bekommen - höchstens einen teildeaktivierten Salvage-Part (sofern AMD einen solchen auf den Markt bringt), und auch der wird 400-500€ kosten.
Wenn du also keine HighEnd-Preise bezahlen willst, dann bleiben dir nur 2 Möglichkeiten: kauf dir 'ne 1070 von Nvidia oder warte auf eine Vega-Salvage (dann könnte auch der Preis der 1070 noch weiter fallen); das könnte aber noch lange dauern - vermutlich wird AMD in den ersten Monaten nur den Vega-Vollausbau anbieten...
R2
solange ist es bis volta nicht mehr, keine 9 monate mehr, spätestens dann wird vega günstiger.
Swissr
2017-06-15, 14:04:38
ich hoffe mal dass sie wie bei Ryzen zu einem anständigen Preis (etwas unter den aktuellen 1080 TI Preisen) rauskommen, und sich dieser nochmals um 10% nach einigen Wochen verbessert.
Habe vor kurzem meine 1070er nach fast genau einem Jahr mit geringem Verlust verkauft. Nun warte ich die nächsten 6-8 Wochen ab, ob Vega mit akzeptablem Preis und Performance startet, ansonsten wird die 1080TI gekauft, was schade wäre, da ich dann Freesync nicht beim neuen Monitor nutzen könnte..
Erbsenkönig
2017-06-15, 15:37:02
Der Vega im Vollausbau wird mindestens 600$ (UVP) kosten - möglicherweise sogar 700 (je nachdem, wie gut man an die 1080Ti herankommt oder sie gar überflügelt). Rechne dazu noch Einfuhrumsatzsteuer, Mehrwertsteuer und den aktuellen Dollar-Kurs, dann kommen da 650-700€ bzw. 750-800€ heraus. Unter 600€ wirst du die Top-Vega für eine längere Zeit nicht bekommen - höchstens einen teildeaktivierten Salvage-Part (sofern AMD einen solchen auf den Markt bringt), und auch der wird 400-500€ kosten.
Auch das wäre mir dann zu teuer.
Wenn du also keine HighEnd-Preise bezahlen willst, dann bleiben dir nur 2 Möglichkeiten: kauf dir 'ne 1070 von Nvidia oder warte auf eine Vega-Salvage (dann könnte auch der Preis der 1070 noch weiter fallen); das könnte aber noch lange dauern - vermutlich wird AMD in den ersten Monaten nur den Vega-Vollausbau anbieten...
R2
Ich werde die Lage mal im Auge behalten und nebenbei den Gebrauchtmarkt beackern. Wäre nicht schlecht, wenn man ne 1070 oder 1080 und somit 1,5x bzw. 2x Leistung für sagen wir mal 50-150 € Nettoinvestition kriegen könnte.
Es wird auch spekuliert, dass Vega beim Erscheinen lange ausverkauft sein wird, wenn HBM² beim mining abgeht...
Ich sehe keinen Grund, warum Vega da schlechter abschneiden sollte. Trotzdem bleibt es natuerlich eine Kostenfrage, das soll sich ja schnell abzahlen. GP102 kann auch deutlich mehr leisten als P10, ist aber natuerlich idR. zu teuer. Wenn man also Vega will genau diese Befuerchtung hat, sollte man vielleicht zur FE greifen, damit man rasch noch eine bekommt. Wenn man sich an die Verfuegbarkeit beim Polaris Launch erinnert, beruecksichtigt dass Apple die haben will und es auch noch Profi Karten geben soll wuerde ich mir sonst keine allzu grossen Hoffnungen machen.
Digidi
2017-06-15, 16:55:29
Mal eine Frage zum HBM2 Controller. Ist der genau so groß wie HBM1?
Wenn ja hat AMD hier ja auch wieder sehr viel Fläche gespart indem man von 4 Controlern auf 2 gewechselt ist.
reaperrr
2017-06-15, 17:13:05
Mal eine Frage zum HBM2 Controller. Ist der genau so groß wie HBM1?
Wenn ja hat AMD hier ja auch wieder sehr viel Fläche gespart indem man von 4 Controlern auf 2 gewechselt ist.
Grundsätzlich ja. Ob sie die Controller zugunsten besserer Taktbarkeit evtl. weniger dicht gepackt haben ist eine andere Sache, aber durch den Shrink auf 14nm sollten die 2 Controller von V10 in jedem Fall deutlich weniger Fläche brauchen als die 4 von Fiji.
Complicated
2017-06-15, 18:00:38
Sprecht ihr vom Speicherinterface? Denn Vega wird einen HBCC haben und keine 2. Ebenso wie Fiji nur einen zentralen Speichercontroler hatte.
Unicous
2017-06-15, 18:35:42
Er meint die PHYs und ich schätze die werden die gleiche relative Größe haben wie bei Fiji. Stellt sich die Frage ob die HBM PHYs besser geschrumpft werden können als G/DDR PHYs.
Linmoum
2017-06-15, 21:14:42
Kann zu dem Shop selbst nichts sagen, aber ein britischer Händler hat die Frontier Edition (Luft und AIO) gelistet.
https://www.scan.co.uk/shop/computer-hardware/gpu-amd/amd-radeon-vega-frontier-edition-graphics-cards
• “Vega” GPU Architecture.
• 64 Next-Gen Compute Units (nCUs) (4096 Stream Processors)
• 16GB High Bandwidth Cache (HBC) Memory.
• 483 GB/s Memory Bandwidth.
• 90 Gpixels/s Fillrate
• 13.1 TFLOPS Peak FP32 Compute Performance
• 26.2 TFLOPS Peak FP16 Compute Performance
• 3x DisplayPort™ 1.4 HBR3/HDR Ready, & 1x HDMI™ 4K60 Display Outputs
• DirectX® 12.1, OpenGL® 4.5, OpenCL™ 2.0, & Vulkan® 1.0 API Support
• Dual-slot, full length (10.5”) Form Factor.
• Air Cooling Solution. Liquid-cooled versions also available.
Unicous
2017-06-15, 21:17:16
Ganz normaler Shop, aber fraglich ob das nicht lediglch Platzhalter-Preise sind.
Tamagothi
2017-06-15, 21:58:48
Normal mach man aber höhere Preise als Platzhalter ^^
Wenn das so wäre wird VEGA günstig.
Digidi
2017-06-15, 22:00:33
Kann zu dem Shop selbst nichts sagen, aber ein britischer Händler hat die Frontier Edition (Luft und AIO) gelistet.
https://www.scan.co.uk/shop/computer-hardware/gpu-amd/amd-radeon-vega-frontier-edition-graphics-cards
1300 Euro das wäre ja mal Spot billig für eine Profi Lösung.
AffenJack
2017-06-15, 23:04:38
Das Ding ist als Titan X Gegner konzipiert, da macht der Preis in meinen Augen auch Sinn. Richtige Profilösungen werden natürlich teurer.
Gflops dürften auch eher geraten sein bei dem Shop, denn es hieß mal die Wassergekühlte Version wird etwas schneller sein.
Unicous
2017-06-15, 23:22:58
Da ist nichts geraten. Das kommt aus einer Datenbank.
Aber das heißt natürlich nicht, dass die Datenbank die korrekten Daten gefüttert bekommen hat bzw. die Angaben eher copy&paste sind.:wink:
Naja, plausibel sind die Werte zumindest. Die FE hat ja offenbar auch etwas mehr headroom bekommen. Aber so oder so, 1 TF hin oder her sollte jetzt keinen mehr verrueckt machen, bald ist es eh alles raus.
ilPatrino
2017-06-15, 23:44:49
Das Ding ist als Titan X Gegner konzipiert, da macht der Preis in meinen Augen auch Sinn. Richtige Profilösungen werden natürlich teurer.
wenn das teil uneingeschränkt mit den fire-treibern läuft und sich damit für professionelle anwendungen qualifiziert (diverse cad-pakete sind sehr picky), wäre der preis sensationell gut. für gamer logischerweise zu teuer, aber dafür gibts halt später die anderen versionen. auch wenn mich das warten massiv ankotzt. andererseits hab ich momentan eh keine zeit für neue hardware...
Troyan
2017-06-15, 23:49:58
Die neue Pro Duo soll auch nur $999 kosten.
Von Videocardz:
https://cdn.videocardz.com/1/2017/06/Radeon-Frontier-vs-TITAN-Xp-1000x388.jpg
https://videocardz.com/70299/amd-radeon-vega-frontier-graphics-card-available-for-preorder
375w für die wassergekühlte Variante? Das gibt aber Haue von den grünen Fanboys (sofern die Angaben der Realität entsprechen).
crux2005
2017-06-16, 00:29:38
375w für die wassergekühlte Variante? Das gibt aber Haue von den grünen Fanboys (sofern die Angaben der Realität entsprechen).
Und die roten Fanboys haben >1500 MHz Core mit <250W TDP erwartet :P
Hübie
2017-06-16, 00:42:56
375w für die wassergekühlte Variante? Das gibt aber Haue von den grünen Fanboys (sofern die Angaben der Realität entsprechen).
So lange dies in Leistung umgesetzt wird, sagt keiner etwas. ;)
Nur zur Info: Die Programme Catia, Solidworks und Siemens NX brauchen eine Quadro bzw. den Quadro-Treiber für gute Beschleunigung. NV will ja Kohle machen und hat daher die Märkte getrennt.
Ich sehe da weder eine TGP- noch eine TDP-Angabe, nur die zwei 8-Polskis.
MfG,
Raff
Troyan
2017-06-16, 00:50:22
Schau in die Spalte "Max Board TDP". :D
So lange dies in Leistung umgesetzt wird, sagt keiner etwas. ;)
Da wäre ich mir nicht so sicher. Interessant auf jeden Fall, dass die angegeben Werte (Benchmarks) lediglich für die luftgekühlte FE gelten. Ich bin gespannt wie hoch die Wakü-Vega takten wird ...
Die Messungen sind uebrigens weder neu noch eigen (auch nicht von Exxact), sondern von AMD (http://pro.radeon.com/en-us/vega-frontier-edition/)
N0Thing
2017-06-16, 01:41:54
Kann zu dem Shop selbst nichts sagen, aber ein britischer Händler hat die Frontier Edition (Luft und AIO) gelistet.
https://www.scan.co.uk/shop/computer-hardware/gpu-amd/amd-radeon-vega-frontier-edition-graphics-cards
Gab es vorher schon mal eine Erwähnung von DX12.1 für Vega?
Ich sehe da weder eine TGP- noch eine TDP-Angabe, nur die zwei 8-Polskis.
MfG,
Raff
Ich sehe auch keine Angabe zur TDP. 2x8 werden aber vermutlich nicht verbaut, wenn 1x6 + 1x8 auch locker ausgereicht hätten. Eine Leistungsaufnahme oberhalb von 275W erscheinen mir da nicht unrealistisch.
horn 12
2017-06-16, 06:43:41
Wassergekühlte wohl um die 1800+ Mhz, wenn gar nicht höher.
RX Vega wird wohl im Referenz um die 1675 bis 1700 Mhz erreichen
Custom Bedeutend mehr!
OgrEGT
2017-06-16, 07:33:17
Wassergekühlte wohl um die 1800+ Mhz, wenn gar nicht höher.
RX Vega wird wohl im Referenz um die 1675 bis 1700 Mhz erreichen
Custom Bedeutend mehr!
Im B3D Forum geht man davon aus dass die wassergekühlte FE nur die 1600Mhz besser wird halten können als die luftgekühlte FE... Weiß nicht ob der Takt bei normalem Kühlaufwand so hoch gehen kann wie du spekulierst...
tm0975
2017-06-16, 08:29:01
Im B3D Forum geht man davon aus dass die wassergekühlte FE nur die 1600Mhz besser wird halten können als die luftgekühlte FE... Weiß nicht ob der Takt bei normalem Kühlaufwand so hoch gehen kann wie du spekulierst...
das würde ja bedeuten, dass man mit 300 w kurz 1600 mhz halten kann und mit 375 watt verbrauch länger. das ist aber ein widerspruch, denn der takt steht im verhältnis zum verbrauch und nicht zum verbrauch über zeit. die chiptemperatur hat nicht so einen großen einfluß, denn dann würde man generell tiefer kühlen.
AffenJack
2017-06-16, 08:40:21
das würde ja bedeuten, dass man mit 300 w kurz 1600 mhz halten kann und mit 375 watt verbrauch länger. das ist aber ein widerspruch, denn der takt steht im verhältnis zum verbrauch und nicht zum verbrauch über zeit. die chiptemperatur hat nicht so einen großen einfluß, denn dann würde man generell tiefer kühlen.
Es wären einfach Turbo Taktraten bei der Luftgekühlten die nicht gehalten werden können bei der TDP. Das ganze ist halt Workloadabhängig. Ne Fury Nano ist auch mit 1000Mhz spezifiziert bei den meisten Shops. Das ist aber nur die Boosttaktrate die sie nur äußerst selten hält.
So ein Quatsch, die braucht keine 375W, wie oft denn noch. Das ist total unlogisch.
drei Dinge:
- Man wollte das Teil erst mit 6+8 bringen, das spricht aber sowas von gegen diese schwachsinnige Theorie
- Man wird so gut wie nichts auf dem PEG ziehen, wie bei der Fury dank HBM
- hey, das Teil hat einen Radial-Luftkühler :freak:, klar 375W... sonst noch Schmerzen?
6+8 ohne PEG = 225W (245 wenn mans auf Kante nähen möchte). Das bedeutet, die reale TDP wird so bei 250W liegen dank der hohen Taktung.
Natürlich ist die theoretische Boardpower 375W, 75W PEG+2x 150W 8 Pin PCIe. Das wird das Teil aber nicht im Ansatz brauchen.
Die WaKü gibts wegen Lautheit, sonst gar nix. Die ohne WaKü wird nämlich ähnlich laut wie Hawaii damals, ist doch logisch. Und das schließt Verbräuche jenseits der 300W kategorisch aus, auch das ist logisch.
Vielleicht gönnt man der WaKü-Variante 300W und die nutzen das gleiche PCB, dann ist auch klar, warum man sich bei der Stromversorgung noch umentschieden hat. Ursprünglich war sicherlich nur die mit LuKü und die eben nur mit 6+8 geplant.
Palpatin
2017-06-16, 09:02:48
Hawaii XT war jetzt nicht so weit weg von 375 Watt in einigen Test Szenarien wenn ich mich richtig erinnere.
Quatsch, HawaiiXT war bei 250W, einige WorstCase-Scenarien (Power-Viren) über 300W, aber nur im uber-Mode, nicht im normal-Mode. Die 295X2 war bei 375W, brauchte aber oft 400W+ und war bei 440W abgeriegelt. Die MSI 390X hat ne hohe TDP bei 1,1GHz und braucht gerne mal 350W, das ist aber ne Ausnahme.
dargo
2017-06-16, 09:18:54
Hawaii XT war jetzt nicht so weit weg von 375 Watt in einigen Test Szenarien wenn ich mich richtig erinnere.
Du meinst bestimmt Grenada XT. Das lag daran, dass AMD den Boardpartnern freie Hand gelassen hat, und zwar im großen Maße. So kam es dann, dass MSI die 390X Gaming auf 1,1Ghz mit sehr hohem TDP-Limit geprügelt hat. Zum Vergleich... meine damalige R9 390 non X von HiS hatte eine TDP von ca. 200W.
https://www.ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php
Ht4u hatte damals bei der 290X Referenz mit normal-BIOS (uber ist ja ohne sämtliches Powermanagement) 231W gemessen. Das liegt also etwa auf dem Niveau der heutigen NV-Radialkühler-Karten. Mehr ist damit sinnvoll nicht machbar, sonst fallen dem Nutzer die Ohren ab. V10 FE LuKü ist also wohl kaum jenseits der 250W anzutreffen. Die WaKü-Variante könnte einfach ein höheres Limit haben und läuft daher auch in Lastscenarien etwas schneller - wobei hier durch die Spezifikationsvorgaben die absolute Max-Power eher bei 300W, maximal jedoch 320W liegen muss (2x 150W + ca. 20W PEG, HBM bedenken). Ganz anders natürlich die RX-Customs, hier werden die Hersteller natürlich wieder alle Register ziehen und die 350W z.T. vollmachen, ähnlich wie bei den 1080Ti.
tm0975
2017-06-16, 09:28:07
Ne Fury Nano ist auch mit 1000Mhz spezifiziert bei den meisten Shops. Das ist aber nur die Boosttaktrate die sie nur äußerst selten hält.
nicht unbedingt, eher:
Das ganze ist halt Workloadabhängig.
in wows hält meine nano die 1000 fast durchgängig. es gibt aber auch spiele, wo sie das nicht schafft.
anddill
2017-06-16, 10:20:27
Falls das hier noch nicht aufgetaucht ist:
https://exxactcorp.com/index.php/product/prod_detail/2565
Specs der Frontier Edition Vegas.
Dural
2017-06-16, 10:31:44
Das sieht ja mal wieder böse für AMD aus.
Interessant wäre ja noch wie der vergleich mit Quadro Treiber aussehen würde, aber am ende wird man gleich schnell sein, aber 100Watt mehr aus der Dose ziehen. :rolleyes:
Der Preis der "Pro" Karten sagt eigentlich schon alles aus, bitte nächster versuch starten.
Linmoum
2017-06-16, 10:34:39
Der Preis von Ryzen sagt eigentlich schon alles aus, bitte nächsten Versuch starten.
Sonst noch was gehaltvolles?
BoMbY
2017-06-16, 10:52:59
Das sieht ja mal wieder böse für AMD aus.
Interessant wäre ja noch wie der vergleich mit Quadro Treiber aussehen würde, aber am ende wird man gleich schnell sein, aber 100Watt mehr aus der Dose ziehen. :rolleyes:
Der Preis der "Pro" Karten sagt eigentlich schon alles aus, bitte nächster versuch starten.
Was genau sieht schlecht aus? Die Luftgekühlte Vega FE hat eine 50W höhere TDP als eine Titan XP, und bringt je nach Anwendung deutlich mehr Leistung, bei einem ähnlichen Preis, welcher ganz normal für das Marktsegment ist.
Zu der Leistung der wassergekühlten FE wird leider nichts gesagt, aber die dürfte sicher nochmal ne Schüppe drauflegen für die 75W TDP mehr.
Hasenpfote
2017-06-16, 11:13:47
Das sieht ja mal wieder böse für AMD aus.Aber super für uns Kunden.
Ich hoffe auf eine bezahlbare (deutlich unter 400Euro) Konkurrenz zur 1070. Und aktuell halte ich das füre realistisch. *freu*
Abgesehen davon sind 50W mehr oder weniger auf dem Niveau wirklich irrelevant. Wer da noch mäkelt bleibt eh bei Nvidia.
Wie gesagt, das ist keine TDP. Um die Tabelle korrekt zu machen, müsste bei der Titan auch 300W stehen.
Wieso? Alle GP102-Referenzkarten riegeln die gesamte Boardpower bei 250 Watt ab, das geht nicht drüber (minimale Peaks ausgenommen). Bei AMD funktioniert das anders – es sei denn, Powertune wurde bei Vega verändert.
MfG,
Raff
dargo
2017-06-16, 12:02:07
Der Preis von Ryzen sagt eigentlich schon alles aus, bitte nächsten Versuch starten.
Sonst noch was gehaltvolles?
Interessanterweise stören niemanden im grünen Lager die <300W TDP von GP100. Aber hey... bei AMD ist es deren Untergang. :freak:
Wieso? Alle GP102-Referenzkarten riegeln die gesamte Boardpower bei 250 Watt ab, das geht nicht drüber (minimale Peaks ausgenommen).
Richtig... damit verpasst die aber auch knapp die 12 TFLOPs.
ecodriver
2017-06-16, 12:06:46
Wieso? Alle GP102-Referenzkarten riegeln die gesamte Boardpower bei 250 Watt ab, das geht nicht drüber (minimale Peaks ausgenommen). Bei AMD funktioniert das anders – es sei denn, Powertune wurde bei Vega verändert.
MfG,
Raff
NVIDIA gibt als max Power 300W an (https://www.nvidia.co.uk/data-center/tesla-v100/). Unter Boardpower verstehe ich die max. Power auf dem Board also PCIe + Stecker Aufnahme.
Ich denke das die 300W von ATI (bei der Luftgekühlten) genau so wie die max.Power von NVIDIA zu verstehen sind.
Edit: Link zu NVIDIA
Linmoum
2017-06-16, 12:10:26
NVIDIA gibt als max Power 300W an (https://www.nvidia.co.uk/data-center/tesla-v100/). Unter Boardpower verstehe ich die max. Power auf dem Board also PCIe + Stecker Aufnahme.
Ich denke das die 300W von ATI (bei der Luftgekühlten) genau so wie die max.Power von NVIDIA zu verstehen sind.
Edit: Link zu NVIDIA
Davon gehe ich auch aus. Die Fury X hatte eine Max. Power Consumption von 350W, lag beim Realverbrauch im Schnitt aber bei unter 300W. Das würde schon passen.
NVIDIA gibt als max Power 300W an (https://www.nvidia.co.uk/data-center/tesla-v100/). Unter Boardpower verstehe ich die max. Power auf dem Board also PCIe + Stecker Aufnahme.
Ich denke das die 300W von ATI (bei der Luftgekühlten) genau so wie die max.Power von NVIDIA zu verstehen sind.
Edit: Link zu NVIDIA
Achso, du redest von der Telsa. Und außerdem von Volta. Ich meinte die "Gaming"-Karten mit GP102. Damit haben wir beide Recht. :) Ich bezog mich direkt auf HOTs Aussage in Posting 6067.
MfG,
Raff
ecodriver
2017-06-16, 12:15:41
Achso, du redest von der Telsa. Und außerdem von Volta. Ich meinte die "Gaming"-Karten mit GP102. Damit haben wir beide Recht. :) Ich bezog mich direkt auf HOTs Aussage in Posting 6067.
MfG,
Raff
Die FE ist halt die Profi Variante von daher würde ich Sie eher mit der Profi Vairiante vergleichen. Was die Consumer verbraucht und leistet ist meiner Meinung nach noch offen.
Volta und Pascal haben beide 300W:wink:
dildo4u
2017-06-16, 12:15:59
Die Karte ist doch immer noch Effektiv wenn man sie mit der 580 vergleicht, 2 facher Speed bei 60%? mehr Verbrauch.
Screemer
2017-06-16, 12:20:09
Hat einer mal die Werte von der frontierseite mit P6000 und QUADRO GP100 verglichen? Müsste ja specview, etc. Werte geben.
dargo
2017-06-16, 12:24:14
Übrigens... eine MSI GeForce GTX 1080 Ti Gaming X kommt auf 13,4 TFLOPs und begnügt sich dabei mit 283Watt.
http://www.tomshardware.de/1080ti-performance-leistungsaufnahme-lautstarke-temperatur,testberichte-242349-5.html
Die TDP liegt sogar bei 330W.
Die TDP liegt bei 280 Watt. (https://de.msi.com/Graphics-card/GeForc-GTX-1080-Ti-GAMING-X-11G.html#hero-specification) 330 Watt kann man maximal einstellen, dafür braucht's aber Zusatztools (117 % Powerlimit).
MfG,
Raff
dargo
2017-06-16, 12:30:33
Doch zurück zur MSI GTX 1080 Ti Gaming X 11G. MSI war mit dem eigenen Modell sehr zeitig am Start und setzt wie so oft in der letzten Zeit nicht auf die höchste mögliche Taktrate ab Werk, wenngleich das maximal auswählbare Power Target von bis zu 330 Watt (über Software) schon eine Menge Holz ist.
http://www.tomshardware.de/1080ti-performance-leistungsaufnahme-lautstarke-temperatur,testberichte-242349.html
Wie gesagt. ;) Out of the box and into the PC arbeitet die Karte mit 280 Watt. Alles darüber ist Overclocking.
Die Sapphire RX 580 Nitro+ LE säuft beim Spielen circa 225 Watt. Im Wattman/Powertune kann ich +50 Prozent einstellen. Beträgt die TDP der Karte dann 338 Watt? ;)
MfG,
Raff
dargo
2017-06-16, 12:40:42
Sag das TH, nicht mir. TH bescheinigt der Karte eine TDP von 330W.
Ist auch völlig egal. NV braucht für 13 TFLOPs bei Pascal ca. 275W. In einer ähnlichen Region erwarte ich Vega. Vielleicht leicht drüber. Jetzt heißt es nur die Leistung vernünftig über eine breite Palette der Spiele abrufen.
Screemer
2017-06-16, 12:44:38
Also die specviewperf Werte sind jetzt nicht berauschend, wenn man mit den quadros vergleicht. Warum ist da noch keiner drauf gekommen? Hab aber für allerdings nur Werte von 12 und nicht 12.1 gefunden:
https://exxactcorp.com/mnt/stor2-wc2-dfw1/426888/997297/www.exxactcorp.com/web/content/baytech/fck_file/image/VEGA(1).jpg
http://techgage.com/wp-content/uploads/2017/02/NVIDIA-Quadro-P6000-SPECviewperf-12.png
P6000 kostet natürlich ne Ecke mehr aber das lässt nichts gutes für die consumer Varianten hoffen.
Linmoum
2017-06-16, 12:49:51
Wurde halt schon damals verglichen, die Werte sind ja seit 'nem Monat (FAD) bekannt.
basix
2017-06-16, 12:55:25
Die Karte ist doch immer noch Effektiv wenn man sie mit der 580 vergleicht, 2 facher Speed bei 60%? mehr Verbrauch.
Sollte effektiv bei Spielen nicht noch mehr dabei rauskommen als Faktor 2? Neue Architekur und so...(ja R600 mal ausgeklammert).
Bei der Effizienz ebenfalls: Tiled Ansatz, HBM und (hoffentlich) nicht über dem Sweet Spot getaktet.
BoMbY
2017-06-16, 13:00:13
Für die M6000 werden immer noch 5000,- Euro verlangt, die FE bringt eine ähnliche Leistung für 1500,- Euro, oder so ...
dargo
2017-06-16, 13:01:44
Stimmt das eigentlich mit den 64 ROPs bei V10 oder spukuliert Leonidas auf der Startseite nur?
Screemer
2017-06-16, 13:02:21
Wurde halt schon damals verglichen, die Werte sind ja seit 'nem Monat (FAD) bekannt.
Kann mich nicht erinnern, dass das zum FAD jemand getan hätte. Gibt's da links?
Unicous
2017-06-16, 13:04:43
Das sind die exakten Werte, die AMD vorgestellt hatte und es wurde hier auch schon verlinkt.:rolleyes:
-> https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11403177#post11403177
Die Angaben sind also für den Popo.
Screemer
2017-06-16, 13:10:45
Hab ja auch nichts anderes behauptet und in meinem ersten post explizit auf die frontier webseite bezug genommen. Das Bild oben habe ich nur der besseren Übersicht halber genutzt. Den Smiley kannst du dir sparen.
Hat einer mal die Werte von der frontierseite mit P6000 und QUADRO GP100 verglichen? Müsste ja specview, etc. Werte geben.
:rolleyes:
Es gab genau 4 posts nach dem FAD zu specviewperf und niemand hat p6000 Ergebnisse zum Vergleich gepostet. Ich kann mich noch daran erinnern, dass ich damals nach Ergebnissen zu 12.1 gesucht habe und nichts fand. Igor wollte einen test zu den neuen quadros (http://www.tomshardware.co.uk/nvidia-workstation-quadro-pascal-grahpics,news-54786.html)veröffentlichen, da kam aber leider nie etwas oder ich funds einfach nicht.
Expect the roundup to include Quadro cards ranging from the P6000 through the P1000, and all three Radeon Pros (the WX 7100, 5100, and 4100) in a range of real-world applications. Just be patient as we wrap it up; a half-baked story based on synthetic metrics does more harm than good, and we're working to serve up the most accurate analysis possible. That takes some time to get right.
AffenJack
2017-06-16, 13:48:59
Es gab genau 4 posts nach dem FAD zu specviewperf und niemand hat p6000 Ergebnisse zum Vergleich gepostet. Ich kann mich noch daran erinnern, dass ich damals nach Ergebnissen zu 12.1 gesucht habe und nichts fand.
http://www.geeks3d.com/20170515/test-nvidia-quadro-p5000-vs-geforce-gtx-1080/2/#_42
https://hothardware.com/reviews/nvidia-quadro-p4000-and-p2000-pro-workstation-gpu-review?page=4
Stimmen bei der P5000 größtenteils überein, sollte also ganz gut passen.
Palpatin
2017-06-16, 14:14:28
Sollte effektiv bei Spielen nicht noch mehr dabei rauskommen als Faktor 2? Neue Architekur und so...(ja R600 mal ausgeklammert).
Bei der Effizienz ebenfalls: Tiled Ansatz, HBM und (hoffentlich) nicht über dem Sweet Spot getaktet.
Das große ? ist die Bandbreite (700-1000 MHZ HBM2) und wie effektiv VEGA damit umgeht. Im absoluten worst Case wäre man dann nämlich rigendwo bei Polaris x 1,5.
Screemer
2017-06-16, 14:28:17
http://www.geeks3d.com/20170515/test-nvidia-quadro-p5000-vs-geforce-gtx-1080/2/#_42
https://hothardware.com/reviews/nvidia-quadro-p4000-and-p2000-pro-workstation-gpu-review?page=4
Stimmen bei der P5000 größtenteils überein, sollte also ganz gut passen.
Specviewperf spuckt allerdings völlig unterschiedliche Werte je nach Testsystem mit gleicher GPU oder bei unterschiedlichen Versionen aus. Man kann die Werte also nur auf dem gleichen Testsystem oder patchlevel vergleichen. Damit sind irgendwelche Schlüsse wohl hinfällig.
https://www.servethehome.com/wp-content/uploads/2017/05/NVIDIA-Quadro-P6000-ViewPerf-1.jpg
https://hothardware.com/ContentImages/Article/2562/content/spac1.png
http://techgage.com/wp-content/uploads/2017/02/NVIDIA-Quadro-P6000-SPECviewperf-12.png
Quellen: https://www.servethehome.com/nvidia-quadro-p6000-high-end-workstation-graphics-card-review/
https://hothardware.com/reviews/nvidia-quadro-p6000-and-p5000-workstation-gpu-reviews?page=4?page=4
http://techgage.com/article/nvidias-fastest-graphics-card-ever-a-look-at-the-quadro-p6000/4/
Dino-Fossil
2017-06-16, 14:37:16
Wie gehabt, bis zum Erscheinen von vertrauenswürdigen unabhängigen Tests bleibt das alles ein Blick in die Glaskugel.
Wobei ich mich doch frage, warum AMD hier mit der Titan Xp vergleicht, wo Vega FE doch eher in den professionellen Bereich soll.
Möchten sie besser dastehen, oder ist das doch eher ein Knochen, den sie den Spielern hinwerfen?
Tamagothi
2017-06-16, 14:42:45
Vielleicht wollen sie zeigen das man für xxx Geld diese Leistung von uns bekommt und bei Nvidia diese.
Screemer
2017-06-16, 14:43:57
Weil sie den gleichen preisbereich vergleichen. Man liegt zwischen p4000 (~850-1000€) und p5000(~1950-2200€). Leistungstechnisch wohl näher an p5000 und preislich näher an p4000. Bei NV gibts dazwischen eben nur die txp. Allerdings ist der Vergleich ohne quadrotreiber imho eh sinnfrei.
basix
2017-06-16, 14:51:29
Das große ? ist die Bandbreite (700-1000 MHZ HBM2) und wie effektiv VEGA damit umgeht. Im absoluten worst Case wäre man dann nämlich rigendwo bei Polaris x 1,5.
Ehm Bandbreite & Rohleistung der Vega FE ist doch fast doppelt so hoch wie bei einer RX 580er. Das sind dann auch die Referenzwerte für die grosse Gamerkarte. Wie kommst du auf 1.5x? 700Mhz sehe ich wenn dann nur beim Salvage.
Zudem ist doch der grosse Vorteil des Tiled Ansatzes die viel bessere Ausnutzung des Caches und somit geringerer benötigter off-Chip Bandbreite. Siehe Maxwell vs. Kepler als Referenz. Hier nicht eine bessere Effizienz als bei Polaris zu erwarten, finde ich unlogisch.
Fragman
2017-06-16, 14:52:51
wenn die karte gegen die titan verglichen wird, dann wird sie auch gegen die titan gestellt. gegen die p6000 hat sie wohl keine chance bei specview und co.
der preis ist niedriger, ja, aber dafuer fehlt cuda und 50 prozent mehr speicher (das nv generell zu teuer ist, ja, das wissen wir alle).
aber hier gehts ums gaming.
und da werden keine leistungswerte praesentiert. der preis ist schonmal ne hausnummer, vor allem der fuer die wassergekuehlte, also die, die dann wohl dauerhaft mit voller leisting laufen wird (wie hier einige vermuten)?
wie soll man da fuer die reine gamerkarte auf die erhofften 700€ max fuer die ti leistung kommen? geht das nicht eher richtig 900€ oder so?
(ausser natuerlich man spielt das nvidia game und verlangt fuer 15 prozent mehr leistung 60 prozent aufpreis)
auf jedenfall verunsichert das noch mehr. ;)
Dino-Fossil
2017-06-16, 14:59:10
wie soll man da fuer die reine gamerkarte auf die erhofften 700€ max fuer die ti leistung kommen? geht das nicht eher richtig 900€ oder so?
Naja, Karten für den professionellen Bereich sind generell teurer als die Gamer-Derivate. Siehe z.B. auch die Firepro WX7100, die jenseits der 600€ liegt, während eine RX480 um 250€ lag (vor dem aktuellen Mining-Boom).
deekey777
2017-06-16, 15:00:03
Stimmt das eigentlich mit den 64 ROPs bei V10 oder spukuliert Leonidas auf der Startseite nur?
Rechne die Anzahl der ROPs aus. Bei 90GPixel/s scheinen 64 ROPs keine Spekulation zu sein.
dildo4u
2017-06-16, 15:02:14
Die zusätzlichen 8GB HBM2 werden den Preis in die höhe Treiber,die 8GB Version wird vermutlich für 650€ kommen.
BlacKi
2017-06-16, 15:02:58
Ehm Bandbreite & Rohleistung der Vega FE ist doch fast doppelt so hoch wie bei einer RX 580er. Das sind dann auch die Referenzwerte für die grosse Gamerkarte. Wie kommst du auf 1.5x? 700Mhz sehe ich wenn dann nur beim Salvage.
Zudem ist doch der grosse Vorteil des Tiled Ansatzes die viel bessere Ausnutzung des Caches und somit geringerer benötigter off-Chip Bandbreite. Siehe Maxwell vs. Kepler als Referenz. Hier nicht eine bessere Effizienz als bei Polaris zu erwarten, finde ich unlogisch.
gp106 1280 cudas gp104 2560 cudas ist also gp104 doppelt so schnell? eher 1,5x. mit den nicht einberechneten optimierungen wird man den rest machen müssen.
Hübie
2017-06-16, 15:08:59
Sag das TH, nicht mir. TH bescheinigt der Karte eine TDP von 330W.
Ist auch völlig egal. NV braucht für 13 TFLOPs bei Pascal ca. 275W. In einer ähnlichen Region erwarte ich Vega. Vielleicht leicht drüber. Jetzt heißt es nur die Leistung vernünftig über eine breite Palette der Spiele abrufen.
Öhm dargo?
Doch zurück zur MSI GTX 1080 Ti Gaming X 11G. MSI war mit dem eigenen Modell sehr zeitig am Start und setzt wie so oft in der letzten Zeit nicht auf die höchste mögliche Taktrate ab Werk, wenngleich das maximal auswählbare Power Target von bis zu 330 Watt (über Software) schon eine Menge Holz ist.
:D Das ist nicht die TDP sondern das maximal einstellbare PT per Software. Raff hat schon Recht wenn er 280 Watt sagt. Was Karten haben, nachdem man den Regler hoch zieht steht auf einem anderen Papier (siehe Raff's Beispiel mit der RX 580). Sei es drum. :smile:
Ich schließe nicht unbedingt von der Board Power auf den Verbrauch und selbst wenn ist die einzig relevante Metrik Performance pro Watt.
Und was ich beinahe schon Gebetsmühlenartig sage: SPECVIEWPERF ist ein Index für Profi-Karten. Man stellt die TXp aufgrund des Preises gegen die V10 FE, nicht wegen der Leistungsfähigkeit. Sonst müsste man sich der Quadro P6000 oder Quadro GP100 stellen (Tesla beachten wir nicht, denn hier reden wir auch nicht von den FirePro-Karten). Da schneidet die garantiert nicht so gut ab.
Also lasst uns mal cool bleiben und die ersten Spiele-Benchmark-Leaks abwarten, alles andere ist mMn pure Kaffeesatzleserei.
dargo
2017-06-16, 15:10:37
aber hier gehts ums gaming.
und da werden keine leistungswerte praesentiert. der preis ist schonmal ne hausnummer, vor allem der fuer die wassergekuehlte, also die, die dann wohl dauerhaft mit voller leisting laufen wird (wie hier einige vermuten)?
wie soll man da fuer die reine gamerkarte auf die erhofften 700€ max fuer die ti leistung kommen? geht das nicht eher richtig 900€ oder so?
(ausser natuerlich man spielt das nvidia game und verlangt fuer 15 prozent mehr leistung 60 prozent aufpreis)
auf jedenfall verunsichert das noch mehr. ;)
Den Aufpreis für die wassergekühlte FE kann man sicherlich nicht alleine mit dem Kühler begründen. Ich vermute hier selektierte Chips. Vega @Gaming wird 8GB HBM2 haben und keine 16GB. Und wenn das mit dem geringeren Takt bei V10 für Desktop stimmt dann ist das schon beinah Salvage was dort verkauft wird. Schon hast du deine Begründung für keine 900€.
Öhm dargo?
Wie wärs wenn du auch mal lesen könntest was ich verlinke? :rolleyes:
60307
Screemer
2017-06-16, 15:10:39
Vergleich mal dienpreise der WX 7100 und der rx 480. erstere kostet 650€ und letztere 220-260€. Oder p6000 und Txp. ~5000€ zu 1300€. 12gb ddr5x rechtfertigen wohl keinen solchen Aufpreis. Das ist der pro-support, zertifikation, etc.
Troyan
2017-06-16, 15:18:38
Die Frontier Edition ist keine Pro-Version:
Developers, and creators working with design tools who want the superior performance and are fine with not having application certification. Those who wish to have certified app support can turn to the “Vega” versions of Radeon™ Pro WX coming Q3, 2017
https://exxactcorp.com/index.php/product/prod_detail/2566
Screemer
2017-06-16, 15:35:52
Aha. Damit schießen sie sich halt mal volle kanne selber ins Knie. Gibt's da noch andere quellen? Mir schwant böses...
vinacis_vivids
2017-06-16, 15:40:42
Aha. Damit schießen sie sich halt mal volle kanne selber ins Knie. Gibt's da noch andere quellen? Mir schwant böses...
Geht AMD pleite oder was?
Hübie
2017-06-16, 15:45:32
Wie wärs wenn du auch mal lesen könntest was ich verlinke? :rolleyes:
60307
Es ist doch klar, dass dies ein Fehler ist wenn es im Text noch drin steht. Ich sagte auch: Sei es drum. ;)
Um das mit Geforce vs. Quadro mal zu untermauern:
Test Result GTX1080 Result P5000 Speedup over 1080
3dxmax-05 145,65 141,26 -3,014074837
catia-04 79,12 156,19 97,40899899
creo-01 49,37 116,24 135,4466275
energy-01 7,56 17,26 128,3068783
maya-04 131,32 100,21 -23,69022236
medical-01 43,11 76,01 76,31639991
showcase-01 94,81 94,83 0,021094821
snx-02 8,04 198,58 2369,900498
sw-03 57,27 156,72 173,6511262
Mit anderen Worten: Auf die Performance kann man jedenfalls noch keine Rückschlüsse ziehen (jedenfalls keine guten, verlässlichen, präzisen ...etc).
Der_Korken
2017-06-16, 16:02:11
gp106 1280 cudas gp104 2560 cudas ist also gp104 doppelt so schnell? eher 1,5x. mit den nicht einberechneten optimierungen wird man den rest machen müssen.
Die 1080 FE ist nicht 50% schneller als die 1060 FE, sondern eher 60-65% (je nach Auflösung). Und dabei taktet die 1060 sogar noch knapp 10% höher, wodurch es nur noch gut Faktor 1.8 bei der Rohleistung sind statt Faktor 2. Außerdem hat die 1080 nur 66% mehr Speicherbandbreite und nur 60% mehr Chipfläche trotz doppeltem Shadercount. Bei Vega verdoppeln sich Rohleistung, Speicherbandbreite und Chipfläche (also vermutlich auch Transistorcount) und die Rohleistung wird zu einem guten Teil über den Takt reingeholt, im Gegensatz zu GP104 vs GP106. Die Fälle sind also absolut nicht vergleichbar und lassen doppelte P10-Leistung von V10 imho als absolut realistisch erscheinen.
ilPatrino
2017-06-16, 16:06:01
Die Frontier Edition ist keine Pro-Version:
https://exxactcorp.com/index.php/product/prod_detail/2566
well..fuck. dann ist das also nur ne titan-variante ohne mehrwert - damit relativiert sich der preis.
andererseits könnte das auch heißen, daß amd sich seiner sache sehr sicher ist, wenn sie das teil so im markt platzieren...
Screemer
2017-06-16, 16:10:59
Geht AMD pleite oder was?
Du weißt ganz genau was ich meine...
N0Thing
2017-06-16, 16:17:02
Die Frontier Edition ist keine Pro-Version:
https://exxactcorp.com/index.php/product/prod_detail/2566
Ich verstehe die Einordnung der Frontier Edition dann aber nicht. Dann hätte AMD einmal die bekannte Gaming Schiene Radeon RX Vega samt Treiber, einmal die professionellen Ableger Radeon Pro WX samt speziellen Treiber und dazwischen die Frontier Edition mit einem weiteren Treiber, der weder für Gaming noch für professionelle Anwendungen ideal geeignet sein soll? Oder fehlt hier wirklich nur die Zertifizierung und der Support, bei ansonsten gleicher Treiberbasis wie bei der Radeon Pro WX?
Linmoum
2017-06-16, 16:24:55
Ich würde spontan von letzterem ausgehen. "Prosumer" dürfte es bei der Frontier Edition wohl am ehesten treffen.
Menace
2017-06-16, 16:29:53
AMD hat doch bei der Vorstellung gesagt, dass sie die Vega FE erst einmal zum "Spielen" ausliefern. Wird aus der Not geboren sein, nicht genug Zeit zu haben. Dafür wird es günstiger angeboten.
Linmoum
2017-06-16, 16:31:57
AMD hat doch bei der Vorstellung gesagt, dass sie die Vega FE erst einmal zum "Spielen" ausliefern. Wird aus der Not geboren sein, nicht genug Zeit zu haben. Dafür wird es günstiger angeboten.
Nein, AMD und Raja haben vom genauen Gegenteil gesprochen.
The Radeon Vega Frontier Edition graphics card is going to empower the pioneers creating the next generation of gaming experiences, but it does beg one question: Can you game on a Radeon Vega Frontier Edition? The answer is yes, absolutely. But because this graphics card is optimized for professional use cases (and priced accordingly), if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card.
http://pro.radeon.com/en-us/vega-frontier-edition/
Edit: Ok, du meinst anscheinend "Spielen" nicht im naheliegenden Sinne von "Spielen". Mein Fehler dann. :D
Aha. Damit schießen sie sich halt mal volle kanne selber ins Knie. Gibt's da noch andere quellen? Mir schwant böses...
Das war doch zu erwarten, ist halt genauso "pro" wie eine Titan.
Entropy
2017-06-16, 17:09:16
Die 1080 FE ist nicht 50% schneller als die 1060 FE, sondern eher 60-65% (je nach Auflösung). Und dabei taktet die 1060 sogar noch knapp 10% höher, wodurch es nur noch gut Faktor 1.8 bei der Rohleistung sind statt Faktor 2. Außerdem hat die 1080 nur 66% mehr Speicherbandbreite und nur 60% mehr Chipfläche trotz doppeltem Shadercount.
1060 hat auch 128 Cuda-Cores pro SM, 1080 hat 64. Damit verdoppelt sich quasi alles andere auf der 1080, in relation zu den Cuda-Cores.
Bin gespannt, was Vega an Architekturverfeinerung mitbringt gegenüber GCN3 und GCN4, bis auf die bekannten Halfs.
Nein, AMD und Raja haben vom genauen Gegenteil gesprochen.
http://pro.radeon.com/en-us/vega-frontier-edition/
Edit: Ok, du meinst anscheinend "Spielen" nicht im naheliegenden Sinne von "Spielen". Mein Fehler dann. :D
Eigentlich sagte er, dass die FE natürlich vom Desktop-Treiber erkannt wird und man damit auch Spielen kann. Empfehlenswert ist es allerdings nicht, da die FE deutlich mehr kostet und die auf Gaming ausgelegte Variante nur etwas später erscheint.
Eldoran
2017-06-16, 17:49:16
Vega FE ist pro, allerdings bedeutet das bei AMD etwas anderes wie nvidia...
Bei AMD gibt es Radeon Pro und Radeon Pro WX, der Unterschied ist primär beim Preis und Zertifizierung - es ist somit vermutlich eine pro Karte die voll kompatibel zu den Pro Treiber/Software ist, aber eben weniger zertifiziert.
http://semiaccurate.com/2016/07/25/amd-revamps-workstation-lines-adds-three-cards/
Das passtz genau zu den bisherigen Statements von AMD.
Locuza
2017-06-16, 18:05:00
1060 hat auch 128 Cuda-Cores pro SM, 1080 hat 64. Damit verdoppelt sich quasi alles andere auf der 1080, in relation zu den Cuda-Cores.
[...]
Der GP100 ist der einzige Pascal mit 64 Cores pro Cluster.
1070/80 verwendet GP104 und 1080Ti und Titan X(p) GP102.
Menace
2017-06-16, 18:11:53
Edit: Ok, du meinst anscheinend "Spielen" nicht im naheliegenden Sinne von "Spielen". Mein Fehler dann. :D
Eher bei mir. War ja schlecht formuliert. Ich hätte schreiben sollen... "den Profis zum rumspielen"...! Was aber doch eine win-win-Situation sein könnte. Anwender bekommen recht günstig eine Profi-Karte; ihre Erfahrung und Feedback führt dann zur Verbesserung der Profisoftware. Early Adopter finanziell würden einmal nicht draufzahlen.
BlacKi
2017-06-16, 18:29:47
Die 1080 FE ist nicht 50% schneller als die 1060 FE, sondern eher 60-65% (je nach Auflösung). Und dabei taktet die 1060 sogar noch knapp 10% höher, wodurch es nur noch gut Faktor 1.8 bei der Rohleistung sind statt Faktor 2. Außerdem hat die 1080 nur 66% mehr Speicherbandbreite und nur 60% mehr Chipfläche trotz doppeltem Shadercount. Bei Vega verdoppeln sich Rohleistung, Speicherbandbreite und Chipfläche (also vermutlich auch Transistorcount) und die Rohleistung wird zu einem guten Teil über den Takt reingeholt, im Gegensatz zu GP104 vs GP106. Die Fälle sind also absolut nicht vergleichbar und lassen doppelte P10-Leistung von V10 imho als absolut realistisch erscheinen.
der vergleich war nur piu mal daumen und sollte aussagen das die 2x performance nicht hinkommen kann.
besser ist der vergleich 460 4gb vs 480 4gb. dort verdoppelt sich die leistung, aber die hardware chipseitig muss sich dazu um 165% und bandbreitentechnisch um 100% steigern und nicht nur um generell 100%.
dargo
2017-06-16, 18:39:48
Gehen die Schwachsinnsvergleiche schon wieder los? Wie oft muss man hier noch schreiben, dass Vega kein aufgeblasener Polaris ist. :rolleyes:
Screemer
2017-06-16, 18:46:33
Das war doch zu erwarten, ist halt genauso "pro" wie eine Titan.
Ne Titan wird als highend gaming Karte für enthusiasge. vermarktet und auch im Vorfeld so beworben. Professional usecases sind da eher ein netter neben Effekt. Die fe wurde nie für gaming beworben und das Quote von raja ein paar post weiter oben unterstreicht das.
Eigentlich sagte er, dass die FE natürlich vom Desktop-Treiber erkannt wird und man damit auch Spielen kann. Empfehlenswert ist es allerdings nicht, da die FE deutlich mehr kostet und die auf Gaming ausgelegte Variante nur etwas später erscheint.
Ja, interessant bleibt fuer mich dabei eigentlich nur, ob AMD es komplett durchzieht und die RX Vega nur mit 56 CUs kommt oder auch mit 64.
Ne Titan wird als highend gaming Karte für enthusiasge. vermarktet und auch im Vorfeld so beworben.
Es wurde aber von den Leuten nicht so wahrgenommen. Die meisten halten die Titan doch immer noch fuer eine Profikarte, wie auch immer sie darauf kommen.
BlacKi
2017-06-16, 18:49:42
Gehen die Schwachsinnsvergleiche schon wieder los? Wie oft muss man hier noch schreiben, dass Vega kein aufgeblasener Polaris ist. :rolleyes:
es ging mir garnicht um vega, sondern um die OT tatsache das die verdoppelung von hw nicht zur verdoppelung der leistung reicht.
Hübie
2017-06-16, 19:03:07
Es wurde aber von den Leuten nicht so wahrgenommen. Die meisten halten die Titan doch immer noch fuer eine Profikarte, wie auch immer sie darauf kommen.
Welche Leute? Die wissen sehr wohl welcher target-market für das Ding vorgesehen ist. Wenn man keinen OGL-Support braucht, dann ist die Titan best bang for bucks (gewesen?). Ich kenne eine Werbefirma in HH die sich damals erst mal die Bude damit vollgestopft hat um die BMW-Werbung (glaube es war BMW) zu rendern. :freak:
Vega könnte sich so etwas eben auch zu nutze machen. Generiert mehr Kohle als reine Gamer-Karten und man erspart sich den Support für Treiber, der bei CAD & Co glaub ich 10 Jahre betragen muss, wenn ich mich recht entsinne.
@iuno
Ich denke die Specs der XT-Variante sind confirmed. Lediglich das Profizeugs was den 0815-Desktopuser eh nicht interessiert, wird wohl deaktiviert sein. Zudem wird RX-XT (wesentlich?) höher takten. Ich persönlich rechne mit einer >2G-Karte.
dargo
2017-06-16, 19:13:08
es ging mir garnicht um vega, sondern um die OT tatsache das die verdoppelung von hw nicht zur verdoppelung der leistung reicht.
Das ist schwer zu beurteilen. Wenn wir GP106 vs. GP104 nehmen gibts da durchaus Unterschiede. GP104 hat keine Verdoppelung bei der Bandbreite und auch nicht bei den ROPs. Die Caches dürften auch nicht doppelt so groß ausfallen, wobei mir hier genauere Daten fehlen. Im Prinzip haben sich nur die SPs und TMUs verdoppelt. Hinzu kommt noch die Tatsache, dass die GTX1080 FE im Schnitt mit 1667Mhz taktet, während eine GTX1060 FE im Schnitt bei ca. 1850Mhz liegt. Hier hast du schon alleine einen Taktvorteil von 11% für GP106. Ich würde mich da eher nach dem Stromverbrauch bei gleicher Architektur richten. Die GTX1080 verbraucht 50% (wenn wir GP106 110W bescheinigen eben 64%) mehr, dafür leistet die 62% mehr laut CB. Quasi perfekte Skalierung. Und letztendlich ist GP104 bei weitem nicht doppelt so groß wie GP106.
Der_Korken
2017-06-16, 19:32:52
es ging mir garnicht um vega, sondern um die OT tatsache das die verdoppelung von hw nicht zur verdoppelung der leistung reicht.
Die Tatsache stimmt ohne Weiteres so nicht. Du müsstest dazusagen, dass eine Verdopplung von Ausführungseinheiten bei gleichbleibender Architektur nicht zu einer Verdopplung der Leistung führt. Das hat aber auch niemand behauptet, denn wie dargo schon sagte ist Vega eine andere Architektur, die offensichtlich deutlich mehr Transistoren pro Ausführungseinheit hat. Damit ist eine 1:1-Skalierung absolut möglich (und auch nötig). Dass es auch garantiert eintritt behauptet aber ebenfalls keiner.
basix
2017-06-16, 19:50:50
@ Der_Korken: Dem stimme ich zu. Das habe ich so ebenfalls mit diversen Gründen angeführt. ;) Dass eine selbe Architektur niemals 100% gegen oben skaliert sollte wohl jedem klar sein. Man kann aber mit viel Aufwand nahe daran rankommen (nicht für Vega das Thema). Bei neue Architekturen kann die Skalierung aber >100% sein gegenüber früheren Architekturen (siehe Maxwell vs. Kepler).
Zur Preisgestaltung der Vega FE: Sie soll gleich teuer wie eine Titan Xp sein. Eigentlich MUSS sie dann mindestens gleich schnell sein, eher sogar schneller. Ansonsten hat man nur 16GB vs. 12GB auf der Habenseite. Sonst ist man viel später dran (wenn man auch die originale Titan Xp einbezieht) und der Markt ist schon zu grossen Teilen abgegrast.
dargo
2017-06-16, 19:55:05
@Blacki
Wenn du nach den reinen TFLOPs vergleichen möchtest und dann noch quer über zwei verschiedene Architekturen dann schau dir mal Tahiti XT vs. Grenada XT an.
60311
https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/#diagramm-the-witcher-3-2560-1440
R9 390X hat 44% mehr TFLOPs als R9 280X. Es ist also durchaus möglich mit einer moderneren Architektur eine Skalierung größer 1:1 zu erreichen.
BlacKi
2017-06-16, 20:18:51
@Blacki
Wenn du nach den reinen TFLOPs vergleichen möchtest und dann noch quer über zwei verschiedene Architekturen dann schau dir mal Tahiti XT vs. Grenada XT an.
60311
https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/#diagramm-the-witcher-3-2560-1440
R9 390X hat 44% mehr TFLOPs als R9 280X. Es ist also durchaus möglich mit einer moderneren Architektur eine Skalierung größer 1:1 zu erreichen.
der vergleich ist ja noch schlechter als meiner mit der 1060 vs 1080^^ das verhältnis zwischen 390x und 280x ist komplett schlecht zu vergleichen, unterschiedlicher architektur bandbreitenverhältniss und takt.
was stört dich an meinem vergleich der rx 460 vs 480 4gb?
wie gesagt, war meine aussage nur, das man nicht automatisch mit 2x rohleistung 580 schon 2x performance hat und das dann vega ist. da käme man nur auf 1,6-1,7x performance. die doppelte rx 580 performance für vega könnte trotzdem hinhauen, denn vega is ja nicht 2x rx580 rohleistung.
Dino-Fossil
2017-06-16, 20:35:54
Ich persönlich rechne mit einer >2G-Karte.
https://cdn.meme.am/cache/instances/folder822/25462822.jpg
Ich bezweifle, dass Vega mit viel mehr als 1,6GHz kommt.
dargo
2017-06-16, 20:46:41
der vergleich ist ja noch schlechter als meiner mit der 1060 vs 1080^^ das verhältnis zwischen 390x und 280x ist komplett schlecht zu vergleichen, unterschiedlicher architektur bandbreitenverhältniss und takt.
Ich ging von reinen TFLOPs aus. Die TFLOPs hängen direkt auch mit dem Takt zusammen, außerdem gibt es hier nur 50Mhz Taktunterschied. Und was stört dich bei der Bandbreite? Grenada XT hat bei 44% mehr TFLOPs nur 33% mehr Bandbreite als Tahiti XT und liefert damit 51% mehr Leistung laut CB.
was stört dich an meinem vergleich der rx 460 vs 480 4gb?
Gleiche Architektur. Komplett falscher Ansatz wenn es um Vega geht.
BlacKi
2017-06-16, 20:50:11
Gleiche Architektur. Komplett falsch wenn es um Vega geht.
möp trollen lass ich mich nicht weiter
Linmoum
2017-06-16, 20:55:30
Hat doch nichts mit trollen zu tun?
Dein Vergleich derselben Architektur passt halt, wenn überhaupt, in diesem Kontext nur bedingt, weil Polaris und Vega auf der anderen Seite unterschiedliche Architekturen sind.
dargo
2017-06-16, 21:02:11
Er versteht offenbar nicht, dass zu einer Verdoppelung (wenn wir uns jetzt innerhalb der gleichen Architektur bewegen wollen) viel mehr gehört als nur die SPs und TMUs zu verdoppeln. Um mal wieder das Beispiel von GP106 und GP104 aufzugreifen. Wie soll ein GP104 doppelt so schnell sein wie ein GP106 bei +57% Die Size? Das geht einfach nicht.
@Blacki
Nimm einfach SLI oder CF mit den gleichen Grafikkarten. Wenn die Software nicht limitiert hast du im besten Fall die doppelte Leistung.
https://cdn.meme.am/cache/instances/folder822/25462822.jpg
Ich bezweifle, dass Vega mit viel mehr als 1,6GHz kommt.
Möglich
Der_Korken
2017-06-16, 21:25:43
https://cdn.meme.am/cache/instances/folder822/25462822.jpg
Ich bezweifle, dass Vega mit viel mehr als 1,6GHz kommt.
Mal eine Spekulation, die afaik schon mal hier gebracht wurde: Die PS4 Pro taktet ihre Polaris GPU mit 911Mhz, die Xbox 1X ihre Vega GPU mit voraussichtlich 1172Mhz. Das macht ein Taktplus von 28% bei ähnlichem CU-Count (36 vs 40). Setzt man voraus, dass beide GPUs gleichweit in ihrem jeweiligen Sweetspot liegen, könnte man abschätzen wie viel Takt Vega mehr schafft als Polaris. Eine Referenz RX480 hatte zum Launch einen Real-/Boost-/max. OC-Takt von ~1180/1266/1400Mhz. Multipliziert man das mit 1,28, dann kommt man auf 1510/1620/1792Mhz. Liegt gar nicht so weit von V10 entfernt, aber man sieht auch dass 2Ghz dann völlig utopisch wären, sondern eher so 1,75Ghz im Bereich des Machbaren liegen sollten. Mir ist klar, dass die ganzen Annahmen so nicht gemacht werden dürfen, aber ich fand es trotzdem ganz interessant.
Langlay
2017-06-16, 21:26:24
@Blacki
Wenn du nach den reinen TFLOPs vergleichen möchtest und dann noch quer über zwei verschiedene Architekturen dann schau dir mal Tahiti XT vs. Grenada XT an.
60311
https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/#diagramm-the-witcher-3-2560-1440
R9 390X hat 44% mehr TFLOPs als R9 280X. Es ist also durchaus möglich mit einer moderneren Architektur eine Skalierung größer 1:1 zu erreichen.
Geforce 780Ti (530%*) vs. Titan Xm (780%*) ist imo der bessere Vergleich.
Die Titan Xm ist im gleichem Prozess gefertigt, hat 7% mehr ALUs,~ 10% mehr Fläche,~13% mehr Transitoren, taktet ~16% höher und die Speicherbandbreite ist gleich.
* 3D Center Performance Index https://www.3dcenter.org/news/schneller-fullhd-performance-ueberblick-der-281614nm-grafikkarten
gravitationsfeld
2017-06-16, 21:45:10
Mal eine Spekulation, die afaik schon mal hier gebracht wurde: Die PS4 Pro taktet ihre Polaris GPU mit 911Mhz, die Xbox 1X ihre Vega GPU mit voraussichtlich 1172Mhz. Das macht ein Taktplus von 28% bei ähnlichem CU-Count (36 vs 40). Setzt man voraus, dass beide GPUs gleichweit in ihrem jeweiligen Sweetspot liegen, könnte man abschätzen wie viel Takt Vega mehr schafft als Polaris. Eine Referenz RX480 hatte zum Launch einen Real-/Boost-/max. OC-Takt von ~1180/1266/1400Mhz. Multipliziert man das mit 1,28, dann kommt man auf 1510/1620/1792Mhz. Liegt gar nicht so weit von V10 entfernt, aber man sieht auch dass 2Ghz dann völlig utopisch wären, sondern eher so 1,75Ghz im Bereich des Machbaren liegen sollten. Mir ist klar, dass die ganzen Annahmen so nicht gemacht werden dürfen, aber ich fand es trotzdem ganz interessant.
Die Xbox One X hat keine "Vega GPU".
Hübie
2017-06-16, 21:48:16
Die soll doch eine Polaris mit einigen Extras sein oder irre ich? Worauf basiert die ISA denn (größtenteils)?
Wo du gerade da bist: Kann man Checkerboard Rendering eigentlich auf Treiber-Ebene implementieren und wenn nein woran scheitert es hauptsächlich?
gravitationsfeld
2017-06-16, 21:50:20
Microsoft labert viel wenn der Tag lang ist.
reaperrr
2017-06-16, 21:53:58
Um mal wieder das Beispiel von GP106 und GP104 aufzugreifen. Wie soll ein GP104 doppelt so schnell sein wie ein GP106 bei +57% Die Size? Das geht einfach nicht.
Doch, das ginge theoretisch schon, wenn die Fläche für Dinge, die keine Auswirkungen auf die Performance haben, relativ groß und bei beiden gleich ist (zentraler Command Processor, PCIe lanes, video engines, Display engine usw.).
Oder wenn man aus Kosten-/Verfügbarkeitsgründen beim langsameren Chip ein breiteres SI mit langsamerem Speicher nimmt.
Oder beides.
Der_Korken
2017-06-16, 22:46:11
Die Xbox One X hat keine "Vega GPU".
Oha, da war ich falsch informiert. Sorry dafür :redface:.
BlacKi
2017-06-16, 23:00:42
Geforce 780Ti (530%*) vs. Titan Xm (780%*) ist imo der bessere Vergleich.
die ipc schwankt doch von gen zu gen. ich kann daher keine vergleiche übergreifend heranziehen, da es eine unbekante hineinbringt.
vergleiche machen nur innerhalb einer generation sinn.
deswegen lasst doch einfach mal vega aus der diskussion aussen vor.
auf meinen vergleich p10 vs p11 scheint keiner einzugehen, vermutlich nur weil das ergebnis nicht gefällt.
ich bin hier also aus der diskussion raus. ende mit dem OT.
Der_Korken
2017-06-16, 23:10:01
die ipc schwankt doch von gen zu gen. ich kann daher keine vergleiche übergreifend heranziehen, da es eine unbekante hineinbringt.
vergleiche machen nur innerhalb einer generation sinn.
deswegen lasst doch einfach mal vega aus der diskussion aussen vor.
auf meinen vergleich p10 vs p11 scheint keiner einzugehen, vermutlich nur weil das ergebnis nicht gefällt.
ich bin hier also aus der diskussion raus. ende mit dem OT.
Was soll mit dem P10 vs P11-Vergleich sein? Dir hat niemand widersprochen und du hast richtigerweise selbst gesagt, dass diese Betrachtung nur innerhalb der selben Architektur Sinn ergibt. Ursprünglich ging es aber darum:
Ehm Bandbreite & Rohleistung der Vega FE ist doch fast doppelt so hoch wie bei einer RX 580er. Das sind dann auch die Referenzwerte für die grosse Gamerkarte. Wie kommst du auf 1.5x? 700Mhz sehe ich wenn dann nur beim Salvage.
Zudem ist doch der grosse Vorteil des Tiled Ansatzes die viel bessere Ausnutzung des Caches und somit geringerer benötigter off-Chip Bandbreite. Siehe Maxwell vs. Kepler als Referenz. Hier nicht eine bessere Effizienz als bei Polaris zu erwarten, finde ich unlogisch.
gp106 1280 cudas gp104 2560 cudas ist also gp104 doppelt so schnell? eher 1,5x. mit den nicht einberechneten optimierungen wird man den rest machen müssen.
Dein Einwand mit GP104 vs GP106 und auch P10 vs P11 ist schlicht nicht anwendbar, weil
vergleiche machen nur innerhalb einer generation sinn.
dargo
2017-06-16, 23:23:50
auf meinen vergleich p10 vs p11 scheint keiner einzugehen, vermutlich nur weil das ergebnis nicht gefällt.
Was sollen wir da genau sehen? P10 ist 89% größer als P11 und 104% schneller.
https://www.computerbase.de/2016-08/radeon-rx-460-test/3/
Und hier nehme ich sogar die Custom RX460 von Sapphire die ihren Boost von 1250Mhz hält vs. eine Referenz RX480 mit 1180Mhz im Schnitt. Die RX460 2GB macht wegen dem mickrigen Speicher keinen Sinn.
BlacKi
2017-06-16, 23:39:39
Was sollen wir da genau sehen? P10 ist 89% größer als P11 und 104% schneller.
https://www.computerbase.de/2016-08/radeon-rx-460-test/3/
Und hier nehme ich sogar die Custom RX460 von Sapphire die ihren Boost von 1250Mhz hält vs. eine Referenz RX480 mit 1180Mhz im Schnitt. Die RX460 2GB macht wegen dem mickrigen Speicher keinen Sinn.
keine ahnung warum du die 2gb vergleichst... ich hab die 4gb zum vergleich herangezogen. 4gb vs 4gb. 100% schneller bei 160% mehr shadern.
@korken p11 und p10 haben die gleichen shader auch wenn es nicht derselbe chip ist, ist die vergleichbarkeit am besten von den hier vorgeschlagenen konstellationen.
Langlay
2017-06-16, 23:53:21
@korken p11 und p10 haben die gleichen shader auch wenn es nicht derselbe chip ist, ist die vergleichbarkeit am besten von den hier vorgeschlagenen konstellationen.
Ja, aber Polaris und Vega haben eben nicht die gleiche Achitektur sondern Vega ist eine Weiterentwicklung. Und es ist imo nicht zu erwarten das sich die Weiterentwicklung keine Mehrleistung bringt. Natürlich ist es nicht unmöglich, aber dann wäre die Frage was AMD da in den letzten Jahren so getrieben hat und wieso man nicht einfach einen grösseren Polaris gebaut hat.
Welche Leute? Die wissen sehr wohl welcher target-market für das Ding vorgesehen ist. Wenn man keinen OGL-Support braucht, dann ist die Titan best bang for bucks (gewesen?). Ich kenne eine Werbefirma in HH die sich damals erst mal die Bude damit vollgestopft hat um die BMW-Werbung (glaube es war BMW) zu rendern. :freak:
Vega könnte sich so etwas eben auch zu nutze machen. Generiert mehr Kohle als reine Gamer-Karten und man erspart sich den Support für Treiber, der bei CAD & Co glaub ich 10 Jahre betragen muss, wenn ich mich recht entsinne.
Dagegen sage ich ja auch nichts, kann ja jeder machen wie er will. AMD versucht jetzt genau dasselbe, ich dachte mir schon dass es keine richtige "Pro" Karte wird in dem Sinne dass man den ganzen Kram mitschleppen muss. Natuerlich kann man sie trotzdem im professionellen Einsatz nutzen und die Zielgruppen wurden ja auch genannt: "content creation", (Game)Designer usw. Trotzdem war und bleibt die Titan primaer ein Gamer-Produkt, mit dem man ueber Jahre die Preise im allen Marktbereichen angehoben hat.
@iuno
Ich denke die Specs der XT-Variante sind confirmed. Lediglich das Profizeugs was den 0815-Desktopuser eh nicht interessiert, wird wohl deaktiviert sein. Zudem wird RX-XT (wesentlich?) höher takten. Ich persönlich rechne mit einer >2G-Karte.
Zur RX Vega ist afaik ausser dass sie spaeter kommt ueberhaupt gar nichts bestaetigt, auch nicht ob das Ding ueberhaupt Vega XT hat.
Vorfreude in allen Ehren aber von so einer Einschaetzung wuerde ich mal ganz schnell wieder versuchen wegzukommen.
Kann man Checkerboard Rendering eigentlich auf Treiber-Ebene implementieren und wenn nein woran scheitert es hauptsächlich?
Wieso soll man das ueberhaupt haben wollen?
Naitsabes
2017-06-17, 01:23:49
Wieso soll man das ueberhaupt haben wollen?
APUs
Bzw. allgemein bessere Skalierung als die Standardfilter bei nichtnativer Auflösung.
Edit.
Oder günstigeres Downsampling? Bin gerade etwas verpeilt und frage ich, ob 1080pCB als Schachbrett runterskaliert auf 1080p sinnvoll sein könnte?
dargo
2017-06-17, 07:27:01
keine ahnung warum du die 2gb vergleichst... ich hab die 4gb zum vergleich herangezogen.
Lese doch einfach was ich geschrieben habe.
Und hier nehme ich sogar die Custom RX460 von Sapphire die ihren Boost von 1250Mhz hält vs. eine Referenz RX480 mit 1180Mhz im Schnitt. Die RX460 2GB macht wegen dem mickrigen Speicher keinen Sinn.
4gb vs 4gb. 100% schneller bei 160% mehr shadern.
Hier wirds wieder ein Schuh draus.
P11 = 123mm²
P10 = 232mm²
Sapphire RX460 4GB hält immer ihren Boost von 1250Mhz, eine Referenz RX480 liegt eher bei ~1180Mhz. Zusätzlich ist nicht jedes Spiel so extrem shaderlastig. Wie ich schon einmal sagte... du musst alles erdenkliche bei einer GPU verdoppeln um die doppelte Leistung zu erreichen. Dazu gehören auch Caches, Command Prozessoren etc. Ein CF Gespann erreicht immer die doppelte Leistung wenn das CF-Profil ordnungsgemäß funktioniert.
Edit:
Oder vergleiche bei P11 vs. P10 wieder den Stromverbrauch.
http://www.tomshardware.com/reviews/amd-radeon-rx-460,4707-5.html
Asus Strix RX460 = 90W (die nicht mal die 1250Mhz hält)
Referenz RX480 = 164W
P10 hat in dem Fall bei weitem keine +160% Stromverbrauch nur weil die Shaderzahl um diesen Wert gestiegen ist.
robbitop
2017-06-17, 07:49:44
Die soll doch eine Polaris mit einigen Extras sein oder irre ich? Worauf basiert die ISA denn (größtenteils)?
Wo du gerade da bist: Kann man Checkerboard Rendering eigentlich auf Treiber-Ebene implementieren und wenn nein woran scheitert es hauptsächlich?
Gerade dir sollte doch klar sein, dass das nicht ohne Implementierung im Spiel geht. Die Renderpipelines von modernen Spielen sind mittlerweile so komplex und verschieden, dass man fast nichts mehr transparent erzwingen kann. Selbst TAA ist nicht möglich. Benötigt Zugriff auf den Z Buffer und auf Informationen vom vorherigen Frame bspw.
CBR geht ja noch deutlich tiefer als TAA.
Bei CBR musst du dem Spielerenderer beibringen im CB Pattern, welches von Frame zu Frame wechselt (2x Muster), Shading und Texturfilterung zu machen, jedoch den vollen Z-Buffer zu rendern. Die Rekonstruktion des finalen Framebuffers mit temporaler Rekonstruktion etc kommt noch on top. uswusf
-/\-CruNcher-/\-
2017-06-17, 07:58:56
Diesen Aufwand würde wohl nichtmal Nvidia an ihr Treiber Team deligieren wollen inklusive kontinuierlichen resourcen verschleiss in einer Agile Betrachtung
Nvidia scheint sich ja auch eher auf den nächsten schritt zu konzentrieren mehr Neuronala Netzwerk Power einzusetzen um jetziges zu verbessern wie z.b DSR
Frag mich ja schon ob sie es mit AGAA werden oder eher auf externe Implementation hofen ;)
Wer implementiert momentan eigentlich CBR ausser Ubisoft in Anvil Next für den PC momentan noch um diesen doch nicht unerheblichen Performance boost zu erlangen ?
Ist es in der PC Version von Mass Effect Andromeda (Frostbite PC Path) Aktiv ?
die ipc schwankt doch von gen zu gen. ich kann daher keine vergleiche übergreifend heranziehen, da es eine unbekante hineinbringt.
vergleiche machen nur innerhalb einer generation sinn.
deswegen lasst doch einfach mal vega aus der diskussion aussen vor.
...
genau, lassen wir doch einfach mal Vega im Vega-Thread außen vor
Hübie
2017-06-17, 09:47:24
Gerade dir sollte doch klar sein, dass das nicht ohne Implementierung im Spiel geht. Die Renderpipelines von modernen Spielen sind mittlerweile so komplex und verschieden, dass man fast nichts mehr transparent erzwingen kann. Selbst TAA ist nicht möglich. Benötigt Zugriff auf den Z Buffer und auf Informationen vom vorherigen Frame bspw.
CBR geht ja noch deutlich tiefer als TAA.
Bei CBR musst du dem Spielerenderer beibringen im CB Pattern, welches von Frame zu Frame wechselt (2x Muster), Shading und Texturfilterung zu machen, jedoch den vollen Z-Buffer zu rendern. Die Rekonstruktion des finalen Framebuffers mit temporaler Rekonstruktion etc kommt noch on top. uswusf
Klar ist mir klar (:D), dass die komplex sind. Aber da ich Null Plan habe was der Treiber alles kann bzw. könnte stelle ich diese Frage. Man könnte ja je nach Engine eingreifen. Und so etwas einen id-buffer vielleicht im VRAM kreieren. Aber jetzt wo ich mal weiter darüber nachdenke wird das Problem sein der Engine beizubringen vollen Z-Buffer zu rendern und wechselnde Muster abzuspeichern. OK und wie die temporary reconstruction machen soll weiß die Engine dann auch nicht (wobei ich mir hier vorstellen kann dass der Treiber da eingreifen könnte). Sieht also nach verdammt viel Aufwand aus. Vergessen wir dass ich gefragt habe. :D
@iuno: An sich finde ich es halt immer gut die Freiheit der Wahl zu haben und mehr Optionen sind besser.
Sry 4 OT!
Da hier immerwieder Fragen bezüglich Tile-based Variationen auftauchen,
hier ein kleines Video
Tile-based Rasterization in Nvidia GPUs with David Kanter of Real World Tech
https://www.youtube.com/watch?v=Nc6R1hwXhL8
Nvidia Tiled-Caching
https://static4.gamespot.com/uploads/scale_super/823/8237367/3203741-1531034642-NVIDI.png
Ich habe einiges an Hoffnung (aus mangelndem Wissen), dass in Vega vieles instant besser ist, also keinerlei änderungen an Engines oder Games bedarf.
Bei dem Primitive-Shader bin ich mir fast sicher, dass es auf jedenfall Software-Änderungen bedarf um irgendeinen Effekt zu bringen. Es werden ja Stages (oder Teile davon) übersprungen wenn ich das richtig verstanden hab.
Korvaun
2017-06-17, 15:34:14
Also EAs Frostbite Engine kann ja Checkerboard-Rendering. Auf der PS4Pro sowieso (teilweise hardwareunterstützt) und anscheinend in Zukunft auch auf der XOneX, dann aber wohl rein software-basiert:
http://www.eurogamer.net/articles/digitalfoundry-2017-anthem-the-real-deal-for-xbox-one
Wäre interessant wie das auf PCs aussehen würde, ich hoffe ja das so eine Grafik-Option in Zukunft dann auftaucht...
robbitop
2017-06-17, 15:57:37
Prinzipiell sollte sich das in jedem Spiel umsetzen lassen. Kostet halt Zeit/Aufwand.
Offenbar sieht CBR auch ohne ID Buffer gut aus.
N0Thing
2017-06-17, 16:28:18
@iuno
Ich denke die Specs der XT-Variante sind confirmed. Lediglich das Profizeugs was den 0815-Desktopuser eh nicht interessiert, wird wohl deaktiviert sein. Zudem wird RX-XT (wesentlich?) höher takten. Ich persönlich rechne mit einer >2G-Karte.
Ich gehe inzwischen eher vom Gegenteil aus. Die RX Vega kommt für weniger Geld, vermutlich mit 8GB Speicher und wenn man sich die TBP Angaben bei der FE anschaut, sind Taktraten oberhalb von 1,65GHz unwahrscheinlich, sofern der Chip nicht ein Salvage ist. 300W Leistungsaufnahme wären schon grenzwertig.
Performance-Gewinne gegenüber der FE erreicht die RX Vega durch den Crimson Treiber, der die Optimierungen für Spiele enthält.
Tamagothi
2017-06-17, 17:14:25
AMD wird die MI25 mit Sicherheit nicht mit 12,5/25 werben wenn VEGA 10 grade so die 1500 MHz schafft :ucrazy:
N0Thing
2017-06-17, 19:37:25
Tippfehler, sollte 1,6GHz lauten.
gravitationsfeld
2017-06-18, 06:35:59
Prinzipiell sollte sich das in jedem Spiel umsetzen lassen. Kostet halt Zeit/Aufwand.
Offenbar sieht CBR auch ohne ID Buffer gut aus.
Hahaha. Nein.
robbitop
2017-06-18, 08:36:38
Hahaha. Nein.
Bitte erläutern was du meinst. Bisher wurde es in fast jedem PS4PRO Spiel umgesetzt. Ausnahme: euer Doom - zu viel Bandbreitenbedarf für den ID Buffer (und ihr fandet es offenbar nicht ansprechend wg temporalem Aliasing) - und Uncharted 4 (nicht genug Bandbreite offenbar).
Das mit dem ID Buffer ist halt blöd, wenn man die Bandbreite der HW nicht entsprechend upgraded. Kann jch nachvollziehen. Die Ergebnisse sind aber außerhalb von Doom zT sehr gut. Siehe Horizon Zero Dawn mit 2160p CBR. Das sieht fantastisch aus. Offenbar gibt es ein breites Spektrum an Erfahrung mit CBR. Deine/eure ist eine davon. Zu eurem Spiel und zur HW passt es anscheinend nicht so gut. Kein Grund es grundsätzlich schlechtzureden.
Selbst auf Scorpio scheint es der Großteil der Spieleindustrie (ohne id buffee) umzusetzen. Scheint also ein guter Kompromiss für fast alle Spiele zu sein und generell überall implementierbar zu sein.
Vieleicht also mal über den Tellerrand zu den Kollegen und deren Ergebnissen schauen?
Kriton
2017-06-18, 13:08:08
Gibt es ohne den Buffer nicht verstärkt Artefakte?
robbitop
2017-06-18, 13:10:50
Es soll gute Workarounds geben. Siehe Ubisoft. Die haben das Verfahren ja noch vor Sony eingeführt (IIRC Rainbow Six). Watch Dogs 2 und das kommende Assassins Creed nutzen es auch. Sieht wohl ziemlich gut aus laut Digital Foundry.
-/\-CruNcher-/\-
2017-06-18, 13:18:11
Das Demo Release ist ja Leider gestorben damals oder eher in die Vergessenheit geraten wobei es wohl eher nie geplannt war seitens AMD/Ilfonic/Crytek sie Public zu releasen vermute ich langsam, sondern nur als PR Demo genutzt wurde auch wenn ein Public Release offiziel angekündigt war (zu heavy) ;)
Wer sich schon immer gefragt hat wie die CryEngine Lower Poly Ruby von damals eigentlich voll Frontal in uniform Light ausschaut und im Vergleich zu den Raytraced High Poly Render Concepts.
https://www.artstation.com/artwork/od0AO
Für Vega wäre der richtige Zeitpunkt Ruby wieder erstrahlen zu lassen in Full PBR + TressFX 3 und verpasste versprechen nachzuholen ;)
Ein kleiner Rückblick ;)
bwIMHX7rW8Q
Die Demo soll in den kommenden Wochen erscheinen. Genutzt werden 17 DirectX-11-Technologien, darunter ist auch die aus Tomb Raider bekannte Haar-Rendertechnik Tress FX.
Wäre toll gewesen wenn ID Tech es diesmal gemacht hätte unter Vulkan und es auch Final Released worden wäre ;)
Hübie
2017-06-18, 13:45:08
Es soll gute Workarounds geben. Siehe Ubisoft. Die haben das Verfahren ja noch vor Sony eingeführt (IIRC Rainbow Six). Watch Dogs 2 und das kommende Assassins Creed nutzen es auch. Sieht wohl ziemlich gut aus laut Digital Foundry.
Nur wie die Workarounds konkret aussehen sagt keiner. Ich würde vermuten, dass man entweder den VRAM nutzt oder falls so etwas geht die Register. Bei letzterem hat man dann auch kein Bandbreitenproblem. Wieso hat das eigentlich der ID Buffer der Pro? Zu kurzsichtig gedacht? Wie hoch ist die denn?
Was mir noch einfällt: kann man nicht auch ROP-Caches dafür verwenden?:freak:
robbitop
2017-06-18, 14:03:26
So funktioniert Sonys Ansatz:
http://m.neogaf.com/showthread.php?t=1330505
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
Hier der von Ubisoft:
http://twvideo01.ubm-us.net/o1/vault/gdc2016/Presentations/El_Mansouri_Jalal_Rendering_Rainbow_Six.pdf
Ab seite 45
-/\-CruNcher-/\-
2017-06-18, 14:09:05
Es soll gute Workarounds geben. Siehe Ubisoft. Die haben das Verfahren ja noch vor Sony eingeführt (IIRC Rainbow Six). Watch Dogs 2 und das kommende Assassins Creed nutzen es auch. Sieht wohl ziemlich gut aus laut Digital Foundry.
Naja es geht weniger ums gut ausschauen als die Relation von 4K Texture Ergebnis zu Performance/Resource Gewinn und der ist schon beindruckend (Performance/RAM) wen man ihn unter Psy geschichtspunkten bewertet Temporal und in einem PBR HDR Setting vs simplem MSAA, dieser Gewinn kann schon ausschlaggebend sein ein smoothes 4K Rendering hinzubekommen mit relative adequaten vorhandenen System Resourcen :)
ID Tech erreicht diesen Gewinn eben an anderer stelle vor allem mit GCN :D
Im Prinzip ist es ein erweitertes MFAA und mich würde es nicht wundern wenn die Idee aus der Kooperation mit Nvidia entstand schon zu Maxwell zeiten auf seiten Ubisofts ;)
Sven77
2017-06-18, 14:23:50
Naja es geht weniger ums gut ausschauen als die Relation von 4K Texture Ergebnis zu Performance Gewinn und der ist schon beindruckend wenn man ihn unter Psy geschichtspunkten bewertet Temporal und in einem PBR HDR Setting :)
:confused:
Hübie
2017-06-18, 14:46:05
So funktioniert Sonys Ansatz:
http://m.neogaf.com/showthread.php?t=1330505
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
Hier der von Ubisoft:
http://twvideo01.ubm-us.net/o1/vault/gdc2016/Presentations/El_Mansouri_Jalal_Rendering_Rainbow_Six.pdf
Ab seite 45
Hey Danke! Die Ubisoft-Folie hab ich schon ewig auf PC gehabt aber nie Zeit gefunden und dann vergessen. Also ist Ubisoft's Ansatz eher das wechselnde Samplepattern und nearest neighbour interpolation für Farbwerte, während Sony mittels Vektoren auf dem 2D screenspace Bewegungen tracken und daraus die Werte zu errechnen. So richtig? Interessant fand ich jetzt den Punkt, dass Ubisoft es heimlich aktiviert hat und offenbar niemandem (negativ) auffiel.
Wenn es in Watch_Dogs 2 ähnlich oder gleich ist muss ich gestehen, dass es für mich der beste Kompromiss aus visual quality und performance war / ist. ;)
-/\-CruNcher-/\-
2017-06-18, 15:06:23
Das beste bei Psy Tests die Leute wissen nicht das man sie testet man schiebt ihnen einfach nur das Ergebnis unter und wartet die Reaktion ab ;)
robbitop
2017-06-18, 15:07:38
Beii Watch Dogs 2 @PC kann man sich das Ergebnis anschauen, wenn man die Option "Temporal Filtering" aktiviert anschauen.
Empfehlenswertes DF Video: https://m.youtube.com/watch?v=wSpHONwyBqg
Bei ~8 min gehts auch um WD2
@huebie
Die Sample Pattern variieren afaik bei beiden Verfahren in frame n und n+1. Auch die Temporale Verrechnung passiert in beiden Verfahren. Auch haben beide Verfahren den vollem Z Buffer. Die PS4PRO hat zusätzlich den ID Buffer für alle Pixel des Framebuffers. Ggf kann man so noch akurater rekonstruieren.
Ubisoft nutzt im Gegenzug afaik MSAA und hat im Gegenzug dort mehr Informationen pro Pixel.
Hübie
2017-06-18, 15:10:46
So habe ich es durchgespielt. ;)
-/\-CruNcher-/\-
2017-06-18, 15:19:00
Richard kann das alles sehr genau Temporal analyseren sein Video Analyse tool springt sofort an wenn da was unterschiedlich ist ;)
robbitop
2017-06-18, 15:19:36
Ohne zu wissen, dass es nicht native Auflösung war? Und wie war das Egebnis? Welche Auflösung?
Ich habe ne neue GP102 und einen 32" 4K G-Sync Monitor und bin schon ganz gespannt auf 4k. Komme ja von einem GM200 und 1440p GSync mit 144 hz.
Bin mal gespannt wie häufig mir CBR mal höhere fps bringen wird.
robbitop
2017-06-18, 15:22:14
Richard kann das alles sehr genau Temporal analyseren sein Analyse tool springt sofort an wenn da was unterschiedlich ist ;)
Richard Leadbetter von DF? Ich hatte eher den Eindruck, dass diese einfach nur sehr genau hinschauen. (Viel Bildmaterial unkomprimiert capturen und zoomen/standbilder).
Was soll das für ein tool sein und wie soll das funktionieren? Von außen hast du ja nur Zugriff auf den finalisierten Scanou (inkl bereits appliziertem PP)t. Kein unangetaster Z Buffer, Colorbuffer, nichts.
Kriton
2017-06-18, 15:34:54
:confused:
Versuchte Übersetzung von Crunchers Text:
Es geht weniger ums das gute Ausssehen ohne Berücksichtigung der dafür erforderlichen Rechenleistung. Vielmehr um den Gewinn von Aussehen im Verhältnis zur eingesparten Rechenleistung bei einer 4k-Auflösung. Dieser ist bei blind tests (also wenn der Spieler keine Ahnung hat, was er da an Einstellungen vorgesetzt bekommt oder scheinbar überhaupt eine Beobachtung erfolgt) beindruckend. Dies unter Zuhilfenahme von temporal antialiasing und PBR, sowie HDR.
Hübie
2017-06-18, 15:38:54
Na doch schon mit dem Wissen dass es temp-AA ist, aber ich ging von üblichen Lösungen ähnlich MFAA aus. Das Ergebnis war befriedigend in Anbetracht der Performance und war nach 3 Stunden voll mit Tests der beste Kompromiss. Hab's auf meinem 4k gezockt. Danach hatte ich wie du 1440p + G-Sync.
Mit GP102 wirst du seltener auf so etwas zurück greifen müssen, schätz ich mal. Vega dürfte hier ähnlich sein, auch wenn ich von sub 1080-Ti-Leistung ausgehe.
-/\-CruNcher-/\-
2017-06-18, 15:40:02
Wenn der output schon modifiziert ist wirds natürlich schwer das Ergebnis ist ja schon da aber bei Optionsvergleichen nutzt er die Bildanalyse.
Wie gesagt wenn alles schon fest ist und keine Option gelassen wird (Konsole) dann zählen sie meist pixel oder das gute alte blurry empfinden das versagt so gut wie nie ;)
3ra-P3gH7Dg
fAVxmfNUuRs
robbitop
2017-06-18, 15:51:24
@huebie
Du bist von 4K auf 1440 zurück? Warum das?
Hübie
2017-06-18, 16:03:24
Nö hab beides behalten weil ich mich nicht entscheiden konnte. :D Für 4k war meine Gurke einfach zu lahm und ich möchte nicht schon wieder investieren, da ich momentan mit dem Bachelor beschäftigt bin und kaum Zeit habe (plus andere Gründe wie Welpe, Kind->Sommer, etc).
-/\-CruNcher-/\-
2017-06-18, 16:11:04
Na doch schon mit dem Wissen dass es temp-AA ist, aber ich ging von üblichen Lösungen ähnlich MFAA aus. Das Ergebnis war befriedigend in Anbetracht der Performance und war nach 3 Stunden voll mit Tests der beste Kompromiss. Hab's auf meinem 4k gezockt. Danach hatte ich wie du 1440p + G-Sync.
Mit GP102 wirst du seltener auf so etwas zurück greifen müssen, schätz ich mal. Vega dürfte hier ähnlich sein, auch wenn ich von sub 1080-Ti-Leistung ausgehe.
Hätte gern gesehen wie das ganze mit Mult-Res Shading daherkommt und nochmal 30% Performance Improvement, auch wenn natürlich das ganze etwas agressiver ist und durch 3rd person auch noch etwas komplizierter :)
Vor allem für Mainstream user sind die ganzen Performance Engine Optimierungen die seit den Konsolen und VR evaluiert werden ein absoluter segen ;)
es wertet alles noch einmal die alte Hardware enorm auf :)
Man merkt es verdammt heftig mit GM204 auf 4K Anfangs war es noch recht Kniffelig 30 FPS stabil zu erreichen ohne extremen Performance verlust bei jedem neuen Game wird es einfacher mit minimalen IQ Einschränkungen und trotz PBR :)
Die Engine Effizienz steigt seit dem wieder Kontinuierlich mehr investitionen und es wird wieder mehr Pre gebaked und die Kosten auf die Internen Renderfarmen verteilt und sehr ordentliche Hybrid resultate kommen zu stande :)
Dann noch die ganzen API verbesserungen es ist einfach toll das ganze Value for Free momentan zu kassieren im Mainstream jedenfalls wertet es alles enorm für das damals investierte auf :D
Und es ist noch kein Ende in sicht :D
Allerdings will ich jetzt doch ein wenig mehr rums für die Zukunft bis zur nächsten investition und da Nvidia zu spät ist und ich mir sicher bin das AMD sehr viele Probleme gemeistert hat und Su einen super Job macht wird es diesmal AMD, bzw back to the roots ;)
Eigentlich wollte ich ja zu Fury schon aber das sah alles noch nicht so optimal aus ;)
Und ja egal wie AMD in den Benchmark Tests diesmal abschneiden wird ich werde wechseln ;)
Was einfach nur beachtlich für mich ist das AMD überlebt hat wenn man bedenkt wie Nvidia versucht hat AMD am Boden zu zerqutschen, absoluter Respekt das AMD noch da ist und in der Zeit einige sachen gebracht hatt die einfach nur nach Innovation pur schreien und das gegen 2 Boliden.
Und ja ich hab extremen Respekt auch vor denen die schon zu Hawai und Fiji zeiten gewechselt sind und mit Aufgebaut haben da seh ich mich dann sogar als Angsthase ;)
Sven77
2017-06-18, 16:13:19
Interessant fand ich jetzt den Punkt, dass Ubisoft es heimlich aktiviert hat und offenbar niemandem (negativ) auffiel.
Heimlich? Das war afaik die einzige Möglichkeit 60fps auf den Konsolen zu erzielen, bei der PC Version wird es ja als Option angeboten
Hübie
2017-06-18, 18:30:06
Steht so in der Folie. ;)
gravitationsfeld
2017-06-18, 20:03:39
Bitte erläutern was du meinst. Bisher wurde es in fast jedem PS4PRO Spiel umgesetzt. Ausnahme: euer Doom - zu viel Bandbreitenbedarf für den ID Buffer (und ihr fandet es offenbar nicht ansprechend wg temporalem Aliasing) - und Uncharted 4 (nicht genug Bandbreite offenbar).
Das mit dem ID Buffer ist halt blöd, wenn man die Bandbreite der HW nicht entsprechend upgraded. Kann jch nachvollziehen. Die Ergebnisse sind aber außerhalb von Doom zT sehr gut. Siehe Horizon Zero Dawn mit 2160p CBR. Das sieht fantastisch aus. Offenbar gibt es ein breites Spektrum an Erfahrung mit CBR. Deine/eure ist eine davon. Zu eurem Spiel und zur HW passt es anscheinend nicht so gut. Kein Grund es grundsätzlich schlechtzureden.
Selbst auf Scorpio scheint es der Großteil der Spieleindustrie (ohne id buffee) umzusetzen. Scheint also ein guter Kompromiss für fast alle Spiele zu sein und generell überall implementierbar zu sein.
Vieleicht also mal über den Tellerrand zu den Kollegen und deren Ergebnissen schauen?
Es sieht aus wie Arsch. Es ist pures Marketing und noch dazu lahm. Alle Spiele mit normalem Upsampling sehen besser aus.
Und nein, es ist nicht nur Uncharted. Ratchet & Clank ist auch gescheites Upsampling.
Hoert auf euch den Scheiss als "echtes 4K" verkaufen zu lassen. Alles was sie gewinnen ist Leute davon zu ueberzeugen, dass es irgendwie besser waere als schlicht in niedriger Aufloesung zu rendern. Ist es nicht. Sony ist auch extrem aggressiv damit es zu pushen.
=Floi=
2017-06-18, 20:12:51
Das beste bei Psy Tests die Leute wissen nicht das man sie testet man schiebt ihnen einfach nur das Ergebnis unter und wartet die Reaktion ab ;)
also reduzierte resolution scale (unter 1) oder andere matschfilter fallen mir schon auf. Da bin ich definitiv empfindlich und auf soetwas schaue ich auch. mittlerweile auch gezielt in den einstellungen. On the fly resolution downscaling hatte ich leider oder zum glück noch nicht. bin ich aber auch kein fan von, da der sinn einer variablen bildrate ja eben derer ist, dass sie auch runtergehen kann.
Die PS 4 Pro macht das scaling aber ganz gut und für die rechenleistung dürfte die BQ schon ganz ordentlich sein. Da muss man ihnen schon lob dafür aussprechen.
robbitop
2017-06-18, 20:56:00
Es sieht aus wie Arsch. Es ist pures Marketing und noch dazu lahm. Alle Spiele mit normalem Upsampling sehen besser aus.
Und nein, es ist nicht nur Uncharted. Ratchet & Clank ist auch gescheites Upsampling.
Hoert auf euch den Scheiss als "echtes 4K" verkaufen zu lassen. Alles was sie gewinnen ist Leute davon zu ueberzeugen, dass es irgendwie besser waere als schlicht in niedriger Aufloesung zu rendern. Ist es nicht. Sony ist auch extrem aggressiv damit es zu pushen.
Und was ist mit all den Titeln für Scorpio? Und die Titel von Ubisoft? Ist zwar nicht der Sony Algorithmus aber auch CBR. Außerdem scheint es bei Horizon Zero Dawn sehr gut auszusehen.
Ratchet & Clank Upsampling soll super aussehen. Ist aber auch ein wenig mehr als banales Upsampling. Habe aber zu deren"temporal injection" noch nicht viel finden können.
gravitationsfeld
2017-06-18, 22:31:22
Und was ist mit all den Titeln für Scorpio? Und die Titel von Ubisoft? Ist zwar nicht der Sony Algorithmus aber auch CBR. Außerdem scheint es bei Horizon Zero Dawn sehr gut auszusehen.
Microsoft ruehrt auch schon die Werbetrommel um Leute davon zu ueberzeugen, dass 4K "the next big thing" ist. Ohne Sinn und Verstand. Und um irgendwie damit wegzukommen draengen sie Leute dazu CBR zu verwenden. Was eindeutig zu schlechterer Grafik fuehren wird, weil es teuer und kacke ist.
Ratchet & Clank Upsampling soll super aussehen. Ist aber auch ein wenig mehr als banales Upsampling. Habe aber zu deren"temporal injection" noch nicht viel finden können.
Es ist stinknormales Upsampling, das ist klar ersichtlich an den Screenshots. Temporal ist fuer AA.
deekey777
2017-06-19, 10:08:34
Microsoft ruehrt auch schon die Werbetrommel um Leute davon zu ueberzeugen, dass 4K "the next big thing" ist. Ohne Sinn und Verstand. Und um irgendwie damit wegzukommen draengen sie Leute dazu CBR zu verwenden. Was eindeutig zu schlechterer Grafik fuehren wird, weil es teuer und kacke ist.
.
Der Zug ist aber abgefahren. "4K oder Nüschts" sitzt jetzt ganz tief in den Köpfen der User (genau wie "CBR oder du bist Scheiße").
robbitop
2017-06-19, 10:21:05
Für natives 4K fehlt beiden Konsolen halt noch ein wenig Leistung.
deekey777
2017-06-19, 10:45:26
Für natives 4K fehlt beiden Konsolen halt noch ein wenig Leistung.
Beide 4K-Konsolen dürften "Half-Life 2" in 4K darstellen können, nur wird niemand so ein Spiel kaufen, denn Spiele von heute müssen brutale Effekte, supertolle Animationen mit hohem Detailgrad und überhaupt sehr detailierte Welt bieten. Und alles in 4K. Es ist ein Teufelskreis. Ich weiß wirklich nicht, wie id es geschafft hat, Doom so gut den Spielern zu verkaufen. Ach doch: Es ist ein tolles Spiel ohne modernen Schickschnack (bis auf Upgrades vielleicht). Und sieht toll aus und läuft mit 60 Hz.
Gutes Beispiel ist Quantum Break. Viele waren schockiert, dass das Spiel das endgültige Bild aus 720p-Bildern zusammenstellt. Und auf dem PC ist es nicht anders, wenn ein Spiel in niedrigerer Auflösung läuft und das Bild auf die Zielauflösung des Bildschirms hochrechnet.
dildo4u
2017-06-19, 11:29:17
Für natives 4K fehlt beiden Konsolen halt noch ein wenig Leistung.
Kommt wie immer aufs Game an Mordor läuft sogar auf der PS4 Pro fast immer in 4k und der Nachfolger sieht nicht viel besser aus.Schätze mal Teil 2 ist zu 100% 4k auf der neuen XBox.
https://youtu.be/auELAvhjXfg
Megatron
2017-06-19, 18:30:11
Microsoft ruehrt auch schon die Werbetrommel um Leute davon zu ueberzeugen, dass 4K "the next big thing" ist. Ohne Sinn und Verstand. Und um irgendwie damit wegzukommen draengen sie Leute dazu CBR zu verwenden. Was eindeutig zu schlechterer Grafik fuehren wird, weil es teuer und kacke ist.
Dir ist schon klar dass die Alternative 1440P + billiges Upsampling ist? Dem gegenüber steht CBR halt gar nicht so schlecht da.
gravitationsfeld
2017-06-19, 19:07:24
Für natives 4K fehlt beiden Konsolen halt noch ein wenig Leistung.
Dann laesst man es halt bleiben!
Dir ist schon klar dass die Alternative 1440P + billiges Upsampling ist? Dem gegenüber steht CBR halt gar nicht so schlecht da.
Doch. Tut es. Upsampling sieht eindeutig besser aus als die CBR-Artefakte.
Entropy
2017-06-19, 19:13:16
Doch. Tut es. Upsampling sieht eindeutig besser aus als die CBR-Artefakte.CBR ist im schlimmsten Fall nur Upsampling. Im guten Fall hast du vom vorherigen Bild noch Daten.
Nur rein logisch betrachtet sollte CBR nie schlechter Aussehen, bei derselben Ausganspixelmenge.
gravitationsfeld
2017-06-19, 19:15:52
Doch es ist schlechter wegen der temporalen Kompoente. Alles was sich bewegt und nicht statische Geometrie ist sieht uebel ausgefranzt aus. Und selbst wenn es Geometrie ist ist es extrem suboptimal.
Es ist einfach der gleiche Mist wie Video-Interlacing. Ich dachte jeder haette kapiert, dass das eine schlechte Idee ist.
Alle schauen nur statische Bilder ohne Bewegung an. Klar sieht es da okay aus. Spiele haben aber in der Regel Bewegung, zumindest als ich das letzte Mal eins gesehen hab.
robbitop
2017-06-19, 19:19:47
Die Bewegungsunschärfe durch 30 fps (meiste Konsolentitel) könnte das Fransen sicherlich etwas verschleiern. Motionblur sicherlich auch. Fällt somit @Konsole wahrscheinlich weniger auf.
Ich werde mir bei Gelegenheit die temporalen Artefakte von WD2 mal ansehen.
Entropy
2017-06-19, 19:23:07
Doch es ist schlechter wegen der temporalen Kompoente. Alles was sich bewegt und nicht Geometrie ist sieht uebel ausgefranzt aus.
Es ist einfach der gleiche Scheiss wie Video-Interlacing. Ich dachte jeder haette kapiert, dass das eine schlechte Idee ist.
Upsampling ist deinterlacing bei dem du das vorherige Bild ignorierst. Du kannst die Zeilenzahl verdoppeln, indem du je zwei Zeilen vermischt.
Mit CBR bzw Deinterlacing hast du noch zusätzliche Information, es kommt nur drauf an die Daten richtig zu verwerten.
Tempral AA ist auch nichts anderes als aufwendiges CBR und das schaut doch unzweifelhaft gut aus bei Spielen die es ordentlich umsetzen.
gravitationsfeld
2017-06-19, 20:47:19
Du brauchst mir nicht erklaeren wie TAA funktioniert. Danke.
Mir sind die "zusaetzlichen Informationen" auch bekannt. Es sieht trotzdem kacke aus in der Praxis. Die "zusaetzlichen Daten" bringen dir naemlich nur bei statischer Geometrie was, sonst nicht.
Fetza
2017-06-19, 21:53:18
Mir sind die "zusaetzlichen Informationen" auch bekannt. Es sieht trotzdem kacke aus in der Praxis. Die "zusaetzlichen Daten" bringen dir naemlich nur bei statischer Geometrie was, sonst nicht.
Das ist zwar OT, aber:
Dem muss ich klar widersprechen. Temporales Anti Aliasing sieht super aus. Die Kantenglättung ist großartig.
Es gibt einen Mod für Alien Isolation, der dem Spiel TAA hinzufügt. Das ist ein Unterschied wie Tag und Nacht und wertet das Spiel extrem auf. Und bei Battlefield möchte ich TAA auch nicht missen.
gravitationsfeld
2017-06-19, 23:22:06
Ich rede nicht von TAA, ich rede von CBR. Temporal AA funktioniert besser, das ist richtig.
Fetza
2017-06-20, 00:13:01
Achso, ok - nichts für ungut - ich war nur so schockiert weil mich TAA bei AI so begeistert hat. :)
Entropy
2017-06-20, 03:20:16
Du brauchst mir nicht erklaeren wie TAA funktioniert. Danke.Keine Sorge, hatte ich nicht vor, hab keine Zeit für sowas.
Mir sind die "zusaetzlichen Informationen" auch bekannt. Es sieht trotzdem kacke aus in der Praxis. Die "zusaetzlichen Daten" bringen dir naemlich nur bei statischer Geometrie was, sonst nicht.
Wenn dir also klar ist dass TAA und CBR die gleiche Basis ist, ist dir klar, dass beides von der Implementierung abhängt. Das eine als gut und das andere als schlecht zu bezeichnen ist paradox. Es kommt bei beiden auf die Implementierung an.
OgrEGT
2017-06-20, 06:53:45
Aus dem B3D Forum
AMD Vega 10, Vega 11 and Vega 20 Rumors and Discussion (https://forum.beyond3d.com/posts/1987889/)
horn 12
2017-06-20, 07:33:24
Vega Custom bereits Anfang August...
http://wccftech.com/amd-vega/
Hübie
2017-06-20, 09:25:56
Das die schneller als eine 1080 ist, sollte klar sein, aber warum kommt man wieder nicht an der Ti vorbei, wenn es sich Bewahrheiten sollte - denn ansonsten hätte man ja gleich schneller als 1080 Ti schreiben können. Für mich also exakt die Prognose welche ich schon lange habe: 1080 OC Leistung bei mehr Verbrauch, aber 1080 Ti stock selten bis nie in Schlagweite. Jetzt heißt es weiter warten.
Wenn die FE nächsten Dienstag erscheint, müssten die Reviewer die Teile doch schon (bald) haben oder? Es ist so verdächtig still aus der Richtung :D.
Taigatrommel
2017-06-20, 10:34:29
Wenn die FE nächsten Dienstag erscheint, müssten die Reviewer die Teile doch schon (bald) haben oder? Es ist so verdächtig still aus der Richtung :D.
Werden denn überhaupt in größerem Stil Testmuster der FE verschickt? Da diese ja eher für Workstations und den professionellen Bereich gedacht ist, weniger als typische Grafikkarte für Verbraucher, habe ich diesbezüglich ja meine Zweifel. Das sich einige Redaktionen mit Sicherheit eine FE ins Haus holen werden um diese zu testen und sei es nur um eine grobe Vorschau auf die "richtige" RX Vega zu bekommen, dürfte klar sein. Doch ich kann mir nicht vorstellen, dass man nächste Woche oder meinetwegen die Woche darauf mit Tests überschüttet wird.
Desweiteren bleibt abzuwarten, welche Rolle die Treiber spielen. Die richtigen Crimson Treiber, mit entsprechenden Optimierungen, sollen ja auch erst mit der RX Vega kommen.
Brillus
2017-06-20, 11:01:28
Werden denn überhaupt in größerem Stil Testmuster der FE verschickt? Da diese ja eher für Workstations und den professionellen Bereich gedacht ist, weniger als typische Grafikkarte für Verbraucher, habe ich diesbezüglich ja meine Zweifel. Das sich einige Redaktionen mit Sicherheit eine FE ins Haus holen werden um diese zu testen und sei es nur um eine grobe Vorschau auf die "richtige" RX Vega zu bekommen, dürfte klar sein. Doch ich kann mir nicht vorstellen, dass man nächste Woche oder meinetwegen die Woche darauf mit Tests überschüttet wird.
Desweiteren bleibt abzuwarten, welche Rolle die Treiber spielen. Die richtigen Crimson Treiber, mit entsprechenden Optimierungen, sollen ja auch erst mit der RX Vega kommen.
Bzgl. Treiber habe ich auch meine bedenken ob AMD sich da nicht selbst ein Ei gelegt hat wenn FE nicht schon Gameing treiber hat werden die Fail-Rufe laut.
uweskw
2017-06-20, 11:29:34
Bzgl. Treiber habe ich auch meine bedenken ob AMD sich da nicht selbst ein Ei gelegt hat wenn FE nicht schon Gameing treiber hat werden die Fail-Rufe laut.
Egal was kommt. Es werden immer die selben, allseits bekannten NV-Marketeers "FAIL!!" schreien. Das wissen wir doch schon vorher. Irgend ein Haar findet sich immer in der Suppe.:freak:
AMD soll sich nicht hetzen lassen. Die Gaming-Karten lieber etwas später aber mit guten Treibern vorstellen.
Ich hoffe nur, dass aussagekräftige Reviews erscheinen, die klären ob/wann die 8GB HBM limitieren. Und ob/wieviel in diesen Situationen die 11GB der 1080TI mehr bringen.
greetz
US
Hübie
2017-06-20, 13:12:28
Ich wette die werden genau gar nicht limitieren. Warum auch? :confused:
AMD muss sich mit dem Ding nur dann gegen 11GB behaupten, wenn die Leistungsklasse erreicht wird. Wenn der Preis bei 650+€ liegt muss man sich ebenfalls mit der 1080 Ti auseinander setzen müssen. Ansonsten eben nicht.
Mein Tipp: 650€ für selbe Leistung wie 1080 OC bei mehr Verbrauch (worst case).
Meine Hoffnung: 650€ für 1080 Ti Leistung bei gleichem Verbrauch.
Werden denn überhaupt in größerem Stil Testmuster der FE verschickt? Da diese ja eher für Workstations und den professionellen Bereich gedacht ist, weniger als typische Grafikkarte für Verbraucher, habe ich diesbezüglich ja meine Zweifel. Das sich einige Redaktionen mit Sicherheit eine FE ins Haus holen werden um diese zu testen und sei es nur um eine grobe Vorschau auf die "richtige" RX Vega zu bekommen, dürfte klar sein. Doch ich kann mir nicht vorstellen, dass man nächste Woche oder meinetwegen die Woche darauf mit Tests überschüttet wird.
Desweiteren bleibt abzuwarten, welche Rolle die Treiber spielen. Die richtigen Crimson Treiber, mit entsprechenden Optimierungen, sollen ja auch erst mit der RX Vega kommen.
Die Previews ließen da aber genau das Gegenteil annehmen. Ich dachte auch, dass das so ne Art Radeon Pro-Ersatz ist, das stimmt aber wohl nicht. Es sieht eher so aus, als wär das so ne Art Titan, also mit Consumertreibern.
Aber sowas brauchen die alles gar nicht, die brauchen lediglich Treiber die mit den üblichen Mining-Tools laufen, sonst gar nix, denn von den Karten wird kaum ein Endnutzer eine abbekommen bei dem Hype momentan. Und die Dinger sind bestimmt perfekte Miner.
(NV sollte 1080Ti mit GDDR5 auflegen, die würden die Dinger momentan bestimmt auch in Massen los :D.)
Gipsel
2017-06-20, 17:18:37
Für das Mining gibt es eigene Threads. Und irgendwelcher Blödsinn wird hier nicht geduldet.
Hübie
2017-06-20, 18:02:10
Ich denke dass es momentan auf keiner Seite Beschwerden gibt. Vega wird es nur sehr schwer im consumer market haben, in anderen Segmenten sehe ich, von dem was man bisher weiß, größere Chancen (HBCC, IF sofern vorhanden und ne Menge Rohpower bspw.). Vor allem HPC könnte interessant werden, wenn die GPU Open Initiative denn zündet und sich nicht nur auf Gaming beschränkt.
OgrEGT
2017-06-20, 18:30:21
Das die schneller als eine 1080 ist, sollte klar sein, aber warum kommt man wieder nicht an der Ti vorbei, wenn es sich Bewahrheiten sollte - denn ansonsten hätte man ja gleich schneller als 1080 Ti schreiben können. Für mich also exakt die Prognose welche ich schon lange habe: 1080 OC Leistung bei mehr Verbrauch, aber 1080 Ti stock selten bis nie in Schlagweite. Jetzt heißt es weiter warten.
Ich hatte extra den Post aus dem B3D Forum verlinkt weil dort auch steht dass die Aussage zum Vergleich mit der 1080 bereits entfernt wurde...
Hübie
2017-06-20, 19:12:45
Was soll man daraus schlussfolgern? ;) Glaube kaum, dass ein Beitrag gelöscht wird, weil man eine Einschätzung der Performance abgibt...
Unicous
2017-06-20, 19:25:28
:facepalm:
Du kapierst es mal wieder nicht. Die Quelle (Hardwarebattle) selbst hat den Satz durchgestrichen also gibt es keine Performance-Angabe mehr.:rolleyes:
Hübie
2017-06-20, 19:34:21
Ich hab da doch gar nicht drauf geklickt und gelesen, aber Hauptsache du kläffst motzt mal wieder herum. Manchmal habe ich fast Mitleid mit dir... :rolleyes:
Unicous
2017-06-20, 19:38:10
Es ist halt immer das Selbe mit dir.:rolleyes:
Ich habe schon lange kein Mitleid mehr mit deiner Leseverständnis-Schwäche.
edit:
btw.
Ich hab da doch gar nicht drauf geklickt und gelesen ist eine traurige, wenn auch ehrliche Aussage.:frown:
vinacis_vivids
2017-06-20, 21:43:15
Hauptsache Huebue muss irgendwas nachplappern was ins Weltbild passt 😂
Folien, die ich gesehen habe, zeigen bis +50% für Vega FE vs Titan XP bei SpecInt. Sollte auch nur ein Teil ankommen, wird NV richtig richtig schwitzen.
Hübie
2017-06-20, 21:57:42
Hauptsache Huebue muss irgendwas nachplappern was ins Weltbild passt 😂
Folien, die ich gesehen habe, zeigen bis +50% für Vega FE vs Titan XP bei SpecInt. Sollte auch nur ein Teil ankommen, wird NV richtig richtig schwitzen.
Wir sprechen uns in 5-6 Wochen wieder. Bisher verliefen all deine Argumente im Sande. Im Gegensatz zu Dir plappere ich eben nicht alles nach, aber wie ich dich kenne hast du meine Beiträge hier nicht gelesen und kommst wie Kater Tom im Intro von Tom&Jerry um die Ecke um irgendwelche Dinge zu tun, die dich am Ende nicht gut dastehen lassen. :D
Das mit SpecInt habe ich auch schon mal erklärt, aber kommt offenbar nicht an...
Unicous
2017-06-20, 22:05:37
Hast du nicht gerade erst die Performance-Einschätzung "nachgeplappert"?:uponder:
Hübie
2017-06-20, 22:16:04
Als hätte ich das nicht schon vor Monaten gesagt. :facepalm:
Locuza
2017-06-20, 22:47:43
484 GB/s bzw. 1,89 Gbps Speichergeschwindigkeit für die MI25:
https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/
Immerhin hat man das Ziel von 2 Gbps nur ein wenig verfehlt.
Edit: Und eine Bestätigung für FP64 mit nur einer Rate von 1/16:
https://cdn.videocardz.com/1/2017/06/Radeon-Instinct-MI25-2.png
https://videocardz.com/70440/amd-announces-radeon-instinct-mi25-specifications
Troyan
2017-06-20, 23:02:25
Computerbase ist die Originalquelle: https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/
/edit: Sorry, den ersten Link übersehen.
Screemer
2017-06-20, 23:02:35
Folien, die ich gesehen habe, zeigen bis +50% für Vega FE vs Titan XP bei SpecInt. Sollte auch nur ein Teil ankommen, wird NV richtig richtig schwitzen.
Du meinst die "Folien" mit den werten die AMD schon seit Wochen auf der Homepage hat? Super Werte wenn man bedenkt, dass das selbst p5000 um Welten besser in specviewperf performt. Titan XP ist da massiv durch die Treiber beschnitten.
Bucklew
2017-06-20, 23:06:17
Folien, die ich gesehen habe, zeigen bis +50% für Vega FE vs Titan XP bei SpecInt. Sollte auch nur ein Teil ankommen, wird NV richtig richtig schwitzen.
Wenn man sich die SPEC-Ergebnisse der Vega FE von AMD anschaut, dann kann die Karte nicht mal mit der Quadro P4000 mithalten:
https://hothardware.com/reviews/nvidia-quadro-p4000-and-p2000-pro-workstation-gpu-review?page=4
Und die P4000 ist ein gestutzter GP104 (nicht mal 3/4 aktiviert, 1792 Cores) im SingleSlot Design mit 104W Leistungsaufnahme. Das ganze für unter 900US$. Da kann AMD nur mit dem doppelten Speicher gegen anstinken, alles Andere spricht für die P4000.
484 GB/s bzw. 1,89 Gbps Speichergeschwindigkeit für die MI25:
https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/
World's fastest Training Accelerator
Schon peinlich, wenn man mit so etwas lügt wirbt, während die Konkurrenz im gleichen Zeitraum ein 20% schnelleres Produkt verkaufen wird und schon angekündigt hat.
Linmoum
2017-06-20, 23:40:31
MI25 im Juli.
http://images.anandtech.com/doci/11562/1497994727970893916589_575px.jpg
Blediator16
2017-06-20, 23:46:36
Der 31.7 stand doch schon seit der FAD fest? Oder CES?
Linmoum
2017-06-20, 23:52:20
Ja, die RX-Ableger hat man auf der CES für die Siggraph angekündigt. Bei der MI25 spricht CB selbst im Artikel noch von Q3, das scheint also bisher noch nicht klar gewesen zu sein.
dildo4u
2017-06-20, 23:53:11
12.3 für die Luftkühlung 13.1 für die Wakü?
Linmoum
2017-06-20, 23:58:25
Nein, die Frontier Edition hat für beides 13.1 TFLOPS, die 12.3 gelten nur für die MI25.
Hübie
2017-06-21, 00:00:04
Keine Hotlinks!
Bucklew
2017-06-21, 00:03:38
url]https://cdn.videocardz.com/1/2017/06/Radeon-Vega-Frontier-Liquid-1000x479.png[/url]
https://cdn.videocardz.com/1/2017/06/Radeon-Vega-Frontier-1-1000x478.png
Hotlinking, wo es verboten ist, ist ziemlich sinnlos :rolleyes:
Es wäre auch btw generell nett, auf die Seite zu verweisen. So kann jeder sofort die Seriösität prüfen und auch vielleicht das Alter der Informationen checken.
Ist wieder AMD Logik: MI25 gleichzeitig im Juli und "Shipping to technology partners in Q3/2017" :rolleyes: Konsistente Aussagen der Marketingabteilung wären zu einfach.
Nein, die Frontier Edition hat für beides 13.1 TFLOPS, die 12.3 gelten nur für die MI25.
Nö. Die 13.1 stehen für die Lukü-Variante - von der Wakü-Vega FE weiß man nur, dass die 75W mehr zieht.
Linmoum
2017-06-21, 00:09:41
Nein, das weiß man überhaupt nicht. Nach der Logik müsste die Fury 100W mehr ziehen als die Nano, was aber nicht der Fall ist. Oder die 1080ti 70W mehr als die 1080, was ebenfalls nicht der Fall ist.
Fetza
2017-06-21, 00:12:06
Werden denn überhaupt in größerem Stil Testmuster der FE verschickt? Da diese ja eher für Workstations und den professionellen Bereich gedacht ist, weniger als typische Grafikkarte für Verbraucher, habe ich diesbezüglich ja meine Zweifel. Das sich einige Redaktionen mit Sicherheit eine FE ins Haus holen werden um diese zu testen und sei es nur um eine grobe Vorschau auf die "richtige" RX Vega zu bekommen, dürfte klar sein. Doch ich kann mir nicht vorstellen, dass man nächste Woche oder meinetwegen die Woche darauf mit Tests überschüttet wird.
Desweiteren bleibt abzuwarten, welche Rolle die Treiber spielen. Die richtigen Crimson Treiber, mit entsprechenden Optimierungen, sollen ja auch erst mit der RX Vega kommen.
Ein Test würde mir schon reichen - dann weiß ich endlich ob ich doch noch ein paar Wochen auf Vega warte oder es lieber direkt eine Ti wird.
Ein paar Leaks wären jetzt cool! :)
Troyan
2017-06-21, 00:12:06
Wow - wer nimmt eigentlich eine Firma ernst, die falsche Behauptungen und komplette sinnbefreite Berechnungen auf der eigenen Internetseite veröffentlich?! Der Vergleich mit P100 ist vom 2. Juni 2017 - da war V100 längst bekannt.
Und MI8 wird mit "superior" Perf/Watt beworben, weil man bei P4 und P40 statt der FP32-Leistung einfach die auf 1/32 beschränkte FP16 Leistung in den Vergleich zieht. Als ob die Karten auch 250W damit ziehen würden. Nur so: P40 erreicht 48GFLOPs/W und P4 sogar 73GFLOPs/w...
Das ist schon bitter und ziemlich absurd. Durchklicken kann man sich hier: http://instinct.radeon.com/product/mi/
crux2005
2017-06-21, 00:26:31
Ach, nett. Wie war das noch mal Gipsel, die 300W TDP bei der MI25 sind ein "Platzhalter" weil AMD noch selber nicht weiß wie hoch das TDP sein wird etc.
basix
2017-06-21, 00:39:26
MI8: 47 GFLOPs/W bei 8.2 TFLOPs macht 175W bei 1.0 GHz. War Fiji auf Fury X jemals so effizient? Oder ist das die "Nano", also max. Boost entsprechen 8.2 TFLOPs und typischerweise liegt man darunter?
Edit:
https://videocardz.com/70440/amd-announces-radeon-instinct-mi25-specifications
Gipsel
2017-06-21, 02:08:56
Ach, nett. Wie war das noch mal Gipsel, die 300W TDP bei der MI25 sind ein "Platzhalter" weil AMD noch selber nicht weiß wie hoch das TDP sein wird etc.Wie anhand der im Laufe der letzten 6 Monate leicht geänderten Specs klar evident ist, wußte AMD vor einem halben Jahr tatsächlich noch nicht, mit welchen Spezifikationen sie die Karte letztendlich auf den Markt werfen werden. ;D
Edit:
Die Fotos von MI25-Karten, die ich bisher gesehen habe, scheinen 6Pin+8Pin-Anschlüsse zu zeigen.
=> Max Board Power beträgt 300W, wie auch Computerbase schreiben (https://www.computerbase.de/2017-06/radeon-instinct-mi25-specs/).
300 W stehen ja auch bei den offi specs. Es war zu befuerchten, aber der absoulte Hammer ist es natuerlich nicht. Hoffentlich spielt die Karte jetzt wenigstens ihre Power mal aus mit der neuen Software.
AffenJack
2017-06-21, 08:43:01
Nö. Die 13.1 stehen für die Lukü-Variante - von der Wakü-Vega FE weiß man nur, dass die 75W mehr zieht.
Nachdem die Teile schon verkauft werden, sind es wohl 13,1 für beide. Es wird einfach sein, dass die Wakü mit 1600mhz durchläuft, während dies bei der Air nur der Boost ist. Real nach Aufheizen wird die Air wahrscheinlich eher in der Richtung von der Mi25, also 1500mhz laufen.
deekey777
2017-06-21, 08:52:35
Ach, nett. Wie war das noch mal Gipsel, die 300W TDP bei der MI25 sind ein "Platzhalter" weil AMD noch selber nicht weiß wie hoch das TDP sein wird etc.
Hast deine MI25-Vorbestellung stornieren müssen?
Cyphermaster
2017-06-21, 09:57:21
Schon peinlich, wenn man mit so etwas lügt wirbt, während die Konkurrenz im gleichen Zeitraum ein 20% schnelleres Produkt verkaufen wird und schon angekündigt hat.Ankündigen kann man viel, nicht wahr. Es ist immer das am Schnellsten, was IST, nicht was wäre, hätte, könnte, wird oder vielleicht ist. Sonst setze ich den Bezugszeitraum auf die nächsten 100 Jahre, und behaupte ganz entspannt, daß die nächsten Claims von AMD UND nVidia kompletter Bullshit bzw. Lügen sein werden. :rolleyes:
Allgemein:
300W als MBP sind allerdings gar keine SO üblen Aussichten für die hiesigen Interessenten an Vega. Für die Gaming-Ableger könnte man dann vielleicht sogar bei Karten mit sehr schön plakativen 250W Verbrauch @Default-Takt/Spannung landen (mit Spielraum für das Powertarget/OC/Custom-Karten rauf auf 300W). Also, vorausgesetzt, man verbrät die 50W nicht gleich von vorn herein für weiter hochgeprügelte Taktraten.
Hübie
2017-06-21, 11:20:36
Das binning ist ja auch ein nicht zu unterschätzender Faktor. NV hat da seit Kepler gut Erfahrungen sammeln können und AMD schließt auf:
http://abload.de/img/gp102-400-a130sqb.jpg
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.