PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

fondness
2017-03-25, 09:33:06
Vielleicht spricht man auch von Vega10 (2 Stacks) und Vega11 (1 Stack)? Würde auch zu den Notebookgerüchten passen. 4GB für Vega10 wäre schon sehr "mutig", bzw. müsste dann schon der HBCC sehr gut funktionieren.

[MK2]Mythos
2017-03-25, 09:44:20
Es ist völlig egal wie gut HBCC funktioniert, in dem (vermuteten) Preisgefilde deutlich über 200 Eur kauft doch kein Mensch mehr ne Grafikkarte mit nur 4 GB Ram.

AffenJack
2017-03-25, 09:48:34
Vielleicht spricht man auch von Vega10 (2 Stacks) und Vega11 (1 Stack)? Würde auch zu den Notebookgerüchten passen. 4GB für Vega10 wäre schon sehr "mutig", bzw. müsste dann schon der HBCC sehr gut funktionieren.

Er spricht von davon welchen "capacity stack" die AIBs benutzen. Also gehts eher um gleich viele Stacks mit verschiedenen Kapazitäten. Dementsprechen 2 Stacks mit 4 und 8 Gb

Mythos;11330898']Es ist völlig egal wie gut HBCC funktioniert, in dem (vermuteten) Preisgefilde deutlich über 200 Eur kauft doch kein Mensch mehr ne Grafikkarte mit nur 4 GB Ram.

Sollte Vega11 mit nur 1 Stack kommen wird es da sowieso nur 4Gb werden und das in einem ~200 - 400 Euro Bereich. Aber das muss man alles noch sehen. Wenn HBCC gut funktioniert ist das ja ok. Nur ~400-500 Euro für Vega 10 mit 4Gb wäre schon recht übel.

LadyWhirlwind
2017-03-25, 09:51:22
Mythos;11330898']Es ist völlig egal wie gut HBCC funktioniert, in dem (vermuteten) Preisgefilde deutlich über 200 Eur kauft doch kein Mensch mehr ne Grafikkarte mit nur 4 GB Ram.

4GB sind wohl für OEM, hauptsächlich Notebooks aber eventuell auch einige Desktops. Natürlich nur für Entry-Level Vega konfigurationen.

Gipsel
2017-03-25, 10:02:44
Warum nur 4 und 8GB? Sind 16 GB noch so teuer?16GB-Stacks gibt es noch nicht. Er spricht da wahrscheinlich von der Kapazität pro Stack. ;)
Die dazu gezeigte Folie spricht auch von bis zu 8facher Kapazität pro Stack im Vergleich zu HBM1. Also 8GB-Stacks als Maximum (16GB insgesamt für Vega10). Die Variante wird natürlich teurer als die kleine Variante mit nur 2x4=8GB.

vinacis_vivids
2017-03-25, 10:16:56
Wie sich alle hier am VRAM den Hals verrenken ;D
Ne kleine Vega mit 4GB HBM pustet die 1070 recht weit weg behaupte ich einfach mal.

AnnoDADDY
2017-03-25, 10:20:46
Wie sich alle hier am VRAM den Hals verrenken ;D
Ne kleine Vega mit 4GB HBM pustet die 1070 recht weit weg behaupte ich einfach mal.
Ganz bestimmt nicht bei den heutigen v-ram Anforderungen :D da sind 4gb oft viel zu wenig und sehen bescheiden aus :(

[MK2]Mythos
2017-03-25, 10:23:52
16GB-Stacks gibt es noch nicht. Er spricht da wahrscheinlich von der Kapazität pro Stack. ;)
Die dazu gezeigte Folie spricht auch von bis zu 8facher Kapazität pro Stack im Vergleich zu HBM1. Also 8GB-Stacks als Maximum (16GB insgesamt für Vega10). Die Variante wird natürlich teurer als die kleine Variante mit nur 2x4=8GB.
Danke für die Erläuterung, das habe ich gemeint.

von Richthofen
2017-03-25, 10:28:10
Sollte Vega11 mit nur 1 Stack kommen wird es da sowieso nur 4Gb werden und das in einem ~200 - 400 Euro Bereich.

Dann haben sie seit Fiji nichts dazugelernt und es gibt den Rohrkrepierer reloaded. Selbst 8GB sind marketingtechnisch (nicht technisch, nur interessiert das keinen) für den großen Chip zu wenig.

vinacis_vivids
2017-03-25, 10:38:40
Ganz bestimmt nicht bei den heutigen v-ram Anforderungen :D da sind 4gb oft viel zu wenig und sehen bescheiden aus :(

Anfordern und Nutzen ist ganz was anderes. Aus ner mittelklasse cuttet-GPU mit viel V-Ram wird leider keine highend 4k Karte, auch wenn es viele glauben wollen.

BoMbY
2017-03-25, 10:59:39
Es wird spannend:

https://videocardz.com/67642/amd-radeon-rx-vega-is-just-around-the-corner

Ja, in zwei bis drei Monaten ...

5CH4CHT3L
2017-03-25, 12:06:31
IMO wäre 12GB das Optimum im Moment für High-End HBM Chips, aber das geht ja leider nicht (außer man nimmt 1 4GB und 1 8GB Stack was wieder komisch ist)
8GB gehen natürlich auch, aber ein bisschen overkill muss natürlich sein (und wenn man nur dafür sorgt dass über einen geredet wird).
Die 16GB Version würde sicherlich auch einen ziemlich großen Aufpreis haben, selbst wenn die als die gleiche Karte vermarktet wird

Der_Korken
2017-03-25, 12:25:43
4GB gesamt wären für V10 viel zu wenig, behaupte ich jetzt einfach mal. Bei der Ankündigung des HBCC hat AMD gesagt, dass die Spiele, die sie hinsichtlich Speicherbelegung und -verwendung analysiert haben, eigentlich nur 50% des tatsächlichen allokierten Speichers gebraucht hätten. Wenn man also ganz optimistisch wäre, würden 4GB vielleicht in etwa so lange reichen wie 8GB mit dem bisherigen Speichermodell reichen. Für einen V11, der vielleicht mit der GTX1070 konkurrieren könnte, wäre das durchaus OK, für V10 sollten es aber echte 8GB sein. Es sei denn, V10 ist nicht schneller als eine 1080, aber dann hätte AMD ganz andere Probleme, weil die neue Architektur dann ein absoluter Flop wäre.

Da AMD bisher eher nicht mit VRAM gegeizt hat (vgl 390 und RX480) wird es wohl gute Gründe geben, dass der Speicherausbau so klein ausfällt. Wer würde denn für eine 1080 mit 16GB z.B. 300€ extra zahlen, wenn man für das gleiche Geld schon eine deutlich schnellere 1080Ti bekommt?

Schaffe89
2017-03-25, 13:05:05
Vielleicht spricht man auch von Vega10 (2 Stacks) und Vega11 (1 Stack)? Würde auch zu den Notebookgerüchten passen. 4GB für Vega10 wäre schon sehr "mutig", bzw. müsste dann schon der HBCC sehr gut funktionieren.

Also wenn das stimmen sollte, dann ist mir auch klar warum man das mit dem HBCC im vorhinein so groß angekündigt hat, scheinbar ist man durch irgendetwas wieder stark limitiert, echt schade mit 4GB wird das nix werden.
Wie will man zum zweiten mal bei teureren GPU´s weniger Ram rechtfertigen.
Ich hoffe das das nicht stimmt, wenn ja dann sieht man auch wo Vega einzuordnen ist, eher ganz klar bei GP104 als gehobene Mittelklasse von Vega 11 fehlt weiter jede Spur.

gmb
2017-03-25, 13:21:14
Nvidia hat letztes Jahr schon viel Kritik wegen der 6 GB für die GTX 1060 einstecken müssen, da wären 4 GB in diesem Jahr ein großer Witz wenn das nicht gerade eine 150€ GPU werden soll. Selbst dann wäre mir das Risiko zu groß, da so eine geringe Größe nächstes Jahr noch viel schlechter dastehen kann als heute. Für eine Karte mitte 2017 wäre das einfach zu wenig Sicherheitsspielraum bei dem sprunghaften VRAM Bedarf in den letzten 1-2 Jahren.

Schaffe89
2017-03-25, 13:36:57
Interessant werden die Nebeneffekte des Paging auf den Arbeitsspeicher/SSDs und NVram werden, sollte der Speicher der Grafikkarte ausgehen.
Man könnte wieder stärker von der Geschwindigkeit und Menge des Arbeitsspeichers/Festplatte abhängig werden. Solch eine Mischung sollte eig. negative Folgen auf die Frametimes haben.
Wäre imho interessant das dann mal einem Test zu unterziehen, womöglich wird ne M.2 SSD da nochmal was bringen.

BoMbY
2017-03-25, 13:37:15
Nur weil es die Option gibt, heißt das noch lange nicht, dass jede der Karten mit 4GB raus kommt. Kauft einfach keine 4GB Karte und gut ist.

Schaffe89
2017-03-25, 13:42:31
Nur weil es die Option gibt, heißt das noch lange nicht, dass jede der Karten mit 4GB raus kommt. Kauft einfach keine 4GB Karte und gut ist.

Ne, sagt ja keiner, nur dass man das 2017 überhaupt als Option mit auf den Weg bringt ist schon sehr sehr mutig. Man kennt die Kritik des Speichers bei der Fury, bei der GTX 1060, vor allem der GTX 1060 3GB. Völlig unabhängig wie das dann funktionieren wird (garantiert nicht immer optimal) ist das eher ein No-go Kriterium.

Agent117
2017-03-25, 13:51:01
16GB-Stacks gibt es noch nicht. Er spricht da wahrscheinlich von der Kapazität pro Stack. ;)
Die dazu gezeigte Folie spricht auch von bis zu 8facher Kapazität pro Stack im Vergleich zu HBM1. Also 8GB-Stacks als Maximum (16GB insgesamt für Vega10). Die Variante wird natürlich teurer als die kleine Variante mit nur 2x4=8GB.

Das ist dann wohl hauptsächlich ein Problem bei Vega 11. Zumindest im Destop ist man wohl auf 8-Hi Stacks angewiesen, wenn Vega 11 nur ein 1024 Bit Interface hat. Habe gehofft dass V11 zusammen mit V10 kommt, da er für mich der richtige Chip wäre, aber 8-Hi Stacks, die es wahrscheinlich noch nicht in Massen gibt und auch die Tatsache, dass V11 in den neulichen Treiberleaks, wo 7 P12 und 7 V10 SKUs erwähnt wurden nicht auftauchte, deuten doch auf einen Release von V11 erst im Sommer/Herbst hin.

Gipsel
2017-03-25, 14:13:30
Das Thema ist Vega und nicht nV vs. AMD. Und für die nächsten Flames gibt es Karten.

Gipsel
2017-03-25, 14:17:10
Ne, sagt ja keiner, nur dass man das 2017 überhaupt als Option mit auf den Weg bringt ist schon sehr sehr mutig. Man kennt die Kritik des Speichers bei der Fury, bei der GTX 1060, vor allem der GTX 1060 3GB. Völlig unabhängig wie das dann funktionieren wird (garantiert nicht immer optimal) ist das eher ein No-go Kriterium.Ich bezweifle, daß es überhaupt Vega10-Karten mit weniger als 8GB HBM geben wird. Das Einsteigermodell von Vega11 kommt vielleicht mit 4GB, was in dem Leistungsbereich vielleicht gerade noch in Ordnung geht, falls das mit dem HBC halbwegs funktioniert. Aber für Vega 10 würde ich fest mit 8GB rechnen.
Interessant werden die Nebeneffekte des Paging auf den Arbeitsspeicher/SSDs und NVram werden, sollte der Speicher der Grafikkarte ausgehen.
Man könnte wieder stärker von der Geschwindigkeit und Menge des Arbeitsspeichers/Festplatte abhängig werden. Solch eine Mischung sollte eig. negative Folgen auf die Frametimes haben.
Wäre imho interessant das dann mal einem Test zu unterziehen, womöglich wird ne M.2 SSD da nochmal was bringen.Das mit NVRAM bzw. SSD/Festplatte wird wohl eher nur für den Profimarkt interessant (weil die Anwendung dann das auf eine bestimmte Art und Weise [memory mapped] ansprechen muß, damit es von der GPU nutzbar ist und Spiele tun das wohl momentan eher nicht [in ein paar Jahren eventuell schon]). Für Spiele wird also wohl vorwiegend der Hauptspeicher genutzt werden. Und da setzt PCIe ein Limit, was unter den typischen RAM-Geschwindigkeiten liegt (edit: RAM-Geschwindigkeit könnte dann bei Crossfire interessant werden, insbesondere auf Plattformen mit zwei oder gar drei über volle x16-Slots angebundenen GPUs). Aber es könnte schon sein, daß sich die GPU bei aufwendigen Spielen dann z.B. 4GB oder gar 8GB vom Hauptspeicher krallt, wenn es nicht mehr in den lokalen Speicher paßt. Also die Menge könnte da im Zweifelsfall wichtig sein, wenn man im Moment sehr knapp ausgestattet ist. Und man sieht vermutlich stärkere Unterschiede als heute mit PCIe x16 vs. x8 vs. x4. Denn da muß das ja Alles drüber.

Knuddelbearli
2017-03-25, 14:36:50
Nvidia hat letztes Jahr schon viel Kritik wegen der 6 GB für die GTX 1060 einstecken müssen, da wären 4 GB in diesem Jahr ein großer Witz wenn das nicht gerade eine 150€ GPU werden soll. Selbst dann wäre mir das Risiko zu groß, da so eine geringe Größe nächstes Jahr noch viel schlechter dastehen kann als heute. Für eine Karte mitte 2017 wäre das einfach zu wenig Sicherheitsspielraum bei dem sprunghaften VRAM Bedarf in den letzten 1-2 Jahren.


Die Kritik gab es doch nicht wegen den 3Gb nicht wegen den 6. 4 GB sehe ich als Minimum an und als Option für FHD durchaus brauchbar auch wenn ich die niemals kaufen würde ( nutze ja auch WQHD ). Kommt halt auch auf den Preisunterschied an, und damit wie teuer HBM2 wirklich ist.

Schaffe89
2017-03-25, 15:01:23
Das mit NVRAM bzw. SSD/Festplatte wird wohl eher nur für den Profimarkt interessant

Profimarkt? AMD hat doch genau dieses Paging auf der Präsentation mit Deus Ex gezeigt, also an einem aktuellen Spiel, oder nicht?
So tun als ob man den V-ram Verbrauch senkt, dabei aber eine Infrastruktur schaffen die Arbeitsspeicher, Festplatte usw. miteinbindet um somit Geld bei der Herstellung der Grafikkarte zu sparen. (Mit DDR4 und höheren Bandbreiten ist das erstmal auch eher möglich als früher)
HBCC ist normaler HBM Ram, der rein von der Hardware genauso geblieben ist, man hat nur Änderungen am Speichercontroller vorgenommen, jedenfalls behauptet das AMD.
Ich denke das ist primär eine Strategie um Kosten zu senken, ergo dort wo die Anwendung mehr Speicher als unbedingt nötig alloziiert das ganze mit virtuellen pages aufzupumpen.
Das ist doch eher eine Grafiktreibergeschichte, zumindest jetzt für Gaming.

Der_Korken
2017-03-25, 15:07:44
Mal eine Überlegung: Eine Titan XP hat 12GB VRAM mit 480GB/s. Nimmt man 1/60 Sekunde, also die Zeit zur Berechnung eines Frames bei 60fps, so bleiben nur 8GB übrig, die die Titan XP theoretisch überhaupt anfassen könnte, um ein Frame zu berechnen. Das heißt, dass die Berechnung selbst durch einen 8GB großen VRAM gar nicht limitiert wäre oder? Negativ macht sich das erst bemerkbar, wenn man sich im Spiel bewegt und sozusagen immer "andere 8GB" angefasst werden. Da muss die 8GB-Karte aus dem RAM swappen, was die 12GB-Karte vielleicht noch lokal auf Vorrat hat. Die Frage ist nur, wie bemerkbar sich das ganze macht, denn durch den x16 PCIe-Slot passen innerhalb von 8 Frames (also <1/7 Sekunde) die fehlenden 4GB, wenn man die theoretisch möglichen 30GB/s annimmt. Wenn sich die Szene zeitlich nicht so stark verändert, könnte das durch einen besseren Swapping-Mechanismus eventuell komplett kompensiert werden.

Wie läuft eigentlich im Moment konzeptionell die Verwaltung des VRAM, wenn etwas ausgelagert werden muss? Ich hatte bisher immer gedacht, dass ein Paging, welches man vom normalen RAM kennt, auch bei GPUs genutzt würde und war etwas überrascht, dass AMD sowas quasi als neues Feature vorstellt (wenn ich das richtig verstanden habe).

Tesseract
2017-03-25, 15:45:26
Wie läuft eigentlich im Moment konzeptionell die Verwaltung des VRAM, wenn etwas ausgelagert werden muss?

das macht momentan der treiber nach freiem ermessen. was da genau im hintergrund abläuft ist von hersteller zu hersteller oder sogar von treiberversion zu treiberversion unterschiedlich.

Screemer
2017-03-25, 16:25:54
Nvidia hat letztes Jahr schon viel Kritik wegen der 6 GB für die GTX 1060 einstecken müssen, ...

Kritik gabs für die 3gb krüppelkarten. Zeig mit mal ein review, dass sich negativ zu den 6gb außert. Vielleicht ein paar verdrehte fanboys in foren. Ich hielt die 6gb für absoluten sweetspot in dem preisbereich. Die hätten der 480 oder 470 auch gut gestanden und hätten sie preislich noch attraktiver machen können.

In denke, dass wir 4gb Modelle wenn überhaupt im notebook- oder oem-bereich finden werden. Das retailkarten mit 4gb halte ich für sehr unwahrscheinlich.

BoMbY
2017-03-25, 16:27:49
Wie läuft eigentlich im Moment konzeptionell die Verwaltung des VRAM, wenn etwas ausgelagert werden muss? Ich hatte bisher immer gedacht, dass ein Paging, welches man vom normalen RAM kennt, auch bei GPUs genutzt würde und war etwas überrascht, dass AMD sowas quasi als neues Feature vorstellt (wenn ich das richtig verstanden habe).

Ich denke die Frage ist, wer das Auslagern steuert? Wenn irgendein Shader etwas anfordert, dass außerhalb des lokalen RAM liegt, dann könnte es natürlich von der GPU per DMA ausgehen. Wenn die Anwendung gut genug ist, braucht man wohl keine extra Hardware dafür.

Ich denke der HBCC soll eine etwas aktivere Aufgabe spielen, vor allem für Anwendungen die nicht optimiert sind was verschiedene Speicherbereiche angeht, und selbst unabhängig entscheiden was in welchen Speicherbereich geschoben wird. Edit: Und der kann ja wohl nicht nur zwei Speicherarten, sondern verschiedene verwalten. SSD, VRAM und Hauptspeicher mindestens.

gmb
2017-03-25, 16:32:45
Kritik gabs für die 3gb krüppelkarten. Zeig mit mal ein review, dass sich negativ zu den 6gb außert. Vielleicht ein paar verdrehte fanboys in foren. Ich hielt die 6gb für absoluten sweetspot in dem preisbereich. Die hätten der 480 oder 470 auch gut gestanden und hätten sie preislich noch attraktiver machen können.

In denke, dass wir 4gb Modelle wenn überhaupt im notebook- oder oem-bereich finden werden. Das retailkarten mit 4gb halte ich für sehr unwahrscheinlich.


Auch die 6 GB wurden als Nachteil gewertet, im Vergleich zu den 8 GB der RX 480. Deswegen wurde oft von einer GTX 1060 abgeraten. Da kannst du dir ausmalen, wie es mit nur 4 GB bestellt sein wird, zumal wir uns dann mitte 2017 befinden.

Gipsel
2017-03-25, 16:45:58
Profimarkt? AMD hat doch genau dieses Paging auf der Präsentation mit Deus Ex gezeigt, also an einem aktuellen Spiel, oder nicht?Aber nicht auf Festplatte/SSD sondern in den Hauptspeicher des PCs. ;)
So tun als ob man den V-ram Verbrauch senkt, dabei aber eine Infrastruktur schaffen die Arbeitsspeicher, Festplatte usw. miteinbindet um somit Geld bei der Herstellung der Grafikkarte zu sparen. (Mit DDR4 und höheren Bandbreiten ist das erstmal auch eher möglich als früher)Langsamer RAM ist billiger als schneller RAM. Es ist also in dem Bereich, wo es funktioniert und man somit weniger schnellen VRAM benötigt, kosteneffizienter. Und es ermöglicht das einfachere und performantere Arbeiten mit sehr großen Datenmengen, die sowieso nicht in den VRAM passen würden (also z.B. das Zeug mit den Renderdemos, wo die auf mehreren hundert GB Daten rumgenudelt haben).
HBCC ist normaler HBM Ram, der rein von der Hardware genauso geblieben ist, man hat nur Änderungen am Speichercontroller vorgenommen, jedenfalls behauptet das AMD.Ganz genau. Und das ist auch nicht Schlechtes sondern eher was Gutes. Man benötigt keine teurere Speziallösung für den Speicher.

Gipsel
2017-03-25, 17:07:40
Ich denke die Frage ist, wer das Auslagern steuert? Wenn irgendein Shader etwas anfordert, dass außerhalb des lokalen RAM liegt, dann könnte es natürlich von der GPU per DMA ausgehen. Wenn die Anwendung gut genug ist, braucht man wohl keine extra Hardware dafür.Das geht eben meines Wissens momentan nicht (Ausnahmen gibt es mit PRTs). Traditionell muß Alles im VRAM liegen, bevor die GPU überhaupt anfängt am Drawcall zu arbeiten (selbst wenn die GPU dann erst hunderte µs oder gar ms später drauf zugreifen würde). Sollte also was nicht da sein, hängt Alles und es stockt (merklich). Mit HBC kann man das wohl überlappen und es hängt vermutlich nur die Wavefront, der die Daten fehlen (die dann direkt aus dem Hauptspeicher kommen), Alles andere läuft weiter.
Ich denke der HBCC soll eine etwas aktivere Aufgabe spielen, vor allem für Anwendungen die nicht optimiert sind was verschiedene Speicherbereiche angeht, und selbst unabhängig entscheiden was in welchen Speicherbereich geschoben wird. Edit: Und der kann ja wohl nicht nur zwei Speicherarten, sondern verschiedene verwalten. SSD, VRAM und Hauptspeicher mindestens.Der wird vermutlich zur Pagetable auch noch speichern, wie oft etwas genutzt wird und dann eine entsprechende Verdrängungsstrategie fahren (praktisch ein Cache mit vermutlich [variabel, aber üblicherweise] 4kB Pages als "Cachelines", eventuell gibt es da sogar noch Prefetcher). Oder man nennt es schlicht on-Demand-Paging.

Und der HBCC kann vermutlich nur mit Speicher umgehen, also virtuellem (Grundlage ist das Feature des gemeinsamen 49bittigen virtuellen Adressraums von GPU und CPU mitsamt MMU). Wie schon erwähnt, müssen Zugriffe auf das Dateisystem sehr wahrscheinlich über Memory Mapping (https://en.wikipedia.org/wiki/Memory-mapped_file) erfolgen. Der Inhalt von Dateien wird damit in den virtuellen Speicher eingeblendet. Zugriffe auf diese Adressen fängt das OS ab und lädt das von der Platte. Das ist transparent für die GPU, die muß also die Details nicht kennen. Der HBCC wird also nicht selber direkt auf das Dateisystem zugreifen können. Das wäre ja auch ziemlich abstrus. Der soll doch mit Allem zurechtkommen, was das OS versteht (also unabhängig davon sein, welches Filesystem benutzt wird, ab es ein Netzwerklaufwerk ist oder sonstwas).

TheGood
2017-03-25, 18:05:28
Auch die 6 GB wurden als Nachteil gewertet, im Vergleich zu den 8 GB der RX 480. Deswegen wurde oft von einer GTX 1060 abgeraten. Da kannst du dir ausmalen, wie es mit nur 4 GB bestellt sein wird, zumal wir uns dann mitte 2017 befinden.
Hä, ist doch völlig logisch! Wenn ich 8gb mit 6 GB vergleiche dann sind 8 GB definitiv besser, d.h aber nicht dass die 6 GB nicht ausreichend für den Anwendungsfall sind.

In keinem Test wurden die 6 GB als negativ gewertet, nichtsdestrotoz sind im Umkehrschluss die 8 GB natürlich ein Vorteil.

Das wird das gleiche Spiel mit VEGA 8 GB und 1080Ti mit 11 GB. Das ist ein Vorteil für die NVidia Karte, aber ob das am Ende relevant ist steht doch auf einem völlig anderen Blatt...
Vor allem weil wir aktuell gar nicht wissen wie der neue VEGA Chip mit dem Speicher umgeht und was am Ende der HBCC Controller denn für einen Ausgleich schaffen könnte. Rein auf dem Papier ist die 1080ti erstmal besser aufgestellt.

Botcruscher
2017-03-25, 18:21:23
In keinem Test wurden die 6 GB als negativ gewertet, nichtsdestrotoz sind im Umkehrschluss die 8 GB natürlich ein Vorteil.

Doch. Bei einigen lief der RAM schon voll.

Mal sehen ob das Marketing das ganze so aufbläst wie TurboCache. Soooooo viiiiiel VRAM.;D

vinacis_vivids
2017-03-25, 20:23:38
Vega kommt nicht mit GDDR Ram, daher völlig belangloses und substanzloses Tanzen um den VRAM-Brei.

Skysnake
2017-03-25, 20:40:31
Das geht eben meines Wissens momentan nicht (Ausnahmen gibt es mit PRTs). Traditionell muß Alles im VRAM liegen, bevor die GPU überhaupt anfängt am Drawcall zu arbeiten (selbst wenn die GPU dann erst hunderte µs oder gar ms später drauf zugreifen würde). Sollte also was nicht da sein, hängt Alles und es stockt (merklich). Mit HBC kann man das wohl überlappen und es hängt vermutlich nur die Wavefront, der die Daten fehlen (die dann direkt aus dem Hauptspeicher kommen), Alles andere läuft weiter.
Der wird vermutlich zur Pagetable auch noch speichern, wie oft etwas genutzt wird und dann eine entsprechende Verdrängungsstrategie fahren (praktisch ein Cache mit vermutlich [variabel, aber üblicherweise] 4kB Pages als "Cachelines", eventuell gibt es da sogar noch Prefetcher). Oder man nennt es schlicht on-Demand-Paging.

Und der HBCC kann vermutlich nur mit Speicher umgehen, also virtuellem (Grundlage ist das Feature des gemeinsamen 49bittigen virtuellen Adressraums von GPU und CPU mitsamt MMU). Wie schon erwähnt, müssen Zugriffe auf das Dateisystem sehr wahrscheinlich über Memory Mapping (https://en.wikipedia.org/wiki/Memory-mapped_file) erfolgen. Der Inhalt von Dateien wird damit in den virtuellen Speicher eingeblendet. Zugriffe auf diese Adressen fängt das OS ab und lädt das von der Platte. Das ist transparent für die GPU, die muß also die Details nicht kennen. Der HBCC wird also nicht selber direkt auf das Dateisystem zugreifen können. Das wäre ja auch ziemlich abstrus. Der soll doch mit Allem zurechtkommen, was das OS versteht (also unabhängig davon sein, welches Filesystem benutzt wird, ab es ein Netzwerklaufwerk ist oder sonstwas).

Wobei Vega ja auch die Infinity Fabric hat. Da kann man also davon ausgehen, dass der HBCC sowohl auf Page Basis als auch Cachelines kennt. Ich geh bei Verwendung von PCI-E aber sicher von Pages aus

iuno
2017-03-25, 20:50:19
Er spricht da wahrscheinlich von der Kapazität pro Stack. ;)

Der Meinung bin ich auch:
HBM2, which has different capacity stacks
[...]
based upon what capacity stack they end up using

Wie WhyCry aus den Zitaten das Folgende schliessen kann ist mir voellig raetselhaft:
AIBs will have the option to use single stacks or double stacks of HBM2 memory. So Vega might be available with one or two stacks
:confused:

Aber: warum sollen die Boardpartner das ueberhaupt auszusuchen haben? AMD wird doch sicher wieder das Package inkl. HBM verkaufen oder nicht?

Gipsel
2017-03-25, 21:12:45
Aber: warum sollen die Boardpartner das ueberhaupt auszusuchen haben? AMD wird doch sicher wieder das Package inkl. HBM verkaufen oder nicht?Das schon, aber AMD wird denen vermutlich die Wahlmöglichkeit lassen (direkt zum Start vielleicht noch nicht, aber später), mit welcher Stackgröße sie das von AMD ordern wollen. AMD wird einfach z.B. zwei Versionen mit unterschiedlich viel RAM anbieten.

iuno
2017-03-25, 21:23:51
OK, vielleicht gibt es die Referenz nur mit 8er und customs eben auch mit 4er Stacks. Das war ja z.B. auch bei der 480 schon so (Ref 8 GiB, customs auch 4), wenn auch natuerlich nicht direkt vergleichbar ;)

BoMbY
2017-03-26, 00:49:48
Das geht eben meines Wissens momentan nicht (Ausnahmen gibt es mit PRTs). Traditionell muß Alles im VRAM liegen, bevor die GPU überhaupt anfängt am Drawcall zu arbeiten (selbst wenn die GPU dann erst hunderte µs oder gar ms später drauf zugreifen würde). Sollte also was nicht da sein, hängt Alles und es stockt (merklich). Mit HBC kann man das wohl überlappen und es hängt vermutlich nur die Wavefront, der die Daten fehlen (die dann direkt aus dem Hauptspeicher kommen), Alles andere läuft weiter.

GCN GPUs haben bereits einen DMA Controller und können x86 Speicheradressen ansprechen. Jedenfalls in der Theorie. Siehe zum Beispiel das GCN Whitepaper (https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf).

Mit den neuen APIs und Async Compute (http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading) geht da auch schon jetzt deutlich mehr. Dafür gibt es ja auch eigens eine Copy Queue.

G3cko
2017-03-26, 11:21:33
Durch den unified Speicher der Konsolen müssen die Entwickler nicht zwischen RAM und VRAM unterscheiden. Daher auch der rasante Anstieg in Sachen VRAM-Bedarf, weil Konsolen-Ports auf dem PC eben genauso arbeiten, bzw sich Niemand die Mühe macht hier wieder zwischen VRAM und RAM zu trennen. Es landet alles einfach im VRAM.

Beispiel: Man achte auf die VRAM- und RAM-Auslastung je nachdem wieviel VRAM die GPU hat.
http://techbuyersguru.com/sites/default/files/pictures/TheGamersBench/RoTRDX12/RoTR%20VRAM%20fix.jpg

http://techbuyersguru.com/sites/default/files/pictures/TheGamersBench/RoTRDX12/RoTR%20RAM%20Fix.jpg

Der Vorteil durch den HBCC wir also so groß sein, wie die überflüssige RAM-Menge die man neuerdings in den VRAM schiebt. Dazu könnte man auch größere Texturen cleverer auslagern und nachträglich streamen ohne spürbaren fps Verlust. Ganz so extrem wie hier muss es nicht sein, zeigt aber die Richtung:

https://www.youtube.com/watch?v=q7vRNAR9wx8

Gipsel
2017-03-26, 12:25:18
GCN GPUs haben bereits einen DMA Controller und können x86 Speicheradressen ansprechen. Jedenfalls in der Theorie. Siehe zum Beispiel das GCN Whitepaper (https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf).

Mit den neuen APIs und Async Compute (http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading) geht da auch schon jetzt deutlich mehr. Dafür gibt es ja auch eigens eine Copy Queue.Daß Daten asynchron hin- und her geschoben werden können, bedeutet nur, daß man das im Hintergrund/parallel zu Berechnungen machen kann, die diese Daten nicht benötigen. Will man mit etwas anfangen, was diese Daten benötigt, muß man sicherstellen, daß der Kopiervorgang abgeschlossen ist, also manuell synchronisieren (mit einer Barriere).
Und man kann auch heute bereits "gepinnten" Hauptspeicher (der wird dann vom Paging ausgenommen) von der GPU aus ansprechen. Aber das ist typischerweise nur ein relativ kleiner Bereich und es eignet sich halt nicht gut dafür, daß die GPU (also der HBCC) die Verteilung der Daten auf lokalen RAM und Host-RAM transparent für die GPU regelt (bei einem Zugriff wird das nicht automatisch in den VRAM übertragen, das muß man separat anstoßen und während dieses Kopiervorgangs kann nicht drauf zugegriffen werden). Dies sollte sich mit dem HBCC verbessern. Wie gut es funktioniert, werden wir sehen müssen.

vinacis_vivids
2017-03-26, 12:48:48
Beispiel: Man achte auf die VRAM- und RAM-Auslastung je nachdem wieviel VRAM die GPU hat.


Interessant, das Spiel fordert permanent 14GB an.
Das meiste liegt Brach. So einen Kampf kann man mit der Erhöhung des VRAMs auf Dauer nicht gewinnen. Muss in Zukunft einfach sinnvoller verteilt werden.

Botcruscher
2017-03-26, 13:10:18
Soll es ja auch. Prefetch macht auf Betriebssystemebene seit Jahren nichts anderes. Niemand will IO von der Gurke wenn irgendwo schnellerer Speicher vorhanden ist. Die Aussage "liegt Brach" stört mich einfach nur. Die Daten liegen maximal bereit. Es ruckelt auch nicht weil der Speicher ausgeht sondern weil die Bandbreite+Latenz dazwischen nicht mehr ausreicht. AMD macht nichts anderes als die Verwaltung zu optimieren. Wie weit das erfolgreich ist wird sich zeigen.

Unicous
2017-03-26, 16:13:49
Ich schätze mal hier ist es am Besten aufgehoben.

Der GDC-Vortrag von Timothy Lottes "ADVANCED SHADER PROGRAMMING ON GCN (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-Advanced-Shader-Programming-On-GCN.pdf)" ist veröffentlicht worden.


edit:

Radeon ProRender und Radeon Rays (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-Radeon-ProRender-And-Radeon-Rays-In-A-Gaming-Rendering-Workflow.pdf)

True Audio Next (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-True-Audio-Next-And-Multimedia-AMD-APIs-In-Games-And-VR-Apps.pdf)

Explicit Multi GPU DX12 (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-Explicit-DirectX-12-Multi-GPU-Rendering.pdf)

TressFX 4.0 (http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2017/03/GDC2017-Real-Time-Finite-Element-Method-And-TressFX-4.0.pdf)

Und wahrscheinlich alle Vorträge/Sessions von der GDC

http://gpuopen.com/gdc-2017-presentations/

iuno
2017-03-31, 14:04:58
Vega support schafft es wohl in Kernel 4.12, d.h. sollte gegen Ende Mai upstream und released sein. Man hatte urspruenglich mal vor frueher dran zu sein als bei Polaris, sodass man noch vor Launch alles upstream hat. Launch waere also imho wahrscheinlich erst im Juni, wie bereits vermutet.

Lustigerweise wird man damit aber kein Display benutzen koennen. DAL/DC refactoring ist noch nicht so weit und abseits davon wird AMD im Gegensatz zu VI und Polaris keinen Code mehr liefern.

horn 12
2017-04-01, 01:46:16
Es geht los mit Vega 10

Achtung: 1 April aber denke dies ist echt Seriös
Zudem mehr als nur 1 Folie present ist!

http://wccftech.com/vega-teaser-slides-leak-nda/

[MK2]Mythos
2017-04-01, 01:55:43
Meine Güte, horn... Dass der ganze "Artikel" völliger Blödsinn ist und sogar in den Folien der Hinweis auf den 1. April gegeben wird, ist dir echt nicht aufgefallen?

horn 12
2017-04-01, 02:05:10
Nun, steht ganz unten 1 April
Aber denke das entspricht der Wahrheit alles
Ausser die Wasserkühlung und der Name von Vega!


https://uploads.disquscdn.com/images/077817a66f1695dc4bdc39b87dff89552125a23d569ea3b515bd3e63c79d293a.jpg

maximus_hertus
2017-04-01, 02:09:19
Geil, danke horn. Also Single Vega > 1080 Ti SLI. Dazu sind 4 GiB HBM > 11 GiB G5X ;)

Es gibt eine weitere Quelle - das ganze für 199 USD! Vega = NAchfolger der 480 :D Geilo!

Ok, genug gealbert ;) Heute wird es wohl keine brauchbaren Infos geben, wir sehen / lesen / schreiben uns dan ab Sonntag wieder...

horn 12
2017-04-01, 02:13:41
Der Aufwand der Slides kommt mir zuviel Aufwand vor...
Denke da wurde nur das Datum auf den 1 April gesetzt, Richtig wäre der 25 April 2017
So einen Aufwand mit vielen Slides macht keiner für einen Gag!

iuno
2017-04-01, 02:16:18
:facepalm:
es ist ja nicht mal viel Aufwand, die Folien sehen grottig aus, sind falsch und zu alldem auch noch ganz klar als Aprilscherz gekennzeichnet.

Blediator16
2017-04-01, 02:18:44
Das ist ein Aprilscherz...

vinacis_vivids
2017-04-01, 02:53:27
https://wccftech.com/vega-teaser-slides-leak-nda/

Rage
4GB HBM²
3584 SPs
1400Mhz+

Rage X
8GB HBM²
3584 SPs
1500Mhz

Rage X Fury
8GB HBM²
4096 SPs
1600Mhz+

Nightspider
2017-04-01, 02:54:51
https://wccftech.com/vega-teaser-slides-leak-nda/

Hier nochmal der Link zur letzten Seite:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238&page=140

vinacis_vivids
2017-04-01, 02:59:39
Sry ^^

Agent117
2017-04-01, 12:55:16
Das ist ein Aprilscherz...

Alles wahr, Nvidia hat wohl wirklich Angst vor Vega und heute sehr überraschend die Titan Y rausgebracht. NDA fiel diesmal übrigens um 0:00h westeuropäischer Zeit (UTC+2). Der verwendete Gp102 Chip wurde laut PCGH schon am 1.4.2016 hergestellt; da sieht man mal wie weit Vega hinterherhinkt. Hier noch der Link

http://www.pcgameshardware.de/Titan-X-Grafikkarte-265165/Specials/Titan-Y-Test-Review-1224564/

[MK2]Mythos
2017-04-01, 13:04:30
Alles wahr, Nvidia hat wohl wirklich Angst vor Vega und heute sehr überraschend die Titan Y rausgebracht. NDA fiel diesmal übrigens um 0:00h westeuropäischer Zeit (UTC+2). Der verwendete Gp102 Chip wurde laut PCGH schon am 1.4.2016 hergestellt; da sieht man mal wie weit Vega hinterherhinkt. Hier noch der Link

http://www.pcgameshardware.de/Titan-X-Grafikkarte-265165/Specials/Titan-Y-Test-Review-1224564/
Shit! Darauf wird AMD wohl erst in exakt einem Jahr antworten können.

vinacis_vivids
2017-04-01, 13:46:28
Mehr als 4K kann die Karte auch nicht. Für 8K einfach zu schwach.

matty2580
2017-04-01, 16:50:22
horn 12 finde ich cool.
Er hat einen unerschütterlichen Glauben an AMD. ^^

Die News bei wccftech ist aber eindeutig als April-Scherz gekennzeichnet.
Trotzdem hat Vega sehr viel Potential damit AMD endlich wieder den Anschluss an Nvidia findet.

Ich freue mich auf Vega.
Das wird ein "heißer" Sommer werden. ^^

Tamagothi
2017-04-01, 17:38:28
Wäre aber schon lustig wenn Teile davon der Wahrheit entsprechen ^^

z.b.

4GB HBM > 11 GB G5X

oder

1600 MHz Baseclock

Schaffe89
2017-04-01, 18:37:35
Wäre aber schon lustig wenn Teile davon der Wahrheit entsprechen ^^

z.b.

4GB HBM > 11 GB G5X

oder

1600 MHz Baseclock

Schöner Aprilscherz, aber ich denke einiges stimmt, vor allem das mit den 4GB, da kommt bestimmt so eine Karte für die DAUs.;D

w0mbat
2017-04-01, 18:38:19
Die Folien könne gar nicht stimmen, Vega wird niemals nur 2x so schnell wie eine 1080Ti sein.

basix
2017-04-01, 18:43:27
Die Folien könne gar nicht stimmen, Vega wird niemals nur 2x so schnell wie eine 1080Ti sein.

Genau, denn Vega wird "over 9000" Mal schneller sein als der Nvidida Konkurrent :D

https://myanimelist.cdn-dena.com/s/common/uploaded_files/1453279557-0285330aad6bcafa317939f349a32f35.jpeg

[MK2]Mythos
2017-04-01, 18:46:07
Ihr seid schuld wenn horn mit Schnappatmung vom Stuhl kippt.

Rubber Duck
2017-04-01, 20:20:09
Wann kommt die News das ATI wieder die Grafiksparte zurückkauft und das Zepter der Macht schwingt. :P:biggrin::freak:

Schnitzl
2017-04-01, 22:22:07
Mythos;11337942']Ihr seid schuld wenn horn mit Schnappatmung vom Stuhl kippt.
In die Tüte atmen hilft gegen Hyperventilieren.

Keine Angst horn, Vega wird ne super Karte, vielleicht nicht die Schnellste aber dennoch super.

zu dem PCGHW Aprilscherz: da sieht man wie leicht man sich Werte ausdenken kann ^^

horn 12
2017-04-01, 22:29:53
Nun da steckt wohl Mehr Wahrheit dahinter als vielen lieb ist
Rechne Vega wird die Überkarte von AMD der letzten 5 bis 7 Jahre!

Kriton
2017-04-01, 23:01:41
Stapelst Du bei 5-7 Jahren nicht etwas tief?

[MK2]Mythos
2017-04-01, 23:03:58
Ich würde sogar so weit gehen und behaupten dass Vega die schnellste GPU ist, die AMD jemals gebaut hat! :O

StefanV
2017-04-01, 23:35:42
Mythos;11338131']Ich würde sogar so weit gehen und behaupten dass Vega die schnellste GPU ist, die AMD jemals gebaut hat! :O
No shit, sherlock...
Captain Obvious is around...

Aber die Frage ist, wie sich die VEGA GPUs in den Markt einfügen...

PS: bei einigen RX480 Karten steht neben P11 oder so auch ein V11, warum auch immer oO

iuno
2017-04-02, 01:09:34
PS: bei einigen RX480 Karten steht neben P11 oder so auch ein V11, warum auch immer oO
care to elaborate?

Hasenpfote
2017-04-06, 14:25:30
Wann kommt die News das ATI wieder die Grafiksparte zurückkauft und das Zepter der Macht schwingt. :P:biggrin::freak:Gar nicht! ATi kauft AMD! Deswegen steigen auch seit Monaten der Aktienkurs bei AMD.
Nun da steckt wohl Mehr Wahrheit dahinter als vielen lieb ist
Rechne Vega wird die Überkarte von AMD der letzten 5 bis 7 Jahre!Das denke ich auch! Endlich mal wieder eine AMD-Karte, die man um mehr als 20Mhz übertakten kann, ohne die Spannung zu erhöhen und mehr als 100Mhz mit Spannungserhöhung! Go AMD, go!

Ich würde so gern Horns Gesicht sehen, wenn AMD wieder eine Heizplatte wie die Fury rausbringt und die Gamerwelt sich weiterhin von Nvidia ausnehmen lässt.

[MK2]Mythos
2017-04-06, 17:27:34
Zuerst der überraschende Launch von 1080ti und jetzt eine Titan Xp im GP102 Vollausbau, man könnte wirklich meinen, dass NVIDIA Wind davon gekriegt hat, wie schnell Vega wird. Vielleicht bestätigen sich ja diesmal horns kühnste Träume. :D

Hübie
2017-04-06, 17:36:45
Es wird so laufen wie immer. AMD teasert lange bevor das Produkt kommt, dann passiert lange gar nix, dann wird kurz vor dem Start Technologie gespoilert, Erwartungshaltung geschürt, das Produkt fehlerhaft auf den Markt geworfen und dann reiht man sich brav als Schütze ins Glied ein. =)

Calypso
2017-04-06, 19:57:46
also wenn man bedenkt, wie ruhig es in diesem Thread ist, dann glaube ich irgendwie nicht dran, dass da was in den nächsten Monaten kommt - ich hoffe es zwar sehr, aber irgendwie gibt es ja so gar keine Spekus/Leaks/Neuigkeiten...

Linmoum
2017-04-06, 20:04:01
Da wir bereits Q2 haben und Vega in Q2 launcht, wird da in den nächsten Monaten selbstverständlich etwas kommen. ;)

Tschibbl
2017-04-06, 20:57:32
Hoffentlich wirds keine Enttäuschung.

iuno
2017-04-06, 22:21:48
also wenn man bedenkt, wie ruhig es in diesem Thread ist, dann glaube ich irgendwie nicht dran, dass da was in den nächsten Monaten kommt - ich hoffe es zwar sehr, aber irgendwie gibt es ja so gar keine Spekus/Leaks/Neuigkeiten...
AMD will den Code in 4.12 haben. Das wuerden sie imho nicht tun, wenn es keinen Release im entsprechenden Zeitraum gaebe. Dann koennten sie sich grad noch Zeit lassen. Weder ist alles funktional fertig (DC) noch ist der Kernel fuer eine groessere (LTS) Distribution wichtig.

StefanV
2017-04-06, 22:39:38
also wenn man bedenkt, wie ruhig es in diesem Thread ist, dann glaube ich irgendwie nicht dran, dass da was in den nächsten Monaten kommt - ich hoffe es zwar sehr, aber irgendwie gibt es ja so gar keine Spekus/Leaks/Neuigkeiten...
AMD hat in den letzten Jahren so gut wie alle Leaks stopfen können, so dass du eigentlich nur Dinge von offizieller oder offiziell abgesegneter Seite bekommst.

Die "einzigen" Leaks, die es wirklich noch gibt, sind die von Händlern, die die Komponenten schon auf Lager haben und schon ausliefern...

w0mbat
2017-04-06, 22:52:02
AMD hat in den letzten Jahren so gut wie alle Leaks stopfen können, so dass du eigentlich nur Dinge von offizieller oder offiziell abgesegneter Seite bekommst.

Die "einzigen" Leaks, die es wirklich noch gibt, sind die von Händlern, die die Komponenten schon auf Lager haben und schon ausliefern...

Das war zum Teil aber auch ziemlich rabiat, da gab es sogar Klagen.

Raff
2017-04-06, 22:56:10
Nvidia bringt die GTX 1080 Ti, Nvidia bringt die Titan XPp. Und AMD so "Hier habt ihr ein Vega-Wallpaper" - da musste ich schon lachen. :biggrin: Es wird wirklich Zeit für echte Lebenszeichen. Die Annahme, dass Vega ein GP102-Killer ist und Nvidia daher so losfeuert (inkl. Preissenkungen), halte ich für sehr optimistisch. Mit 16 GiB und 4.096 Bit würde ich das der Kiste durchaus zutrauen, aber solche Specs sind nicht in Sicht. Und mit 8 GiB kann das Ding TXP-Leistung haben wie es will, in Hi-Res-Tests und in der Zukunft würde der Karte das gleiche blühen wie jetzt Fiji. Das wäre nach so langer Wartezeit bitter.

MfG,
Raff

horn 12
2017-04-06, 23:02:29
Wenn Du dich da mal nicht täuscht
Vega wird knappe 30% schneller als GTX 1080TI und dies weiss NV!

BitancChips kommt mit Meldung langsam ins grübeln!

AMD lässt NV ihr ganzes Pulver verschießen, bis die Trommel auftrumpft!
rechne stark Morgen wird es soweit sein und AMD bringt erste Details ins Rampenlicht.


@Raff
@Fiji ist immer noch stark und muss sich vor der GTX 1070/ GTX 980TI keinesfalls verstecken!

Blediator16
2017-04-06, 23:09:15
Wenn Du dich da mal nicht täuscht
Vega wird knappe 30% schneller als GTX 1080TI und dies weiss NV!

Bitcoins kommt mit Meldung langsam ins grübeln!

AMD lässt NV ihr ganzes Pulver verschießen, bis die Trommel auftrumpft!
rechne stark Morgen wird es soweit sein und AMD bringt erste Details ins Rampenlicht.


@Raff
@Fiji ist immer noch stark und muss sich vor der GTX 1070/ GTX 980TI keinesfalls verstecken!

Ich tippe auf den 14.4 mit mehr Details.

Tamagothi
2017-04-06, 23:09:25
@ Raff

Es ist nicht unmöglich das AMD erstmal nur 2048 Bit nutzt um z.B. 6 Monate später eine 32 GB 4096 Bit zu bringen. (Profikarte)

Der_Korken
2017-04-06, 23:27:46
@ Raff

Es ist nicht unmöglich das AMD erstmal nur 2048 Bit nutzt um z.B. 6 Monate später eine 32 GB 4096 Bit zu bringen. (Profikarte)

AMD wird wohl kaum Controller und PHYs für vier Stacks in den Die quetschen und dann erstmal nur zwei nutzen. Auch die Profikarten wurden afaik mit 2048bit und 16GB Maximalausbau angegeben.

G3cko
2017-04-06, 23:52:26
Nvidia bringt die GTX 1080 Ti, Nvidia bringt die Titan XPp. Und AMD so "Hier habt ihr ein Vega-Wallpaper" - da musste ich schon lachen. :biggrin: Es wird wirklich Zeit für echte Lebenszeichen. Die Annahme, dass Vega ein GP102-Killer ist und Nvidia daher so losfeuert (inkl. Preissenkungen), halte ich für sehr optimistisch. Mit 16 GiB und 4.096 Bit würde ich das der Kiste durchaus zutrauen, aber solche Specs sind nicht in Sicht. Und mit 8 GiB kann das Ding TXP-Leistung haben wie es will, in Hi-Res-Tests und in der Zukunft würde der Karte das gleiche blühen wie jetzt Fiji. Das wäre nach so langer Wartezeit bitter.

MfG,
Raff

Da liegst du falsch. Der Anstieg des speicherbedarfs kommt durch den unified Speicher der Konsolen. Der neue Cache trennt hier wieder relevante von unrelevanten Daten. Man löst also nur ein Problem welches man mit den Konsolen selbst verursacht hat. Solange nvidia keine ähnliche Technologie bieten, benötigen sie in Zukunft mehr VRAM auf den karten.

So wie ich nvidia kenne ist das denen gerade recht. Braucht man nur soviel VRAM verbauen wie AMD und die Karten verhungern trotzdem wieder früher.

Der_Korken
2017-04-07, 01:29:17
Ich habe gerade erst gelesen, dass die GPU der neuen XBox 40CUs mit ~1172Mhz haben soll. Könnte das vielleicht ein Hinweis auf V11 sein? Die Taktrate der PS4 Pro GPU liegt bei 911Mhz verglichen mit 1266Mhz der Desktop-Version. Rechnet man die Taktrate der Scorpio GPU entsprechend hoch, käme man auf ~1620Mhz max. Boost. Nimmt man den eher üblichen Takt, den die Referenzkarte der 480 erreicht (~1180 Mhz), käme man auf ~1517Mhz, was sehr dicht an den spekulierten 1500Mhz für Vega dranliegt. Das ergibt 33% mehr Rohleistung als P10. Mit einer verbesserten Architektur (insbesondere geringerem Bedarf an VRAM-Bandbreite), könnten vielleicht 40-50% auf P10 drin sein.

iuno
2017-04-07, 01:42:10
@G3cko: jaja, das muss aber ueberhaupt erstmal stimmen und dann auch noch funktionieren. Ich sehe schon wie das Feature jetzt gehypt wird und hinterher scheiss Frametimes produziert.

@Der_Korken: Ich wuerde von der Scorpio auf ueberhaupt nichts schliessen. Sie sind ja gerade so auf ihre angekuendigten 6 TF gekommen, das Ding wird lauter oder deutlich groesser sein und auch deutlich mehr verbrauchen duerfen als die PS.

dargo
2017-04-07, 10:35:23
Ich habe gerade erst gelesen, dass die GPU der neuen XBox 40CUs mit ~1172Mhz haben soll. Könnte das vielleicht ein Hinweis auf V11 sein?
Hehe... war auch mein Gedanke.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11342586&postcount=642

V11 Topdog mit 44CUs und ~1.4xxMHz Takt um 8 TFLOPs zu erreichen. Jedenfalls hätte man damit eine gute Abstufung... RX560 mit ~2,6 TFLOPs, RX580 mit ~6 TFLOPs, V11 mit ~8 TFLOPs und V10 mit ~12 TFLOPs.

Schnoesel
2017-04-07, 11:48:16
Hoffentlich wirds keine Enttäuschung.

Entäuschen wird Vega ziemlich sicher sogar. Dafür sorgen schon die übertriebenen Erwartungshaltungen und selbst wenn nicht wird einfach eine Entäuschung herbeigeredet. Wenn ich das schon wieder höre 30% vor der TI kann ich mir echt nur an den Kopf fassen. Das wird schlicht nicht funktionieren und nein Fiji ist nicht auf 980Ti und 1070 Level und ich wünschte es wäre anders.

dargo
2017-04-07, 11:59:25
Das wird schlicht nicht funktionieren und nein Fiji ist nicht auf 980Ti und 1070 Level und ich wünschte es wäre anders.
Eigentlich schon. :D
59473

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/

Fiji braucht am PC halt Pixellast. Natürlich wirds da mit den nur 4GB nicht einfacher. In einer anderen Umgebung (Konsole, dafür ist Fiji natürlich zu stromhungrig und zu groß) würde Fiji abgehen wie Schmidts Katze, da bin ich mir sicher. Am PC mit den Steinzeit-APIs klappt es nicht. Oder anders gesagt... in einer Konsolenumgebung würde sich Fiji durchaus mit einer GTX1080 anlegen.

Schnoesel
2017-04-07, 12:16:22
Eigentlich nicht.

- Fakt ist dass OC mit Fiji schlicht nicht drin ist auch nicht mit Wakü. Kein Mensch kauft sich ne 980ti oder 1070 mit Default Taktraten. Bei Fiji gibts nix anderes.
- 4GB limitieren immer öfter (bei mir aktuell bei WD2 der Fall).
- Die wenigsten Spiele sind mit Fiji auf 4K vernünftig spielbar. Unter 1440p muss man dann des öfteren feststellen, dass man grade so knapp vor einer 480 liegt.

Theoretisch auf Augenhöhe in der Praxis eben nicht. Ich wusste zwar vorher worauf ich mich einlasse aber Fiji scheint auch bei AMD mittlerweile keinerlei Priorität mehr zu haben, dabei ist es gerade diese Karte die sehr viel Pflege nötig hätte. Vega wird vieles hoffentlich besser machen aber zaubern wird die Karte nicht können.

dargo
2017-04-07, 12:20:17
Dann lügt also CB? :rolleyes:

Der Speicher ist sicherlich ein Problem mit max. Details. Gib dem Fiji Pixellast mit =>1440p, ein Preset von High anstatt Very High oder gar Ultra und schon passt es. Von OC war überhaupt nicht die Rede und interessiert die Masse auch nicht.

iuno
2017-04-07, 12:24:09
Wer redet von lügen?
Aber schau dir die absoluten Werte doch mal an. Klar ist 33 vs 34 fps auf demselben Niveau, nämlich gleich schäbig. So spielt doch keiner mit so einer teuren Karte. Zumal du auch weißt, dass Fiji schlechtere frametimes hat.
Und wenn du statt der Referenz customs hernimmst sieht es eh nochmal anders aus.
Ist aber eh OT hier

Mangel76
2017-04-07, 12:29:11
- Fakt ist dass OC mit Fiji schlicht nicht drin ist auch nicht mit Wakü. Kein Mensch kauft sich ne 980ti oder 1070 mit Default Taktraten. Bei Fiji gibts nix anderes.


Wieso ist denn OC-Fähigkeit immer so ein Kriterium? Wenn Nvidia oder Intel ihre Produkte soweit unter dem Möglichen verkaufen und jeder Depp sich auf die Schulter klopft, was für ein toller Hecht er beim Übertakten ist, dann ist das was Gutes?

Ja, AMD verkauft seine Produkte näher am Limit, in vielen Fällen wohl um gegenüber der Konkurrenz gut/besser dazustehen.

Aber OC-Fähigkeit an sich ist doch kein Bewertungskriterium! Wenn, dann vergleiche ich doch im Nutzungsszenarium (Höchsttakt, Silent, "Sweet Spot"...)! Eine Fähigkeit um X% zu übertakten, nur um der Fähigkeit willen, ist doch völlig egal!

Anders gefragt: Wäre eine RX480 ein besseres Produkt, wenn sie von AMD nur mit 1,1 GHz (Boost) herausgebracht worden wäre und wir sie jetzt auf 1,35 GHz übertakten könnten?

Kartenlehrling
2017-04-07, 12:34:09
Ich habe eine MG279Q (2560x1440) und ein R9nano ,
da brauch man nicht gleich auf High runter wenn man die Auflösung auf 2560x1080 ändert,
das sind schnell 5-25fps mehr je nach angestrebter FPS.

4GB limitieren immer öfter (bei mir aktuell bei WD2 der Fall).

Das Spiele erkennen das nur 4gb verbaut sind und somit Einstellung in der Grafikoptionen erst gar nicht zulassen bzw. selbst abschalten ist für mich ein Unding.
Es reicht doch eine Warnung das man zu wenig verbaut hat, Entmündigung ist eine andere Sache.

Schnoesel
2017-04-07, 12:35:28
Dann lügt also CB?

Das habe ich nicht behauptet, aber es sagt nichts über Praxis oder Spielbarkeit aus. Was nützt mir ein Fiji der im Gesamt 4K Rating auf Augenhöhe mit einer 980ti oder 1070 (@default) ist wenn das Setting nicht nutzbar ist. Ein schwacher Trost dass es bei der Konkurrenz nicht besser läuft. Also ist eher 1440p und 1080p das Kriterium und da ist Fiji eben langsamer.
Fiji ist keine 4K Karte und war es auch nie.

Wieso ist denn OC-Fähigkeit immer so ein Kriterium?

Das ist kein Kriterium, aber bei den den Nvidia Karten bekomme ich OC out of the Box muss dazu also nicht selbst Hand anlegen und zwar in einem Bereich wo es schon spürbar ist. Also ist es für einen Käufer relevant.

PS: Sorry für OT aber ich wollte das von horn12 nicht einfach so stehen lassen.

iuno
2017-04-07, 12:39:38
@Mangel76: Ich hoffe die Frage ist nicht ernst gemeint :usad: Mit 1,1 Boost waere das eher so 1050 Ti statt 1060 Konkurrenz gewesen.
Du kannst es dir auch kompliziert machen, aber alle deine genannten Punkte lassen sich von der Groesse "Uebertaktbarkeit" ableiten, natuerlich unter Beruecksichtigung der restlichen Parameter.
Das Spiele erkennen das nur 4gb verbaut sind und somit Einstellung in der Grafikoptionen erst gar nicht zulassen bzw. selbst abschalten ist für mich ein Unding.
Es reicht doch eine Warnung das man zu wenig verbaut hat, Entmündigung ist eine andere Sache.
Aber keiner will doch die Schuld haben. Jedes Spiel was raus kommt und irgendwas hat bekommt einen shitstorm. AMD wird geflamt, wenn Spiele nicht performen. Die Nutzer sind offenbar dumm genug, alles auf max zu stellen obwohl dort ggf. auch mal dran steht dass man zu wenig Speicher hat und beschweren sich dann trotzdem noch ueber die Performance.
Hinzu kommt noch der Schwachsinn von "4 GiB HBM sind so viel wert wie 8 GiB GDDR", der sich offenbar relativ gut durchgesetzt hat und was AMD jetzt mit dem HBCC auch noch selbst ordentlich schuert. Das kann auch noch ordentlich nach hinten losgehen

Screemer
2017-04-07, 12:44:14
und das ist dann amds fehler weil die user zu blöd sind sich ihre settings so auszusuchen, dass sie zu ihrer hardware passen?

Raff
2017-04-07, 12:54:09
PS: Sorry für OT aber ich wollte das von horn12 nicht einfach so stehen lassen.

Das ist schon gut so. Vielen hier würde es gut tun, auf dem Boden zu bleiben. Dann schmerzt der Sturz auch nicht so sehr, eventuell gibt's sogar die eine oder andere Überraschung. 30 Prozent vor der Titan XYZ mit 4.096 ALUs? Wie? Voodoo ist aus, hat zur Jahrtausendwende schon nicht gegen Nvidia funktioniert. ;)

MfG,
Raff

Mangel76
2017-04-07, 12:57:38
@Mangel76: Ich hoffe die Frage ist nicht ernst gemeint :usad: Mit 1,1 Boost waere das eher so 1050 Ti statt 1060 Konkurrenz gewesen.
Du kannst es dir auch kompliziert machen, aber alle deine genannten Punkte lassen sich von der Groesse "Uebertaktbarkeit" ableiten, natuerlich unter Beruecksichtigung der restlichen Parameter.


Also RX480 mit 1,1GHz auf 1050Ti-Niveau? Das ist doch nicht dein Ernst, oder? Im CB-Ranking ist die RX 55% vor der 1050 Ti, auch mit 10% weniger Takt ist die RX noch deutlich vorn.

Nochmal anders gefragt: Wäre eine 1080 mit 1700 statt 1607 MHz-Basetakt herausgekommen, wäre es dann eine schlechtere Karte, nur weil sie sich nicht so weit (relativ gesehen) übertakten ließe?

Für mich, der seine Karte nach den eigenen Bedürfnissen einstellt, ist die Voreinstellung einer Karte (mehr oder weniger nah am Limit) und damit auch die Übertaktbarkeit im Verhältnis zur Standardeinstellung doch völlig egal.

Schnoesel
2017-04-07, 13:09:27
Für mich, der seine Karte nach den eigenen Bedürfnissen einstellt, ist die Voreinstellung einer Karte (mehr oder weniger nah am Limit) und damit auch die Übertaktbarkeit im Verhältnis zur Standardeinstellung doch völlig egal

Das ist bei mir aber nicht anders. Mir geht es auch nicht um OC an sich, sondern was am Ende hinten bei rumkommt. Ob mit OC oder bereits out of the box am Limit ist mir persönlich egal.
Fiji schafft es aber weder Out of the Box noch durch eigenes Tuning mit den Konkurrenzkarten mitzuhalten.
Out of the Box nicht weil es bei der Konkurrenz Karten gibt die weit über die Default Taktraten betrieben werden. Das gibt es bei Fiji nicht.
Mit Tuning nicht, weil Fiji eben schon am Limit läuft.

Es ist sinnvoll Default gegen Default antreten zu lassen, keine Frage aber man sollte schon auch einschätzen können, ob es die Realität widerspiegelt.

Genauso wird es mit Vega sein. Sollte die Karte nur mit 8GB kommen muss ihr Speicher feature ohne wenn und aber funktionieren. Auf dem Papier nützt mir das Feature nix, was hinten rauskommt zählt.

[MK2]Mythos
2017-04-07, 13:19:38
Unabhängig wie gut dieses Speicher Feature funktioniert, finde ich 8GB bei Vega deutlich unkritischer als 4 GB bei Fiji damals.
Ich glaube nicht dass 8 GB ähnlich schnell limitieren werden.

dargo
2017-04-07, 13:31:01
Wer redet von lügen?
Aber schau dir die absoluten Werte doch mal an. Klar ist 33 vs 34 fps auf demselben Niveau, nämlich gleich schäbig.
Was verstehst du nicht an =>1440p und/oder reduzierten Details? Da wird schnell aus 3xfps 4x bis 5xfps.

So spielt doch keiner mit so einer teuren Karte.
Wusste nicht, dass 300€ teuer ist. Ja... die Karte (Fury non X OC) gab es dafür öfter. Eine GTX980 hatte auch mal >500€ gekostet. Auch mit dieser bist du heute gezwungen Details zu reduzieren. Ganz normaler Lauf der Dinge bei PC-Hardware.

iuno
2017-04-07, 13:34:39
Oh, Mann :facepalm: ich bin bei beiden raus
ist eh nur OT

dargo
2017-04-07, 13:39:00
Du und paar andere sind offenbar unfähig die Details auf die eigene Hardware anzupassen. Soll vorkommen.

Mangel76
2017-04-07, 13:44:33
Das ist bei mir aber nicht anders. Mir geht es auch nicht um OC an sich, sondern was am Ende hinten bei rumkommt. Ob mit OC oder bereits out of the box am Limit ist mir persönlich egal.
Fiji schafft es aber weder Out of the Box noch durch eigenes Tuning mit den Konkurrenzkarten mitzuhalten.
Out of the Box nicht weil es bei der Konkurrenz Karten gibt die weit über die Default Taktraten betrieben werden. Das gibt es bei Fiji nicht.
Mit Tuning nicht, weil Fiji eben schon am Limit läuft.

Es ist sinnvoll Default gegen Default antreten zu lassen, keine Frage aber man sollte schon auch einschätzen können, ob es die Realität widerspiegelt.


Dann meinen wir doch eigentlich das gleiche, nur klang es bei dir, als ob OC-Fähigkeit ein positives Merkmal für sich ist:
- Fakt ist dass OC mit Fiji schlicht nicht drin ist

Default gegen Default hängt leider davon ab, wie die Karten auf Default eingestellt sind. Das kann von dem, wie sie bei vielen Leuten tatsächlich laufen, teilweise deutlich abweichen.

Ich untertakte und undervolte meine RX480 Red Devil zum Beispiel, wobei sie deutlich leiser und immer noch schneller als die Referenz läuft. Aber sie wäre doch eine genau so gute/schlechte Karte, wenn die Referenz auf andere Taktraten eingestellt und damit die OC-Fähigkeit eine ganz andere wäre. Deshalb ist OC-Fähigkeit für mich erstmal kein Bewertungskriterium. Du sagst ja selbst: wichtig ist, was am Ende bei rumkommt.

Kartenlehrling
2017-04-07, 14:09:15
Ohne Worte ...

.
http://gamegpu.com/images/stories/Test_GPU/MMO/Quake_Champions_Beta/test/vram.png

Schnoesel
2017-04-07, 14:15:47
Du und paar andere sind offenbar unfähig die Details auf die eigene Hardware anzupassen.

Sorry aber wenn für dich eine höhere Auflösung gleich ein schöneres Bild ergibt unabhängig von den sonstigen Grafiksettings muss das nicht für jeden gelten. Ich setze jedenfalls nicht auf 4K@medium details. Dann schon lieber 1440p @ high oder very high. Ultra brauche ich persönlich auch nicht.

aufkrawall
2017-04-07, 14:21:34
Die Fury hatte halt ständig Auslastungsprobleme. Manchmal hui, oft pfui. 1070 OC ist halt allgemein schneller und wesentlich konsistenter.

BoMbY
2017-04-07, 14:32:20
Ohne Worte ...

.
http://gamegpu.com/images/stories/Test_GPU/MMO/Quake_Champions_Beta/test/vram.png

Es scheint mir die Leute haben alle keine Ahnung wie das VRAM bei modernen 3D Engines überhaupt verwendet wird ... 50-75% sind i.d.R. Texture Streaming Cache, und es wird genutzt was genutzt werden kann - das heißt aber noch lange nicht, dass das das Minimum ist, welches benötigt wird.

aufkrawall
2017-04-07, 14:40:58
Kann aber trotzdem sein, und mit Vulkan wird der Bedarf tendenziell noch größer.

Kartenlehrling
2017-04-07, 14:57:10
@BoMbY
Das heißt aber nur das man dieses nicht mehr vergleichen kann und einschätzen, nur noch die "Nachladeruckler".
Ob jemand schlampig programmiert sieht man auch nicht mehr oder ob die Grafikkarten effektiv arbeitet,
jetzt wird das ganze in den Arbeitsspeicher und Grafikram gedrückt und behaupte das alles optimal abläuft.

dildo4u
2017-04-07, 15:02:39
Der HBC sollte besser tadellos funktionen.AMD selber beschleunigt diese V-Ram Verschwendung mit billigen 8GB Karten.Ich mein das High-End Modell für 600€ wird genau so viel V-Ram haben wie eine 220€ 480.

dargo
2017-04-07, 15:06:51
Ohne Worte ...

.
http://gamegpu.com/images/stories/Test_GPU/MMO/Quake_Champions_Beta/test/vram.png
Ist auch besser so. :rolleyes:

AMD selber beschleunigt diese V-Ram Verschwendung mit billigen 8GB Karten.
:facepalm:

5CH4CHT3L
2017-04-07, 15:51:30
Ich mein das High-End Modell für 600€ wird genau so viel V-Ram haben wie eine 220€ 480.
8GB GDDR5 ≠ 8GB HBM2

fondness
2017-04-07, 15:53:33
Erstens hindert hindert niemand AMD daran, eine 16 GB Vega Karte zu bringen, und zweitens hat AMD nicht ohne Grund den HBCC eingebaut. Das Ding wird kaum sinnlos sein, sonst hätte man sich das auch sparen können.

Troyan
2017-04-07, 15:54:40
Natürlich hindert jemand AMD dran. Die nennen sich Hynix und müssen erstmal die Stacks produzieren.

Iruwen
2017-04-07, 15:54:50
Wenn Du dich da mal nicht täuscht
Vega wird knappe 30% schneller als GTX 1080TI und dies weiss NV!

BitancChips kommt mit Meldung langsam ins grübeln!

AMD lässt NV ihr ganzes Pulver verschießen, bis die Trommel auftrumpft!
rechne stark Morgen wird es soweit sein und AMD bringt erste Details ins Rampenlicht.


@Raff
@Fiji ist immer noch stark und muss sich vor der GTX 1070/ GTX 980TI keinesfalls verstecken!

Sind das eigentlich irgendwelche kopierten Trollkommentare oder ernstgemeint?

Raff
2017-04-07, 15:55:32
8GB GDDR5 ≠ 8GB HBM2

8.192 MiB sind 8.192 MiB. Die Frage ist, wie gut Vega intern damit umgeht (Kompression).

MfG,
Raff

dargo
2017-04-07, 16:00:06
Wenn 8GB HBM2 mit HBCC genauso gut funktioniert wie 10GB GDDR5(X) ist alles im grünen Bereich. Obs funktioniert werden wir bald erfahren. Der Folie nach müssten 8GB HBM2 mit HBCC eher sogar 12GB GDDR5(X) entsprechen.
https://www.extremetech.com/wp-content/uploads/2017/01/Game-Comparison.jpg

Da bin ich aber auch noch etwas skeptisch.

fondness
2017-04-07, 16:17:29
8.192 MiB sind 8.192 MiB. Die Frage ist, wie gut Vega intern damit umgeht (Kompression).

MfG,
Raff

Kompression spart keinen VRAM. HBCC kann den VRAM allerdings sehr viel effektiver nutzen.

[MK2]Mythos
2017-04-07, 16:17:36
Sind das eigentlich irgendwelche kopierten Trollkommentare oder ernstgemeint?
Den Verdacht habe ich auch schon länger. horn ist in Wirklichkeit ein Nvidianer und schürt immer die Erwartungen vor AMD Produkten um nach Launch die Enttäuschung zu vergrößern. :D

fondness
2017-04-07, 16:19:25
Natürlich hindert jemand AMD dran. Die nennen sich Hynix und müssen erstmal die Stacks produzieren.

Das ist nur eine Frage der Zeit. Die Radeon Instinct wurde mit 16 Gb angekündigt und kommt noch dieses Jahr.

Der_Korken
2017-04-07, 16:27:46
Kompression spart keinen VRAM.

Das habe ich mich schon länger gefragt: Ist das wirklich so, d.h. dekomprimiert der VRAM die übertragenen Daten dann wieder, um sie unkomprimiert abzulegen? Weil wenn ja, dann müsste der VRAM ja die genaue herstellerspezifische Codierung kennen.

fondness
2017-04-07, 16:35:49
Das habe ich mich schon länger gefragt: Ist das wirklich so, d.h. dekomprimiert der VRAM die übertragenen Daten dann wieder, um sie unkomprimiert abzulegen? Weil wenn ja, dann müsste der VRAM ja die genaue herstellerspezifische Codierung kennen.

Nein das nicht. Aber man kann normalerweise keinen Kompressionsfaktor garantieren, ohne verlustbehafteter Kompression. Deshalb muss man immer davon ausgehen, dass nicht komprimiert werden konnte und genausoviel VRAM wie ohne Kompression reservieren. Deshalb spart eine Delta Color Compression zB keinen VRAM, sondern nur Bandbreite.

Mancko
2017-04-07, 17:17:58
Das ist nur eine Frage der Zeit. Die Radeon Instinct wurde mit 16 Gb angekündigt und kommt noch dieses Jahr.

Gibts bei Nvidia in Form des GP100 schon seit 1 Jahr.

Botcruscher
2017-04-07, 17:27:18
Das ist nur eine Frage der Zeit. Die Radeon Instinct wurde mit 16 Gb angekündigt und kommt noch dieses Jahr.

Zur Zeit kommt hier wieder Yield und letztendlich Kohle. HBCC muss sich für Spieler überhaupt erst mal als tauglich erweisen.

Screemer
2017-04-07, 17:27:23
Gibts bei Nvidia in Form des GP100 schon seit 1 Jahr.
mit 4 stacks und darum gings gar nicht.

dargo
2017-04-07, 17:38:37
Gibts bei Nvidia in Form des GP100 schon seit 1 Jahr.
Mit zwei Stacks? Zeig her.

TheGood
2017-04-07, 21:33:16
Der HBC sollte besser tadellos funktionen.AMD selber beschleunigt diese V-Ram Verschwendung mit billigen 8GB Karten.Ich mein das High-End Modell für 600€ wird genau so viel V-Ram haben wie eine 220€ 480.

Weil genau das der neue Standard ist den die Konsolen gesetzt haben und das wird eben auch nicht von heut auf morgen rapide nach oben steigen... Wenn du in zwei Jahren ein Handvoll spiele findest die mit 8 Gb Ram nicht auskommen, wird's wohl viel sein... und das bei gefühlten 1000 neuen spielen im Jahr.. DAs ist wenn dann nur für absolute Enthusiasten ein Thema.

TheGood
2017-04-07, 21:35:04
8GB GDDR5 ≠ 8GB HBM2
+NA das muss sich auch noch beweisen, bei Fiji war imho davon nichts zu sehen oder hab ich da was verpasst?

w0mbat
2017-04-07, 21:56:21
Computex könnte interessant werden!

Botcruscher
2017-04-07, 22:36:05
Weil genau das der neue Standard ist den die Konsolen gesetzt haben und das wird eben auch nicht von heut auf morgen rapide nach oben steigen.

Nennt sich zum einen Optimierung und zum anderen bessere Qualität auf dem PC. Bei der letzten Generation waren schon die 1GB Karten obsolet als die Konsolen noch bei 256MB VRAM herum eierten. Das wird dieses mal nicht so krass kommen aber die 8GB garantieren dir einfach nichts.

TheGood
2017-04-08, 08:36:33
Nennt sich zum einen Optimierung und zum anderen bessere Qualität auf dem PC. Bei der letzten Generation waren schon die 1GB Karten obsolet als die Konsolen noch bei 256MB VRAM herum eierten. Das wird dieses mal nicht so krass kommen aber die 8GB garantieren dir einfach nichts.
Garantieren tut dir keine speichermenge irgendetwas....

Sind wir doch mal ehrlich, die leute hier im Forum die kaufen in nem Jahr sowieso ne neue Hardware oder in zwei. Bis dahin ist das Thema praktisch irrelevant. Danach schaltet der Normaluser einfach die Auflösung oder die Presets runter, wenn die Graka dann mal in 2-4 Jahren wirklich ins Limit läuft, aber das ist bei jeder Graka der Fall. Im Laufe der Zeit mussen diverse Einstellungen nach unten gedreht werden..

Aktuell sind die 8 GB mehr als nur ausreichend und auch angemessen für so eine Grafikkarte.
Das war zum Fiji Start natürlich nicht der Fall. Ausserdem ist davon auszugehen dass AMD auch eine 16 GB Variante bringen wird.
Wenn VEGA Performance und im Preis auf 1080TI sein wird und gleichviel kostet, ist natürlich eine Nvidia KArte vorzuziehen, da diese mehr Speicher hat. Wenn VEGA aber 100 Euro oder mehr weniger kostet ist das ein sehr gutes Angebot. Derjenige welcher der Speicher will kauft sich Nvidia, für die jenigen denen 8 GB reichen eine VEGA und für die die meinen dass HBCC gut funktioniert reicht auch die AMD.

Mancko
2017-04-08, 11:00:31
Mit zwei Stacks? Zeig her.

Darum gings mir nicht. Mir gings um die Speichermenge. Das AMD sich für 2 Stacks entschieden hat ist ja nun deren Problem :)

dargo
2017-04-08, 11:04:00
Darum gings mir nicht.
Den anderen aber.

5CH4CHT3L
2017-04-08, 11:27:08
Darum gings mir nicht. Mir gings um die Speichermenge. Das AMD sich für 2 Stacks entschieden hat ist ja nun deren Problem :)
Sinngemäße Gesprächswiedergabe:

"Keiner hindert AMD daran 16GB Karten herauszubringen"
"Doch Hynix, die müssen erstmal die Stacks (logischerweise (GB Stacks) dafür liefern"
"Radeon Instinct ist mit 16GB angekündigt da wird sich nichts dran ändern"
"GP 100 hat schon seit einem Jahr 16GB"
"Aber 4x4 und nicht 2x8 GB"
"Darum gings mir nicht"

Unicous
2017-04-08, 12:08:10
https://en.wikipedia.org/wiki/Moving_the_goalposts

Complicated
2017-04-09, 09:21:11
+NA das muss sich auch noch beweisen, bei Fiji war imho davon nichts zu sehen oder hab ich da was verpasst?
Das haben offensichtlich so einige verpasst:
https://www.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
https://images.hardocp.com/images/articles/1456505100AQVrwEp3px_13_1.gif
The AMD Radeon R9 Fury X VRAM behavior does make sense though if you look toward the dynamic VRAM. It seems the onboard dedicated VRAM was mostly pegged at or near its 4GB of capacity. Then it seems the video card is able to shift its memory load out to system RAM, by as much as almost 4GB at 4K with 4X SSAA. If you combine the dynamic VRAM plus the on board 4GB of VRAM the numbers come out to equal numbers much higher than the AMD Radeon R9 390X and closer to what the GeForce GTX 980 Ti achieved in terms of dedicated VRAM.
Da muss Vega überhaupt nichts mehr "beweisen". Dynamic VRAM läuft auf Fiji und das ohne den HBCC.

However, for the AMD Radeon R9 390X utilization was a bit odd when you first see it, never exceeding 4.2GB and remaining "flat" with "Very High" textures and SSAA. We did see the proper decrease in VRAM using lower settings, but the behavior was odd indeed. This didn't seem to negatively impact the video card however. The VRAM is simply managed differently with the Radeon R9 300 series.

The AMD Radeon R9 Fury X kind of backs that statement up since it was able to allocate dynamic VRAM for extra VRAM past its 4GB of dedicated VRAM capacity. We saw up to a 4GB utilization of dynamic VRAM. That allowed the Fury X to keep its 4GB of dedicated VRAM maxed out and then use system RAM for extra storage. In our testing, this did not appear to negatively impact performance. At least we didn't notice anything in terms of choppy framerates or "micro-stutter." The Fury X seems to be using the dynamic VRAM as a cache rather than a direct pool of instant VRAM. This would make sense since it did not cause a performance drain and obviously system RAM is a lot slower than local HBM on the Fury X. If you remember a good while ago that AMD was making claims to this effect, but this is the first time we have actually been able to show results in real world gaming. It is awesome to see some actual validation of these statements a year later.

24p
2017-04-09, 11:00:46
Ja und? Ich sehe da nichts besonderes. Jeder Hersteller muss eben in gewisser Weise mit zu wenig VRAM umgehen können. Entweder das Spiel Stream clever oder der Treiber macht das. Am Ende des Tages geht trotzdem nichts über echten VRAM.

danarcho
2017-04-09, 11:40:54
Ja und? Ich sehe da nichts besonderes. Jeder Hersteller muss eben in gewisser Weise mit zu wenig VRAM umgehen können. Entweder das Spiel Stream clever oder der Treiber macht das. Am Ende des Tages geht trotzdem nichts über echten VRAM.
Nichts besonderes? lol?
Soweit ich das sehe, ist das ziemlich extrem. Damit das einigermaßen performant läuft (keine Mikroruckler usw), muss das hardware-seitig unterstützt werden. Und hier kommt zum tragen, dass AMD seit Jahren in Richtung HSA und hUMA forscht, ohne das es nicht funktionieren würde.
Ich denke, dafür ist mindestens eine eigene MMU, Cache coherence und ein gemeinsamer adressbereich notwendig. Möchte mal jemand testen, ob das auf einem alten Board auch funktioniert?
Und der dynamische Speicher entspricht ja eher einem Auslagern, also etwa das Gegenteil eines Caches. Wenn überhaupt, wäre der VRAM jetzt ein riesiger Cache. Wobei ich denke, dass der dynamische Speicher speziell vom Treiber reserviert und der GPU mitgeteilt wird (Richtung coarse grain SVM). Mit Vega soll es ja sogar komplett möglich sein den VRAM als Cache zu benutzen. Das ergibt nur Sinn, wenn die GPU auch Zugriff auf den kompletten (virtuellen) RAM bekommt.
Aber nö, nichts besonderes. Machen wir ruhig weiter mit dem ewigen Hin- und Herkopieren von Buffern.
Btw: Wieso kommt eine CPU eigentlich mit so wenig Cache aus? Denk mal drüber nach und dann überleg dir mal wie spaßig es als Programmierer wohl wäre, selbst jeden Transfer zum Cache (und zurück) zu schreiben. So ist es nämlich aktuell mit den GPUs.
Der Schritt, den AMD da macht, kann man nicht hoch genug einschätzen. Meiner Meinung nach ist das sogar das wichtigste Feature von Vega.

iuno
2017-04-09, 11:50:35
Die ganze Sinn- und auch Glaubhaftigkeit dieses Tests wurde einfach weggeschmissen, indem man keine 4 GiB Karte von AMD mitgetestet hat (Hawaii, Tonga oder P10). Dann haette man auch gesehen, dass es mit HBM nichts zu tun hat.

danarcho
2017-04-09, 12:19:40
Die ganze Sinn- und auch Glaubhaftigkeit dieses Tests wurde einfach weggeschmissen, indem man keine 4 GiB Karte von AMD mitgetestet hat (Hawaii, Tonga oder P10). Dann haette man auch gesehen, dass es mit HBM nichts zu tun hat.
Die Stelle mit dem HBM habe ich wohl verpasst? Wer redet denn davon? [edit] sry, grad gesehen, dass der Test eine Antwort war auf DDR != HBM. Ich denke nicht, dass man Kapazitätsprobleme mit Bandbreite totschlagen kann. [\edit]

Hardwaremäßig sollten alle Karten ab GCN3 dazu in der Lage sein. Hawaii unterstützt keine Atomics über PCIe, das wäre dann vielleicht wieder nicht effizient möglich, hat aber eh genug VRAM.

24p
2017-04-09, 12:46:00
Die ganze Sinn- und auch Glaubhaftigkeit dieses Tests wurde einfach weggeschmissen, indem man keine 4 GiB Karte von AMD mitgetestet hat (Hawaii, Tonga oder P10). Dann haette man auch gesehen, dass es mit HBM nichts zu tun hat.

Zudem wurde auch keine nvidia Karte mit 4Gb mitgestestet. Da wird mal wieder etwas gehypt, was nv schon seit Jahren macht und was tw das Streaming der Spiele eh erledigt.

Kriton
2017-04-09, 13:19:33
Zudem wurde auch keine nvidia Karte mit 4Gb mitgestestet. Da wird mal wieder etwas gehypt, was nv schon seit Jahren macht und was tw das Streaming der Spiele eh erledigt.

Dann zeige mal wo Nvidia das schon seit Jahren macht. Ich bin gespannt - oder sind wir einfach bei Beweis durch Behauptung?

Complicated
2017-04-09, 18:00:27
Es gibt Leute die einfach nicht lesen was verlinkt wird und auch nicht was zitiert wird. Welchen Unterschied hätte es gemacht wenn eine 4GB Nvidia mit getestet worden wäre? Es ändert nichts an dem Verhalten der FuryX. Die größere Frage ist doch eher warum sich keine der Testseiten damit befasst und das mal genau ausleuchtet. Hier werden dauernd Speicherempfehlungen gegeben die wohl so überhaupt nicht mehr gegeben werden können und schon das vorhandene HBM-Produkt nicht berücksichtigen.

8GB HBM werden auf lange Sicht völlig ausreichen, da AMD mit ihrer Technik den VRAM-Hunger durch schlechte Optimierung seitens der Entwickler abfangen. Während für Fury noch optimiert werden musste in der Spielesoftware, wird das ab Vega der HBCC übernehmen. Na klar wollen die Entwickler sich die Arbeit nicht machen und Nvidia wird auch sicherlich wieder "Boni" verteilen wenn man die Zeit in etwas anderes steckt um so lange wie möglich die VRAM Karte zu spielen - danach sieht es jedenfalls mit den beiden letzten Highend-Boliden aus. Doch ich bin mir ziemlich sicher, dass AMD hier mit Vega einen Riegel vorschiebt und eben den Entwicklern auch diese Optimierungen ersparen wird - das wird das zentrale Thema der Vega-Generation sein. 16GB System Ram sind nun mal günstiger als 8 GB VRAM zusätzlich auf einer GPU für den Kunden, für UNS alle. Den Preisvorteil wird AMD sicherlich zu nutzen wissen.

Fetza
2017-04-10, 05:42:10
Das haben offensichtlich so einige verpasst:
https://www.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
https://images.hardocp.com/images/articles/1456505100AQVrwEp3px_13_1.gif

Da muss Vega überhaupt nichts mehr "beweisen". Dynamic VRAM läuft auf Fiji und das ohne den HBCC.

Das liest sich sehr interessant. Kann das Internet nicht endlich mal mit ausführlichen Vega-Leaks geflutet werden? Ich will endlich wieder eine neue Karte in meinen Rechner stecken. :-)

24p
2017-04-10, 06:25:03
Ganz einfach. Was man dort sieht ist offenbar nichts ungewöhnliches und das hätte man auch gesehen, wenn man eine Nv Karte mit getestet hätte.

Tarkin
2017-04-10, 13:18:46
Tom's Hardware Ask Me Anything With AMD

http://www.tomshardware.co.uk/forum/id-3378010/join-tom-hardware-amd-thursday-april-6th/page-3.html

enthält ein paar interessante Infos wie z.B.

Q: I know you won't be able to say much, but how does Vega compare to the 1080 ti and Titan XP?

A: It looks really nice. :)

(Smiley nicht von mir)

Palpatin
2017-04-10, 14:35:42
A: It looks really nice. :)

Wenn man jetzt böse ist:
nice = nett und das ist die kleine Schwester von .....
:freak:

Hübie
2017-04-10, 15:58:19
Das sagt mal gar nix aus. Nett ist da sehr weitläufig. Imo sieht momentan z.B. nix neben TX(p) oder 1080 Ti aus. Selbst die 1080 is da ne Graupe gegen. :D
Bei Vega wird wie immer viel vom Preis abhängen. Kaum einer wird bei ähnlicher Leistung und ähnlichem Preis zu AMD greifen. Sieht man an der RX 480 <-> 1060.
Zumal die meisten schon abgegrast wurden.

Pirx
2017-04-10, 16:07:30
kaum einer aha

Hübie
2017-04-10, 16:18:47
Dann erkläre mir die Verkaufszahlen. :rolleyes: Consumer buying behaviour ist mittlerweile keine Pandora-Büchse mehr.

Screemer
2017-04-10, 16:20:34
Wenn man gut 1/3 des markets als kaum jemand bezeichnet, dann sind sicher alle bei dir.

aufkrawall
2017-04-10, 16:26:39
Laut Steam hat sich die 1060 > 4x so oft verkauft wie die 480, bei späterem Markteintritt und längere Zeit höherem Preis der 1060.
So gesehen war die 480 natürlich ein ziemlicher Flop, oder wie will man das jetzt wieder schön reden?

Screemer
2017-04-10, 16:29:18
Wer will das? Das interessante ist ja eigentlich, was AMD denn sonst so verkauft. Bis q4 16 haben die immer mehr Marktanteile zurück bekommen und NV verloren. Wie kann das sein, wenn sich die 480 so schlecht verkauft und die 1060 weg geht wie geschnitten Brot?

Hübie
2017-04-10, 16:31:01
Wenn man gut 1/3 des markets als kaum jemand bezeichnet, dann sind sicher alle bei dir.

Was redest du da? 1/3? Wovon sprichst du?

Screemer
2017-04-10, 16:31:49
Was redest du da? 1/3? Wovon sprichst du?

Q3+q4 16 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11324305#post11324305). Also die Quartale nach Verkaufsstart der 1060. ist hier im übrigen massiv OT.

dildo4u
2017-04-10, 16:34:46
Laut Steam hat sich die 1060 > 4x so oft verkauft wie die 480, bei späterem Markteintritt und längere Zeit höherem Preis der 1060.
So gesehen war die 480 natürlich ein ziemlicher Flop, oder wie will man das jetzt wieder schön reden?

Scheint sich aber laut Steam besser zu verkaufen als alle anderen GCN Karten.
Alles nach der 7900 scheinen Flops gewesen zu sein.Und natürlich haste bei Nvidia nicht die Aufteilung von 470/480.NV hat nur die 1060 in dem Bereich.

Screemer
2017-04-10, 16:36:22
Das zeigt schlicht, dass die steam HW survey den Markt eben überhaupt nicht reflektiert. Sobald die q1 zahlen da sind können wir uns ja gern wieder unterhalten. Hier sollte damit aber definitiv Schluss sein.

Linmoum
2017-04-10, 16:37:52
Q3+q4 16 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11324305#post11324305). Also die Quartale nach Verkaufsstart der 1060. ist hier im übrigen massiv OT.
Wobei das aber allgemein ist und nicht nur 480/1060, wovon Hübie sprach. ;)
(Edit: Ok, war nur ein Beispiel.)

Bei MF lag das Verhältnis immer bei rund 40/60, insofern würde ich nicht von "kaum einer" sprechen. Und weltweite Verkaufszahlen dafür zu finden, wird sowieso relativ schwierig. Aber ja, ist schon OT hier.
Wobei ich in der Hinsicht auch bei Vega kein Problem sehen würde.

Gipsel
2017-04-10, 19:16:28
Das Thema lautet Vega.

hesTeR-
2017-04-12, 09:37:45
giubt es eigentlich ca. ein vega release termin? und denkt ihr das der release diesmal besser wird als der der 480?

[MK2]Mythos
2017-04-12, 09:58:30
Vermutlich Ende Mai und da AMD ein Händchen dafür hat, jeden launch zu versemmeln, schaffen die das diesmal bestimmt auch. 😉

aceCrasher
2017-04-12, 14:28:53
Was genaueres als "Q2" is glaube ich nicht bekannt, d.h ziemlich sicher Mai/Juni.

hesTeR-
2017-04-12, 15:19:15
dann bestimmt Juni und verfügbar ab August oder so ....

mäh

[MK2]Mythos
2017-04-12, 15:23:04
dann bestimmt Juni und verfügbar ab August oder so ....

mäh
Wie kommst du auf den Blödsinn?

Tschibbl
2017-04-12, 17:37:44
Bei der 480 war das ja mit den Customs leider in etwa so der Fall. Veeegaaaaa (wie beim SEGA Intro) wird hoffentlich schneller in größeren Stückzahlen verfügbar sein.

Dorn
2017-04-12, 17:41:54
Bei der 480 war das ja mit den Customs leider in etwa so der Fall. Veeegaaaaa (wie beim SEGA Intro) wird hoffentlich schneller in größeren Stückzahlen verfügbar sein. Lange genug Zeit hat sich ja AMD für Vega genommen, alles andere wäre eine Enttäuschung.

mkh79
2017-04-12, 18:30:55
Mythos;11346864']Wie kommst du auf den Blödsinn?
So fällt meine Spekulation auch aus, schon seit Januar.
Viel zu schwammige Informationen und wenig Konkretes mit Angabe Q2.
Da befürchtete ich auch schon seit Längerem, dass Vorstellung Ende Juni ist und es Ende Juli/Anfang August wird, bis ausreichend Stückzahlen zu einem normalen Preis am Markt sind.
Deshalb habe ich doch nochmal zur Konkurrenz gegriffen, auch wenn ich sehr gespannt auf Vega bin.

vinacis_vivids
2017-04-12, 18:43:41
Bei den CPUs hat AMD doch den Plan eingehalten. Wird bei den GPUs auch nicht anders sein.

Was Marktanteile angeht, bin ich zuversichtlich, dass mit Vega weitere Anteile gewonnen werden.
https://abload.de/img/amd_diskret70s43.jpeg

https://www.heise.de/newsticker/meldung/AMDs-Grafik-Roadmap-GPU-Generation-Vega-im-ersten-Halbjahr-2017-Nvidia-im-Highend-bis-dahin-3306858.html?view=zoom;zoom=3

Iruwen
2017-04-12, 19:52:27
Bei den CPUs hat AMD doch den Plan eingehalten. Wird bei den GPUs auch nicht anders sein.

Was Marktanteile angeht, bin ich zuversichtlich, dass mit Vega weitere Anteile gewonnen werden.
https://abload.de/img/amd_diskret70s43.jpeg

https://www.heise.de/newsticker/meldung/AMDs-Grafik-Roadmap-GPU-Generation-Vega-im-ersten-Halbjahr-2017-Nvidia-im-Highend-bis-dahin-3306858.html?view=zoom;zoom=3

So gings dann übrigens weiter: https://jonpeddie.com/press-releases/details/add-in-board-market-increased-in-q416-nvidia-gains-market-share

Screemer
2017-04-12, 20:18:46
und jetzt das ganze in den passenden thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11324305#post11324305

ach sind ja alte kamellen...

Botcruscher
2017-04-12, 20:28:41
Bei der 480 war das ja mit den Customs leider in etwa so der Fall. Veeegaaaaa (wie beim SEGA Intro) wird hoffentlich schneller in größeren Stückzahlen verfügbar sein.

Bei Polaris sind wir um die Jahreszeit schon zugepflastert worden. Ob 16nm und HBM sich bei der Problematik aufheben wird sich auch noch zeigen müssen.

TheGood
2017-04-12, 21:39:43
So fällt meine Spekulation auch aus, schon seit Januar.
Viel zu schwammige Informationen und wenig Konkretes mit Angabe Q2.
Da befürchtete ich auch schon seit Längerem, dass Vorstellung Ende Juni ist und es Ende Juli/Anfang August wird, bis ausreichend Stückzahlen zu einem normalen Preis am Markt sind.
Deshalb habe ich doch nochmal zur Konkurrenz gegriffen, auch wenn ich sehr gespannt auf Vega bin.
Du meinst wohl ohne "Founders Edition" Aufpreis... :D ;)

Das ist einfach nur ein dummes geschwätz. Das ist nichts anders wie wenn ich sagen, dass ab Juni die Karten flächendenkend verfügbar sind zu guten Preisen...

mkh79
2017-04-12, 22:21:43
Das nimmt dir ja auch keiner, dass kannst du gerne sagen.
Bei Zen war ich von AMD echt überrascht, aber die letzten Jahre Erfahrung lassen mich halt eher in die andere Richtung vermuten.
Aber wäre ja toll, wenn alles gut läuft.

horn 12
2017-04-13, 07:02:28
Am Dienstag wird AMD wohl endlich reinen Tisch machen und ankündigen wann die R500-er Serie komplettiert wird.
Hoffe dies dauert nur 1 bis 2 Wochen, so Anfang Mai wäre schon maximal!

Fetza
2017-04-13, 07:29:21
Am Dienstag wird AMD wohl endlich reinen Tisch machen und ankündigen wann die R500-er Serie komplettiert wird.
Hoffe dies dauert nur 1 bis 2 Wochen, so Anfang Mai wäre schon maximal!

Die R500er Serie ist doch langweilig, ich hätte gerne Vega-News. :-)

Hübie
2017-04-13, 07:40:40
Am Dienstag wird AMD wohl endlich reinen Tisch machen und ankündigen wann die R500-er Serie komplettiert wird.
Hoffe dies dauert nur 1 bis 2 Wochen, so Anfang Mai wäre schon maximal!

Wie kommst du darauf? Dienstag wird's alten Wein aus neuen Schläuchen geben und das war's. Seit wann verkündet man schon vorher sein gesamtes lineup, wenn doch nix fertig ist. :| Wäre zwar cool endlich einen Termin zu haben, aber daran zweifle ich doch sehr.
Bei der 400er Serie hat man ja auch nicht am Tag der Veröffentlichung alles vorgestellt...

Blediator16
2017-04-13, 17:10:32
Wie kommst du darauf? Dienstag wird's alten Wein aus neuen Schläuchen geben und das war's. Seit wann verkündet man schon vorher sein gesamtes lineup, wenn doch nix fertig ist. :| Wäre zwar cool endlich einen Termin zu haben, aber daran zweifle ich doch sehr.
Bei der 400er Serie hat man ja auch nicht am Tag der Veröffentlichung alles vorgestellt...

Ich bin mir echt nicht ganz sicher, ob das nicht eventuell ein Comedy Account ist.

Screemer
2017-04-13, 17:24:30
Die sollten sich nach dem 5xx release bloß nicht zu viel Zeit mit Vega lassen. Midrange schön und gut aber langs wird Zeit.

Dino-Fossil
2017-04-13, 17:26:36
Vega ist definitiv langsam überfällig, einfach weil sie für das High-End wieder eine echte Alternative benötigen.
Ob sie mit den 5xx Karten aber auch eine Andeutung Richtung Vega machen? Wer weiß...

Screemer
2017-04-13, 17:30:13
Zumindest beim Presse briefing gabs dazu nix.

Ich hätte ja polaris gern mal mit gddr5x gesehen.

Locuza
2017-04-13, 17:30:57
Ich bin mir echt nicht ganz sicher, ob das nicht eventuell ein Comedy Account ist.
Nonsense spamming seit 2005 ist es auf jeden Fall.

horn 12
2017-04-14, 18:56:40
Kompletter Ausschnitt vom Teaser:

https://videocardz.com/newz/full-amd-vega-teaser-found

aceCrasher
2017-04-14, 22:12:40
Immerhin spricht der Typ im Video schonmal vom "High end market", hoffen wir, dass da auch ernstzunehmende high end Performance rauskommt.

5CH4CHT3L
2017-04-14, 23:33:04
Immerhin spricht der Typ im Video schonmal vom "High end market", hoffen wir, dass da auch ernstzunehmende high end Performance rauskommt.
Er kann genauso gut high end preise meinen -.-
Ne aber sieht ja ganz gut aus bis jetzt

Hübie
2017-04-15, 10:37:57
1080 ist ja auch aktuelles highend Segment. Genau da erwartet man überwiegend die großen Vega-Karten. 1080-1080 Ti für 499 $ ist so mein Bauchgefühl.

dargo
2017-04-15, 10:41:59
1080 ist ja auch aktuelles highend Segment.

High-End? Ja... beim Preis vielleicht. :tongue:


Genau da erwartet man überwiegend die großen Vega-Karten. 1080-1080 Ti für 499 $ ist so mein Bauchgefühl.
Wer ist man?

maximus_hertus
2017-04-15, 11:44:16
1080-1080 Ti für 499 $ ist so mein Bauchgefühl.

Halte ich dagegen. Vega Topdog wird mindestens bei 649 USD liegen. Die Salvage Karte könnte dann bei 499-549 USD landen. Die Top HBM Karte für 499 USD erscheint mir irgendwie zu "günstig" bzw. wäre das kein gutes Zeichen.

[MK2]Mythos
2017-04-15, 11:56:05
Mal wieder Preise raten? :D
Ich tippe für den Top Dog auf 700 USD bei 1080 + 20% Leistung.

AlphaNUSS
2017-04-15, 12:12:01
Gibt es eigentlich irgendwelche Zahlen, wie gut sich 600-700€ GPUs verkaufen? Ich bin immer noch der Meinung, dass AMD einen Konkurrenten zur 1070 braucht, wenn sie mit Vega auch was verdienen wollen.

dildo4u
2017-04-15, 12:14:12
Es wird Vega mit 4GB geben,da können sie noch so viel Marketing mit ihrem HBC betreiben,die wird keiner für 500€ kaufen.

reaperrr
2017-04-15, 12:16:51
Mythos;11349569']Mal wieder Preise raten? :D
Ich tippe für den Top Dog auf 700 USD bei 1080 + 20% Leistung.
Du glaubst allen Ernstes, AMD bringt eine Karte, die langsamer als die 1080 Ti ist zum gleichen Preis?

Ich tippe auf 600$ wenn deine Performance-Prognose stimmt, 650 wenn sie gleichauf oder minimal hinter der Ti landet, und 700 nur, wenn sie die FE knapp schlägt.

PrivateCeralion
2017-04-15, 12:24:49
Es wird Vega mit 4GB geben,da können sie noch so viel Marketing mit ihrem HBC betreiben,die wird keiner für 500€ kaufen.

Klar, wenn sie sehr schnell ist und der Speicher einfach nicht voll werden will, wird sie gekauft.
Wie viel Speicher wirklich notwendig ist, ist kein unabhängiges Gesetz, sondern wird von den GPU Herstellen bestimmt. Vielleicht reißt der HBC-Controller wirklich viel.

dargo
2017-04-15, 12:24:58
Es wird Vega mit 4GB geben,da können sie noch so viel Marketing mit ihrem HBC betreiben,die wird keiner für 500€ kaufen.
Aber keinen V10! V11 vielleicht, dann aber garantiert nicht für 500€.

vinacis_vivids
2017-04-15, 12:28:20
Aber keinen V10! V11 vielleicht, dann aber garantiert nicht für 500€.

300-400€ geht doch mit den defekten Pipelines. 450-550€ für den kleinen Vollausbau und 650-750€ für Top Dog.

Hübie
2017-04-15, 12:32:07
High-End? Ja... beim Preis vielleicht. :tongue:


Wer ist man?

Auf videocardz ist ne Umfrage, deren Ergebnis genau das widerspiegelt. Das meine ich mit "man".

Ich weiß zwar, dass Vega teurer wird als 499$, aber mein Bauchgefühl sagt, dass dies der Preis ist bei dem AMD genug Absatz hat. Fiji war ein finanzielles Desaster. Wer weiß ob dieser sich heute endlich trägt (R&D, laufende Stückkosten und Gemeinkosten...). Für 650 bei etwas über 1080-Leistung werden die keinen Stich landen. Das stelle ich mal als Fakt hin über den wir dann später noch mal sprechen können. ;)

dargo
2017-04-15, 12:40:54
300-400€ geht doch mit den defekten Pipelines.
Was für defekte Pipelines? :|

Screemer
2017-04-15, 13:01:30
Im leben kommt keine Vega sku auf dezierten Karten mit 4gb Speicher. Das wird man ehestens im notebookmarkt sehen aber im leben nicht auf Karten. Da kommt eher noch ne Vega sku mit gddr5 denn der phy ist garantiert hybrid. Da sponsor ich fürs nächste 3dctreffen 5 Kästen Tegernseer inkl. Transport sollte ich falsch liegen.

[MK2]Mythos
2017-04-15, 13:09:08
Du glaubst allen Ernstes, AMD bringt eine Karte, die langsamer als die 1080 Ti ist zum gleichen Preis?

Ich tippe auf 600$ wenn deine Performance-Prognose stimmt, 650 wenn sie gleichauf oder minimal hinter der Ti landet, und 700 nur, wenn sie die FE knapp schlägt.
Soweit ich weiß, starten die 1080ti bei 800 Eur.
Lass es 650 sein. Überleg mal wie teuer Fiji damals war und die VEGA Karte sieht nicht gerade billiger aus. Und wenn die Gerüchte bzgl der Wasserkühlung stimmen, dann sehe ich durchaus Preise im Bereich 650 bis 700. Aber wer weißt, vielleicht wird VEGA ja auch schneller UND deutlich günstiger als die 1080ti. Daran glaube ich aber nicht. Mein Tipp steht: 650 bis 700 Dollar für den Top Dog.

vinacis_vivids
2017-04-15, 13:10:15
Was für defekte Pipelines? :|

deaktivierte Shader meinte ich.
Die defekten Pipelines waren bei Nvidia.

uweskw
2017-04-15, 14:01:45
.........Für 650 bei etwas über 1080-Leistung werden die keinen Stich landen. Das stelle ich mal als Fakt hin über den wir dann später noch mal sprechen können. ;)

sehe ich genauso.
Da keiner weiß wo Vega leistungsmäßig landet, ist es müßig über den Preis zu spekulieren.
Wenn Vega nicht in die Regionen einer OC 1080TI kommt, bleibt es vorerst bei meiner OC 980Ti. +50% bei 1440p müssten schon dabei heraus kommen.

greetz
US

dargo
2017-04-15, 14:07:18
deaktivierte Shader meinte ich.

Ich kann dir immer noch nicht folgen. Es wird sowohl vom V10 als auch V11 einen Salvage geben. V10 hat nichts mit dem wesentlich kleineren V11 (3xxmm²) zu tun.

Mythos;11349651']Soweit ich weiß, starten die 1080ti bei 800 Eur.

Ich kenne zwar die UVP nicht gerade, aber...
https://www.mindfactory.de/product_info.php/11GB-KFA2-GeForce-GTX-1080-Ti-Founders-Edition-Aktiv-PCIe-3-0-x16--Reta_1150742.html

Bis Vega kommt könnten es schon 699€ sein.

Botcruscher
2017-04-15, 14:24:47
Spannend wie ohne irgendwelche Anhaltspunkte schon wieder Preise und Leistungsdaten entstehen. Im Polaris-Thread dazu noch das "Krümel" zu den Speicherpreisen. AMD ist im Moment in allen Bereichen im Nachteil. Die Architekturoptimierungen sind bei weitem am bedeutendsten. Leider ist da bei den letzten Generationen auch nicht viel raus gekommen.

dargo
2017-04-15, 14:34:14
Anhalspunkte zur Leistung gibt es genug.

* Mehr als Faktor 2 zum P10 an TFLOPs sofern die ~1526Mhz gehalten werden (12,5 vs. 5,44, letzteres @1180Mhz)
* Doppelte Bandbreite zum P10

Wenn man sich das hier anschaut.
https://www.youtube.com/watch?v=RkJUPPHI4-I

dann kann jeder grob abschätzen wo V10 landet. Da V10 nicht einfach nur ein aufgeblasener P10 wird kannst du noch paar Prozentchen drauflegen.

maximus_hertus
2017-04-15, 14:48:39
Ich kenne zwar die UVP nicht gerade, aber...
https://www.mindfactory.de/product_info.php/11GB-KFA2-GeForce-GTX-1080-Ti-Founders-Edition-Aktiv-PCIe-3-0-x16--Reta_1150742.html

Bis Vega kommt könnten es schon 699€ sein.

UVP der 1080 Ti = 819 Euro (von nVidia).

Botcruscher
2017-04-15, 14:51:18
dann kann jeder grob abschätzen wo V10 landet. Da V10 nicht einfach nur ein aufgeblasener P10 wird kannst du noch paar Prozentchen drauflegen.
Die Spannbreite ist gigantisch und die Zahlen nichtssagend ohne die Architektur zu kennen. Im schlimmsten Fall wird es eine Fury 2 im besten landen wir auf Augenhöhe von Pascal. Da ist dann zwischen Totalversager und Kreiselficker alles drin. Einfach von Polaris zu extrapolieren ist auch nicht überzeugend. Selbst mit Verbesserungen sieht der kein Land.

dargo
2017-04-15, 14:52:08
UVP der 1080 Ti = 819 Euro (von nVidia).
Eine UVP ist nie in Euro. ;)

Die PCGH schreibt was von 699$.
http://www.pcgameshardware.de/Geforce-GTX-1080-Ti-11G-Grafikkarte-265855/Specials/Daten-Preis-Release-1222010/

Die Spannbreite ist gigantisch und die Zahlen nichtssagend ohne die Architektur zu kennen. Im schlimmsten Fall wird es eine Fury 2 im besten landen wir auf Augenhöhe von Pascal. Da ist dann zwischen Totalversager und Kreiselficker alles drin.
Genau... Vega wird mit den ganzen Architekturverbesserungen ineffizienter als Polaris. :facepalm:

Wo V10 landen wird kann man hier grob sehen. Erstes Beispiel mit dem gesamten Parcour der CB, zweites ohne Anno was Radeon überhaupt nicht schmeckt.
https://abload.de/thumb/cb_1u4sot.jpg (http://abload.de/image.php?img=cb_1u4sot.jpg) https://abload.de/thumb/cb_2ehsdo.jpg (http://abload.de/image.php?img=cb_2ehsdo.jpg)

maximus_hertus
2017-04-15, 15:03:00
Eine UVP ist nie in Euro. ;)

Die PCGH schreibt was von 699$.
http://www.pcgameshardware.de/Geforce-GTX-1080-Ti-11G-Grafikkarte-265855/Specials/Daten-Preis-Release-1222010/




Doch :D Zitat aus dem CB-Review:

Nvidia gibt für die GeForce GTX 1080 Ti Founders Edition eine unverbindliche Preisempfehlung von 819 Euro an.

dargo
2017-04-15, 15:07:54
Nochmal... eine UVP ist nie in Euro!

Edit:
https://www.newegg.com/Product/Product.aspx?Item=N82E16814487335&cm_re=gtx1080ti-_-14-487-335-_-Product

:P

Mist... Link geht nicht. Dann eben so.
59598

Botcruscher
2017-04-15, 15:10:36
Genau... Vega wird mit den ganzen Architekturverbesserungen ineffizienter als Polaris. :facepalm:

Dickere Chips mit mehr Profifunktionen werden aber auch nicht automatisch effizienter. Bei nur zwei Stacks sprechen wir gleich über Bandbreite und dann haben wir noch das leidige Thema Verbrauch. PS: Die Gerüchte von den letzten Sampel sprechen sogar von nur 410 GB/s.

dargo
2017-04-15, 15:12:53
Bei nur zwei Stacks sprechen wir gleich über Bandbreite und dann haben wir noch das leidige Thema Verbrauch.
Du kannst mir gerne erklären warum 512GB/s bei V10 ein Problem darstellen soll wenn P10 mit der Hälfte daher kommt. Und komm mir jetzt nicht wieder mit Fiji.

maximus_hertus
2017-04-15, 15:18:48
Nochmal... eine UVP ist nie in Euro!

Nochmal, die US UVP ist nie in Euro. In Deutschland geben nVidia und Co. idR eine Euro-UVP an.

Am Tag der Vorstellung auf der GDC gab es folgende Info (wieder via CB):

Update 20:04 Uhr

Mittlerweile hat Nvidia auch den Preis für Deutschland bekanntgegeben. Er beträgt 819 Euro inklusive Mehrwertsteuer und dürfte zum Marktstart der Founders Edition auch im Handel nicht unterboten werden. Der Preis liegt 30 Euro über dem ursprünglichen Preis der GeForce GTX 1080 zum Marktstart im Mai 2016 und 80 Euro über dem ersten Preis für die GeForce GTX 980 Ti im Juni 2015.

Unicous
2017-04-15, 15:21:23
Nochmal... eine UVP ist nie in Euro!
59598

Laber doch keinen Bullshit.

Die ("deutsche/europäische") UVP ist abhängig vom jeweiligen Land den Steuern und sonstigen Abgaben und wird dementsprechend gestaltet.

Und da du dämlicherweise auch noch die USA zu Rate ziehst zeigt sich, dass du offensichtlich keine Ahnung hast. Denn der MSRP (manufacturers suggested retail price) beinhaltet eben im Unterschied zur "deutschen" UVP keine Steuern, weil die von Bundeststaat zu Bundesstaat, z.T. sogar von Stadt zu Stadt (Steueroasenscheiße, z.B.), unterschiedlich sind.

dargo
2017-04-15, 15:26:45
Laber doch keinen Bullshit.

Die UVP ist abhängig vom jeweiligen Land den Steuern und sonstigen Abgaben und wird dementsprechend gestaltet.

Und da du dämlicherweise auch noch die USA zu Rate ziehst zeigt sich, dass du offensichtlich keine Ahnung hast. Denn der MSRP (manufacturers suggested retail price) beinhaltet eben im Unterschied zur "deutschen" UVP keine Steuern, weil die von Bundeststaat zu Bundesstaat, z.T. sogar von Stadt zu Stadt (Steueroasenscheiße, z.B.), unterschiedlich sind.
Du Schlaumeier... dann erkläre mir mal warum wir in DE den R7 1700X bereits für 389€ inkl. Steuern kaufen können wenn die UVP 399$ beträgt? In Frankreich öfter für 350€ zu haben wo Frankreich sogar 20% Steuern hat? Anderen keine Ahnung vorwerfen und selbst nur Blödsinn verbreiten. So mag ich das. :uclap:

maximus_hertus
2017-04-15, 15:30:28
Du Schlaumeier... dann erkläre mir mal warum wir in DE den R7 1700X bereits für 389€ inkl. Steuern kaufen können wenn die UVP 399$ beträgt? In Frankreich öfter für 350€ zu haben wo Frankreich sogar 20% Steuern hat? Anderen keine Ahnung vorwerfen und selbst nur Blödsinn verbreiten. So mag ich das. :uclap:

UVP ist UVP. Straßenpreis ist Straßenpreis. Day 1 gab es den 1700X NICHT für 389 oder gar 350 Euro. Bei AMD im speziellen ist der Euro (Straßen) Preis auch tendenziell etwas Euro-freundlicher im Vergleich mit nV.

Glaube mir einfach, ich arbeite im Handel, ich bekomme schon die UVPs (für D) mit ;)

Screemer
2017-04-15, 15:31:16
.. weil die von Bundeststaat zu Bundesstaat, z.T. sogar von Stadt zu Stadt (Steueroasenscheiße, z.B.), unterschiedlich sind.
Die sind teilweise sogar von City to county unterschiedlich. Nur mal so ;)

Du Schlaumeier... dann erkläre mir mal warum wir in DE den R7 1700X bereits für 389€ inkl. Steuern kaufen können wenn die UVP 399$ beträgt? In Frankreich öfter für 350€ zu haben wo Frankreich sogar 20% Steuern hat? Anderen keine Ahnung vorwerfen und selbst nur Blödsinn verbreiten. So mag ich das. :uclap:
Was hat der uvp mit den straßenpreisen zu tun? Du argumentierst sich grad komplett ins off.

dargo
2017-04-15, 15:36:57
UVP ist UVP. Straßenpreis ist Straßenpreis.

Letztendlich interessiert mich als Kunde nur der Straßenpreis.


Day 1 gab es den 1700X NICHT für 389 oder gar 350 Euro.
Wer bei Day 1 kauft ist einfach nur dämlich oder noch nicht lange genug dabei. Wer lange genug dabei ist weiß ganz genau, dass die Händler Day 1 und auch wenige Tage danach die "Sucht" der Kunden ausnutzen. Es dauert paar Tage bis Wochen bis der Konkurrenzkampf zwischen den Händlern in Bewegung kommt. Was ich nur mit dem Beispiel vom R7 1700X aufzeigen wollte ist, dass die Rechnung die uns Unicous so gerne hier immer wieder aufzeigt so nicht funktioniert wie er sich das vorstellt.

Screemer
2017-04-15, 15:39:31
Und es geht weiter. Du hast 2 oder 3 mal behauptet es gäbe keine uvp in €. Uni hat überhaupt keine Rechnung aufgemacht. Was stellt er sich denn deiner Meinung nach so vor? Imho ist das schon wieder ne sinnlos Diskussion.

dargo
2017-04-15, 15:42:41
Was stellt er sich denn deiner Meinung nach so vor?
MSRP + jeweilige Steuer.

Und eben diese Rechnung geht oft nicht auf.

TheAntitheist
2017-04-15, 16:01:16
MSRP + jeweilige Steuer.

Und eben diese Rechnung geht oft nicht auf.
Also Dargo... manchmal weiß ich auch nicht aber du redest dich gerade immer weiter in die Scheisse xD

MSRP ist doch nur der ERWARTETE PREIS...

und hier im Forum geben manche die erwarteten Preise für Vega in Dollar an und manche in €.

Ich würde auch eher auf die Dollar Preise eingehen, was letztendlich auf den Straßen hier hinterher sein wird, darüber brauch man gar nicht Spekulieren, aber was der MSRP in den USA ist, das sollte die beste Ausgangslage für jedwede Speku, denn beide Unternehmen kommen nunmal daher.

1080TI hat 699$ aus basta...

Screemer
2017-04-15, 16:01:35
deswegen gibt es auch unterschiedliche uvps für unterschiedliche märkte. nicht nur mwst + grundpreis sind da ausschlaggebend. verkaufszahlen, lagerhaltung, lieferung, marketingbudget, etc. spielen da alle mit rein. da hat uni schlicht 0 fehler in seiner argumentation.

Dino-Fossil
2017-04-15, 16:01:49
Nur weil ein Hersteller eine UVP 'rausgibt, bedeutet das nicht, dass der Straßenpreis auch automatisch dort liegt (oder nur darüber liegen darf).

Aber ja, die Diskussion ist sinnlos, es geht eher darum, dass einige hier unbedingt recht haben müssen, mehr nicht.

dargo
2017-04-15, 16:12:11
Also Dargo... manchmal weiß ich auch nicht aber du redest dich gerade immer weiter in die Scheisse xD

MSRP ist doch nur der ERWARTETE PREIS...

und hier im Forum geben manche die erwarteten Preise für Vega in Dollar an und manche in €.

Ich würde auch eher auf die Dollar Preise eingehen, was letztendlich auf den Straßen hier hinterher sein wird, darüber brauch man gar nicht Spekulieren, aber was der MSRP in den USA ist, das sollte die beste Ausgangslage für jedwede Speku, denn beide Unternehmen kommen nunmal daher.

1080TI hat 699$ aus basta...
Schon witzig, denn im letzten Satz bestätigst mich nur. ;D

iuno
2017-04-15, 16:32:50
Fuer DE gibt es eine andere UVP als in den USA, was ist daran neu oder so schwer zu verstehen, dass man eine Seite darueber diskutieren muss?

Rampage 2
2017-04-15, 16:47:49
Der V10 Topdog ist in ALLEN Bereichen mindestens doppelt so stark wie P10 Topdog: (bei angenommenem Boost-Takt von ~ 1550MHz)

ROP-Throughput: ~ 2.5x
Texturierleistung: ~ 2.2x
Rechenleistung: ~ 2.2x
Speicherbandbreite: 2x

Hinzu kommt der Game-Changer TBDR (welchen auch Nvidia erst vor Kurzem zugegeben hat bzgl. Maxwell), Architektur-Verbesserungen und nochmals verbesserte Bandbreitenkompression.

Da *kann* V10 gar nicht langsamer werden als die 1080 - und selbst das wäre Worstcase. Im Bestcase schneller oder gleichauf mit 1080Ti...

Ich schätze V10 mindestens zwischen 1080 und 1080Ti ein.

TheGood
2017-04-15, 16:55:54
Auf videocardz ist ne Umfrage, deren Ergebnis genau das widerspiegelt. Das meine ich mit "man".

Ich weiß zwar, dass Vega teurer wird als 499$, aber mein Bauchgefühl sagt, dass dies der Preis ist bei dem AMD genug Absatz hat. Fiji war ein finanzielles Desaster. Wer weiß ob dieser sich heute endlich trägt (R&D, laufende Stückkosten und Gemeinkosten...). Für 650 bei etwas über 1080-Leistung werden die keinen Stich landen. Das stelle ich mal als Fakt hin über den wir dann später noch mal sprechen können. ;)

Dann kläre uns doch mal auf und sag uns den UVP (US) für VEGA :) (denn es gibt auch einen für EU auch wenn dargo das nicht zugeben kann, solche leute sind mir am liebsten die einfach nicht wissen wann Sie im unrecht sind und dann sinnlos leute beschäftigen müssen um ihre Wahrheit als alternative Fakten präsentieren zu wollen)

Danke.

Völlig unabhängig davon ein Preis von UVP 499 $ ist für eine Karte die zwischen 1080 und 180 TI stehen sollte einfach nicht angemessen. Bzw nur dann angemessen wenn sie tatsaechlich nur auf 1080 Niveau rauskommt. Das hoffe ich für AMD aber tatsächlich nicht, denn das können Sie sich eigentlich nicht leisten. Imho müssen Sie aus meiner Sicht mindestens das 1080TI Niveau haben oder drüber sein um langfristig wieder im HighEnd markt Fuss zu fassen. Ansonsten geht's nur über den Preis.

Und so wie du redest weisst du wohl auch schon bereits dass die Karte wohl bei der Performance zwischen 10080 und 1080TI rauskommen wird? Dann erhelle uns doch einfach mal.

Tamagothi
2017-04-15, 16:56:39
Dickere Chips mit mehr Profifunktionen werden aber auch nicht automatisch effizienter.

Da liegst du teilweise falsch.

Man kann es an der R9 280X -> R9 290X sehen.

37,5% mehr CU's

Das SI 25% größer

Verbraucht aber ziemlich gleich.

Hübie
2017-04-15, 17:04:03
Dann kläre uns doch mal auf und sag uns den UVP (US) für VEGA :) (denn es gibt auch einen für EU auch wenn dargo das nicht zugeben kann, solche leute sind mir am liebsten die einfach nicht wissen wann Sie im unrecht sind und dann sinnlos leute beschäftigen müssen um ihre Wahrheit als alternative Fakten präsentieren zu wollen)

Danke.

Völlig unabhängig davon ein Preis von UVP 499 $ ist für eine Karte die zwischen 1080 und 180 TI stehen sollte einfach nicht angemessen. Bzw nur dann angemessen wenn sie tatsaechlich nur auf 1080 Niveau rauskommt. Das hoffe ich für AMD aber tatsächlich nicht, denn das können Sie sich eigentlich nicht leisten. Imho müssen Sie aus meiner Sicht mindestens das 1080TI Niveau haben oder drüber sein um langfristig wieder im HighEnd markt Fuss zu fassen. Ansonsten geht's nur über den Preis.

Und so wie du redest weisst du wohl auch schon bereits dass die Karte wohl bei der Performance zwischen 10080 und 1080TI rauskommen wird? Dann erhelle uns doch einfach mal.

Darüber reden wir nach Release. :P

Unicous
2017-04-15, 17:04:17
@dargo

Ich kann dir genau erklären warum die Straßenpreise in Deutschland/Europa von der UVP abweichen: Wettbewerb.

Ganz schnöder Wettbewerb und eine Handelsmarge mit der spekuliert wird. In den USA gibt es so gut wie keinen Wettbewerb im Hardware-Bereich, weil große Teile monopolisiert sind und es gefühlt nur 5 etailer gibt, und die Preise so gut wie nicht vom MSRP abweichen, außer er wird vom Hersteller gesenkt. Da gibt es dann mal die ein oder andere mail-in rebate (diese Unsitte wurde ja vor einigen Jahren auch hier etabliert) oder andere Rabattaktionen wie z.B. Bundles, aber das wars dann auch schon.

Desweiteren hat man hier seit Langem Preisvergleichsmaschinen (wo die Händler mit Cent-Beträgen um der erste in der Auflistung zu sein) die es lange Zeit nicht in den USA gab oder deren Datenbanken lächerlich klein sind.

maximus_hertus
2017-04-15, 17:19:42
Letztendlich interessiert mich als Kunde nur der Straßenpreis.

Das hat jetzt was mit deiner Behauptung zu tun, dass es keinen Euro UVP gibt?


Wer bei Day 1 kauft ist einfach nur dämlich oder noch nicht lange genug dabei. Wer lange genug dabei ist weiß ganz genau, dass die Händler Day 1 und auch wenige Tage danach die "Sucht" der Kunden ausnutzen. Es dauert paar Tage bis Wochen bis der Konkurrenzkampf zwischen den Händlern in Bewegung kommt. Was ich nur mit dem Beispiel vom R7 1700X aufzeigen wollte ist, dass die Rechnung die uns Unicous so gerne hier immer wieder aufzeigt so nicht funktioniert wie er sich das vorstellt.

Das hat jetzt was mit deiner Behauptung zu tun, dass es keinen Euro UVP gibt?


Um es abzuschließen => Natürlich gibt es für jedes Gebiet / Land eine UVP in der jeweigen Landeswährung. Wie bei (fast) allen Artikeln wird diese UVP mal früher, mal später unterboten.

Botcruscher
2017-04-15, 19:13:29
Da liegst du teilweise falsch.
Man kann es an der R9 280X -> R9 290X sehen.
37,5% mehr CU's
Das SI 25% größer
Verbraucht aber ziemlich gleich.
Die 280X ist mit Tahiti schlicht Resteverwertung aus dem highend/performance wo der Takt auch entsprechend am Limit war. P10 zieht mal gerne zwischen 150 und 170W. Da muss sich bei doppelter Leistung dringend was tun.

[MK2]Mythos
2017-04-15, 19:27:24
P10 zieht mal gerne zwischen 150 und 170W. Da muss sich bei doppelter Leistung dringend was tun.
Captain Obvious has spoken! :O
Dass VEGA deutlich effizienter ist, ist doch schon völlig klar.

Tamagothi
2017-04-15, 19:33:11
Ein theoretisch doppelter P10 würde keine 300-340 Watt schlucken wie du das grade darstellen willst.

TheGood
2017-04-15, 19:33:56
Darüber reden wir nach Release. :P

Sorry, aber dann kannste dir die Kommentare auch gleich schenken, da es keinem auch nur irgendwas bringt...

robbitop
2017-04-15, 19:35:33
Nach dem was über die Vega mArch vorgestellt wurde, ist eine relativ ähnliche Entwicklung wie von Kepler auf Maxwell zu erwarten, was Steigerung der Bandbreiteneffizienz und der IPC angeht. Ich tippe aus dem Bauch aber, dass er Rohleistungsnormiert / Bandbrennormiert nicht ganz an Pascal herankommen wird. Dafür hat man dann halt etwas mehr Rohleistung und Bandbreite.

reaperrr
2017-04-15, 19:47:31
P10 zieht mal gerne zwischen 150 und 170W. Da muss sich bei doppelter Leistung dringend was tun.
Fiji zog trotz satten ~160mm² mehr Fläche bei gleichem Chiptakt weniger Saft als die 390/X, einfach weil das 512bit SI bei letzteren ca. für 1/3 des Stromverbrauches verantwortlich war (der Verbrauch der 390er liegt laut CB weit über der 290X, wahrscheinlich fast ausschließlich wegen dem höheren Speichertakt).

Zum anderen kommt der relativ hohe Verbrauch der GCN-Versionen bis einschließlich Polaris teilweise eben genau von dem fehlenden Tiling, weil dadurch z.B. viel mehr Speicherzugriffe erfolgen als bei Maxwell und Pascal.

Vega10 schlägt also allein in diesen Bereichen mit Tiling + HBM schon zwei Fliegen mit einer Klappe, weitere Stromspar-Mechanismen, die vermutliche IPC-Steigerung und verbesserte Taktbarkeit kommen dann noch oben drauf.

TheAntitheist
2017-04-15, 19:56:53
Schon witzig, denn im letzten Satz bestätigst mich nur. ;D
ich hab dich nicht bestätigt, natürlich gibt es verschiedene Unverbindliche Preisempfehlungen, ich sagte wir sollten uns auf einen einigen und da beide Produzenten aus den USA kommen...
schon wieder Blödsinn von dir

Hübie
2017-04-15, 20:25:51
Sorry, aber dann kannste dir die Kommentare auch gleich schenken, da es keinem auch nur irgendwas bringt...

Du kannst dir einfach mal die Mühe machen und bekannte Leaks zusammen suchen und daraus mal lesen. Ist echt nicht schwierig. :rolleyes: Deine Kommentare sind demnach also genauso wertlos. Natürlich wäre es schön wenn V10 GP102 schlagen würde, aber es wird nicht eintreten (mal Kirschen* ausgenommen). Du kannst mir glauben, dass ich bei 8 GB eine Fiji gekauft hätte. Kannst also aufhören irgendwie zu versuchen mich irgendwo herein zu stecken (falls dies deine Intention war).

*Hitman lief damals auch auf NV grottig, weil deren Büro mit freundlicher Unterstützung von AMD gepimpt wurde. Mittlerweile ist auch dies passé. Also wird es peu à peu auch in Kirschen-Fällen wieder so eintreten, dass es sich normalisiert.

Nachdem was man so weiß kann man von einem überproportionalem Leistungssprung ausgehen und da wir ja schon einen Chip mit 4096 ALUs kennen, kann man von da anfangen hoch zu rechnen. Ich sehe es also exakt wie robbitop.

Der_Korken
2017-04-15, 20:41:44
Ist eigentlich bekannt seit wann AMD an Vega strickt? Wenn der Tiled Rasterizer wirklich so viel bringt wie man momentan annimmt, ist es schon bemerkenswert, dass Nvidia diese Technologie schon 2014 eingesetzt hat und AMD drei Jahre hinterherhinkt. Nach den Ausführung von einigen hier im Thread klingt das Vorgehen und seine Vorteile eigentlich sehr logisch und ich habe mich gefragt, warum da noch keiner früher drauf gekommen ist. Wie lange war Maxwell bei Nvidia in der Pipeline?

gedi
2017-04-15, 20:55:12
Also, ich sehe es wie Hübie. Was man erwarten darf ist Custom 1080 Performance. Leider wird das Teil aufgrund der Diesize, HBM2, Interposer usw. nicht billig (~740€). Sehr sicher wird Vega10 in einem Jahr 1080ti-Performance erreichen, leider ist da der Zug bereits abgefahren ...

dargo
2017-04-15, 21:03:45
Ich tippe aus dem Bauch aber, dass er Rohleistungsnormiert / Bandbrennormiert nicht ganz an Pascal herankommen wird. Dafür hat man dann halt etwas mehr Rohleistung und Bandbreite.
Dann liegts an der Software. Ich sag nur Doom @Vulkan.
59611

Die Referenz RX480 und GTX1070 FE haben die gleiche Bandbreite von 256GB/s. Letztere ist 11% schneller, hat dafür aber auch 24% mehr TFLOPs (6,7 TFLOPs @1,75Ghz vs. 5,4 TFLOPs @1,18Ghz). Doom @Vulkan ist halt eins der wenigen Spiele welches Radeons vernünftig auslastet. Das sieht man auch sehr gut daran wo die Fury X steht. Wie ich schon mal sagte... solange in einer PC-Umgebung wir immer noch vermehrt mit High-Level Apis unterwegs sind wird Radeon immer etwas im Nachteil sein. Ausnahmen bestätigen die Regel. Natürlich gibt es auch DX11 Games die Radeons gut schmecken, es gibt aber auch solche Unfälle wie bsw. Anno.


Nachdem was man so weiß kann man von einem überproportionalem Leistungssprung ausgehen und da wir ja schon einen Chip mit 4096 ALUs kennen, kann man von da anfangen hoch zu rechnen.
Das wäre das dümmste was du machen kannst.

=Floi=
2017-04-15, 21:07:53
bei vega spielt auch noch eine rolle ob sie bei der consumer karte eine gute oder eine normale spannungsversorgung verbauen. Würde man der karte 300Watt gönnte könnte sie auch wieder stärker boosten. Da gibt es noch ein paar stellschaurauben zu beachten.

Hübie
2017-04-15, 21:09:17
Dann liegts an der Software. Ich sag nur Doom @Vulkan.
59611

Die Referenz RX480 und GTX1070 FE haben die gleiche Bandbreite von 256GB/s. Letztere ist 11% schneller, hat dafür aber auch 24% mehr TFLOPs (6,7 TFLOPs @1,75Ghz vs. 5,4 TFLOPs @1,18Ghz). Doom @Vulkan ist halt eins der wenigen Spiele welches Radeons vernünftig auslastet. Das sieht man auch sehr gut daran wo die Fury X steht. Wie ich schon mal sagte... solange in einer PC-Umgebung wir immer noch vermehrt mit High-Level Apis unterwegs sind wird Radeon immer etwas im Nachteil sein. Ausnahmen bestätigen die Regel. Natürlich gibt es auch DX11 Games die Radeons gut schmecken, es gibt aber auch solche Unfälle wie bsw. Anno.


Das wäre das dümmste was du machen kannst.

Warum? Die ALUs ändern sich nicht. Dann nimmst du halt verbesserte DCC und raster binning dazu, plus secret sauce... Und dann kommt da schon was bei raus. Wenn man dass nun mit bekannten Benches (Battlefront, BF1 und Doom) vergleicht, passt das schon ganz gut. Es geht ja ums Spekulieren nicht ums festsetzen.
Kannst ja gerne einen Gegenvorschlag machen, wie du so etwas hochrechnen würdest.

Und übrigens: Dein Doom-Wert ist von Juli 2016 (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#diagramm-doom-2560-1440). Danach wurde die Leistung auf allen Modellen noch mal um 5-10% gesteigert. Stand heute kenne ich nicht.

[MK2]Mythos
2017-04-15, 21:14:00
Ich denke auch nicht dass man von Fiji ansatzweise auf Vega schließen kann. Da macht schon eher 2x Polaris +x% Sinn.

dargo
2017-04-15, 21:17:45
Warum?
Schon alleine weil Fiji im Gegensatz zu Polaris eine hohe Pixellast braucht. Außerdem wurde die Tessellation bei Polaris stark aufgebohrt. Fiji basiert im Prinzip noch auf Tonga, nur eben stark aufgeblasen.


Und übrigens: Dein Doom-Wert ist von Juli 2016 (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#diagramm-doom-2560-1440). Danach wurde die Leistung auf allen Modellen noch mal um 5-10% gesteigert. Stand heute kenne ich nicht.
Nein, der ist vom 9.3.2017. ;)
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/

Mythos;11350110']Ich denke auch nicht dass man von Fiji ansatzweise auf Vega schließen kann. Da macht schon eher 2x Polaris +x% Sinn.
Ganz genau.

Hübie
2017-04-15, 21:19:21
Das sind dann aber schon mal 12,5% mehr ALUs...

@dargo: Die Werte werden immer weiter übertragen. :P Klick doch den link. Exakt gleich (101,9 fps).

Edit: Musst da auch auf "weitere Einträge" klicken. Das mit Tesselation stimmt. Daran habe ich nicht gedacht.

robbitop
2017-04-15, 21:29:50
Soweit ich verstanden habe, sind die CUs auch modernisiert worden. Kann also gut sein, dass deren Auslastung etwas steigt.

Doom ist schon ein ziemlicher Sonderfall. Hier steht GCN besonders gut da. Liegt sicherlich zT an den Intrinsics und genereller Optimierung des Shadercodes für die AMD CUs.
Sicherlich zeigt es aber was möglich ist. Ich hoffe, AMDs Shadercompiler und Kontrolllogik wird zu Vega auf einem besseren Level landen. Das macht die Maxwell/Pascal HW und SW nälich von Haus aus richtig gut.

Hübie
2017-04-15, 21:33:33
Wenn ich das richtig weiß haben die jeweils zwei Skalareinheiten. Ob man die wavefront size verändert hat ist mir gerade entfallen. Könnte viel Aufwand des Treiber bedeuten oder?