PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

AnarchX
2013-09-21, 23:29:57
Bilder einer Radeon R9 260 - welche auf Curacao (durch Sticker bestätigt) basiert:

http://img694.imageshack.us/img694/8373/i2sw.jpg (http://imageshack.us/photo/my-images/694/i2sw.jpg/)

Ein Zuordnung als R7-260 ist eher nicht ersichtlich. Insofern vielleicht eher eine R9-270, wenn das schon Partnerquelle so verteilen.
Interessant ist auch das:
In fact Curacao is listed on the same Device ID as Pitcarin, which would suggest that we are looking at the Pitcairn in disguise.

Gipsel
2013-09-21, 23:30:33
Um ehrlich zu sein halte ich das für Geschwafel. Entweder er meint mit neuem Fertigungsprozess - dann wäre es nichts Besonderes. Oder er meint nur die Architektur. Und das ist mMn nicht möglich.
nV "schwafelt" genau das Gleiche. Und Design macht inzwischen bald mehr aus als der Prozeß, auch wenn die Zahl für die Kombination gilt ;).

schreiber
2013-09-21, 23:31:17
und am Ende kommen 2-5 fps mehr raus. ^^

StefanV
2013-09-21, 23:31:56
Bilder einer Radeon R9 260 - welche auf Curacao (durch Sticker bestätigt) basiert:
http://img694.imageshack.us/img694/8373/i2sw.jpg (http://imageshack.us/photo/my-images/694/i2sw.jpg/)
Interessanter Kühler.
Quark.
Das isn Standard Fächerkühler mit 2 10mm Heatpipes im Kreis gebogen.
Das Teil hab ich schon mal auf 'ner XFX 4870 gehabt (die dann auch wieder retour ging).

Ganz grob ist der Kühler dem Zalman VF-900 (http://www.zalman.com/global/product/Product_Read.php?Idx=145) sehr ähnlich. NUr dass die Fins halt 'nen bisserl größer sind und auch die Heatpipes deutlich dicker und die Fins auch in der Mitte zusammengepresst sind...

€dit:
das hier isser (http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/4.html)

boxleitnerb
2013-09-21, 23:32:01
nV "schwafelt" genau das Gleiche. Und Design macht inzwischen bald mehr aus als der Prozeß, auch wenn die Zahl für die Kombination gilt ;).

Ja aber eine Verdopplung...wo soll das genau herkommen? Nimm den Prozess weg, dann haben neue Architekturen bisher nichtmal ansatzweise sowas bei Perf/W erreicht. Das soll sich jetzt schlagartig und so massiv ändern? Klar...

Nehmen wir mal GCN als konkretes Beispiel, weil GCN ja praktisch brandneu war/ist. Die 7970 ist bei gleichem Verbrauch 50-60% schneller als die 6970 im Schnitt. So, und jetzt shrink die 6970 auf 28nm und schau, was übrig bleibt vom Perf/W-Unterschied...mehr wie 10-15% wären das nicht schätze ich mal frei Schnauze.

Gipsel
2013-09-21, 23:38:36
Ja aber eine Verdopplung...wo soll das genau herkommen? Nimm den Prozess weg, dann haben neue Architekturen bisher nichtmal ansatzweise sowas bei Perf/W erreicht.
Man optimiert ja auch noch nicht so lange voll auf Perf/Watt. Und eine völlig neu entwickelte Architektur ist bisher auch selten im gleichen Prozeß wie die alte gekommen. Fakt ist einfach, daß man praktisch ab sofort kaum noch die bisherigen Architekturen im neuen Prozeß einfach aufblasen kann (FinFets bringen nochmal einen kleinen Puffer), weil einem die dann wegschmelzen. Man muß einfach die ganze Geschichte viel mehr auf Low-Power auslegen. Das haben wir doch schon damals bei den nV-Präsentationen zu Einstein/Echelon (noch mit LS) zu Tode diskutiert.

Früher hat ein neuer Prozeß pro Fläche doppelt so viele Transistoren erlaubt, die schneller waren und nur noch die Hälfte verbraucht haben (so daß auf gleicher Fläche wieder das Gleiche rauskam). Diese Zeiten sind aber vorbei. Die Verbrauchsersparnisse von Shrinks werden immer kleiner. HKMG und FinFets holen da einmalig noch mal bißchen was raus, aber ganz allgemein muß man konstatieren: Free Lunch is over.

Duplex
2013-09-21, 23:42:29
Hat sich jemand schonmal gedanken darüber gemacht das AMD bei der Compute Unit die Anzahl der Shader erhöht, 64 Shader pro CU ist ja nicht gerade viel. Bei Nvidia hat ein SMX Cluster 192 Shader.

boxleitnerb
2013-09-21, 23:42:48
Man optimiert ja auch noch nicht so lange voll auf Perf/Watt. Und eine völlig neu entwickelte Architektur ist bisher auch selten im gleichen Prozeß wie die alte gekommen. Fakt ist einfach, daß man praktisch ab sofort kaum noch die bisherigen Architekturen im neuen Prozeß einfach aufblasen kann (FinFets bringen nochmal einen kleinen Puffer), weil einem die dann wegschmelzen. man muß einfach die ganze Geschichte viel mehr auf Low-Power auslegen. Das haben wir doch schon damals bei den nV-Präsentationen zu Einstein/Echelon (noch mit LS) zu Tode diskutiert.

Bloß gibt es da Grenzen - irgendwann ist alles implementiert, was Sinn macht oder der Nutzen wird immer geringer, weil man die niedrig hängenden Früchte alle schon abgeerntet hat. Du kannst z.B. bei Datenlokalität die Daten ganz nah an die Einheiten ranbringen, aber das war es dann auch. Shrinken geht dann aber immer noch...

HarryHirsch
2013-09-21, 23:42:52
Ja aber eine Verdopplung...wo soll das genau herkommen? Nimm den Prozess weg, dann haben neue Architekturen bisher nichtmal ansatzweise sowas bei Perf/W erreicht. Das soll sich jetzt schlagartig und so massiv ändern? Klar...

Nehmen wir mal GCN als konkretes Beispiel, weil GCN ja praktisch brandneu war/ist. Die 7970 ist bei gleichem Verbrauch 50-60% schneller als die 6970 im Schnitt. So, und jetzt shrink die 6970 auf 28nm und schau, was übrig bleibt vom Perf/W-Unterschied...mehr wie 10-15% wären das nicht schätze ich mal frei Schnauze.

Apfel, Birne?

boxleitnerb
2013-09-21, 23:45:26
Apfel, Birne?

Irgendwie muss man den Prozess als Faktor ja rausnehmen, wenn man nur die Verbesserungen durch die Architektur betrachten will...

MR2
2013-09-21, 23:45:42
Na gut, er spricht von Chipgenerationen. Also wohl doch Geschwafel:rolleyes:
Wo ist eigentlich LS?

Gipsel
2013-09-21, 23:46:46
Bloß gibt es da Grenzen - irgendwann ist alles implementiert, was Sinn macht oder der Nutzen wird immer geringer, weil man die niedrig hängenden Früchte alle schon abgeerntet hat. Du kannst z.B. bei Datenlokalität die Daten ganz nah an die Einheiten ranbringen, aber das war es dann auch. Shrinken geht dann aber immer noch...Dann vermutlich nicht mehr. :freak: :D

HarryHirsch
2013-09-21, 23:48:01
Irgendwie muss man den Prozess als Faktor ja rausnehmen, wenn man nur die Verbesserungen durch die Architektur betrachten will...

Viel Spaß dabei.

Duplex
2013-09-21, 23:58:14
Wo ist eigentlich LS?
LovesuckZ hat damals sein Account hier löschen lassen.
Der heißt in anderen Foren "Sontin" http://extreme.pcgameshardware.de/members/86933-sontin.html

MR2
2013-09-22, 00:08:19
Danke....

CB über weitere VIs.
http://www.computerbase.de/news/2013-09/weitere-volcanic-islands-grafikkarten-gesichtet/

boxleitnerb
2013-09-22, 00:08:52
Viel Spaß dabei.

Danke :freak:
Ailuros hatte mal gesagt, dass NV Fermi auf 28nm geshrinkt hat und das sogar ganz gut aussah. Also ich glaube nicht, dass man nur über die Architektur gleich 100% Steigerung rausholen kann, schon gar nicht regelmäßig.

Ronny145
2013-09-22, 00:15:30
Der Chip ist nur ~60mm² größer als Tahiti und soll ein breiteres SI, deutlich mehr ALUs, doppelt so breites Frontend, mehr ROPs, und eine höhere DP-Rate haben.


Der Chip ist ~75 mm² größer falls das Die Bild keine Fälschung ist.

HarryHirsch
2013-09-22, 00:17:54
Man vergleicht auch nicht NV und ATI.
Die einen Produzieren BS und die andern noch viel größeren.
Es gibt doch genug andere Beispiele um die Packdichte zu vergleichen.

Obwohl ATI die bis jetzt höchste hat. Hab ich mir sagen lassen.

Skysnake
2013-09-22, 00:20:58
Hey Leute macht mir keine Angst. Wenn das Ding langsamer wird als eine 780 macht AMD mal wieder alles falsch.

AMD braucht Prestige und gute Leistung um Karten zu verkaufen.

Was will man denn mit 7970+20%? Wenn die Karten schon ein neues Namensscheme bekommen muss da am Ende Titan+20% herauskommen.
Langsamer wirds nicht sein, aber ich würde als Gamer wirklich keinen GTX Titan-Killer erwarten. Wenn das Ding 5% schneller ist als die Titan, können wir denke ich glücklich sein.

AMD hat doch einen Knall, warum verbauen die da ein 512-bit SI? Für Gaming jedenfalls nicht, wenn man sich ansieht was eine 7870 mit 1,2Ghz GDDR5 an einen 256-bit SI leistet. Als HPC-Chip sicherlich toll, aber wenn sich auch noch die 1:2 DP-Rate bewahrheitet erwarte ich für Gaming nicht mehr viel, dafür ist das Die zu klein.
WAYNDE GAMEING! ;D

Das ist schon ziemlich geil! Jetzt bitte noch die dicken Speicherchips drauf, dann kann man mit XeonPhis 16GB RAM konkurrieren! Das wäre schon sehr geil.

Wenn dann noch 1:2 DP:SP wirklich kommt, dann leck ich mir danach die Finger :biggrin:


Warum ist das so, könntest du das bitte kurz erklären?
Gipsel hats ja schon richtig erklärt. Du brauchst für höhere Frequenzen einfach stärkere Treiber, und die brauchen einfach mehr Fläche.

Ich hab die Tage das Layout von unserem Chip gesehen. Die SerDes sind so FUCKING! groß, das ist schon ziemlich heftig :freak:

Man optimiert ja auch noch nicht so lange voll auf Perf/Watt. Und eine völlig neu entwickelte Architektur ist bisher auch selten im gleichen Prozeß wie die alte gekommen. Fakt ist einfach, daß man praktisch ab sofort kaum noch die bisherigen Architekturen im neuen Prozeß einfach aufblasen kann (FinFets bringen nochmal einen kleinen Puffer), weil einem die dann wegschmelzen. Man muß einfach die ganze Geschichte viel mehr auf Low-Power auslegen. Das haben wir doch schon damals bei den nV-Präsentationen zu Einstein/Echelon (noch mit LS) zu Tode diskutiert.

Früher hat ein neuer Prozeß pro Fläche doppelt so viele Transistoren erlaubt, die schneller waren und nur noch die Hälfte verbraucht haben (so daß auf gleicher Fläche wieder das Gleiche rauskam). Diese Zeiten sind aber vorbei. Die Verbrauchsersparnisse von Shrinks werden immer kleiner. HKMG und FinFets holen da einmalig noch mal bißchen was raus, aber ganz allgemein muß man konstatieren: Free Lunch is over.
Gipsel, nicht verzweifeln. Das wird man den Leuten noch Jahre lang runter beten müssen, bis sie es wahr haben wollen und begreifen...

Bloß gibt es da Grenzen - irgendwann ist alles implementiert, was Sinn macht oder der Nutzen wird immer geringer, weil man die niedrig hängenden Früchte alle schon abgeerntet hat. Du kannst z.B. bei Datenlokalität die Daten ganz nah an die Einheiten ranbringen, aber das war es dann auch. Shrinken geht dann aber immer noch...
Doch genau da. Gerade bei der Datenlokalität lässt sich noch verdammt viel machen.

Schaffe89
2013-09-22, 00:30:22
Gibt es irgendwie Möglichkeiten die Packdichte deutlich zu erhöhen, ohne dass Taktraten darunter leiden?

Was steht denn jetzt eigentlich fest? Nur die 512bit Speicherinterface, die 4GB Ram und die Die Größe von 436mm²?

512bit dürfte für eine reine Spiele GPU oversized sein, es kann eigentlich nur auf eine reine GPGPU GPU hinauslaufen, welche dann dort neue Maßstäbe setzt, aber bei der Spieleleistung wieder Kompromisse gemacht werden, allerdings nicht so große Kompromisse, dass nicht wenigstens Titan drinnen wäre.

Skysnake
2013-09-22, 00:42:04
Du kannst ein neues Layout machen, welches weniger Wires hat. Du kannst die Taktraten absenken, und dadurch eben manche Schaltungen mit weniger Transistoren realisieren, du kannst Leerflächen minimieren usw.

Vor allem kannst du aber versuchen die Standardzellen noch weiter zu optimieren. Wenn dir das gelingt, hast du halt gleich bei Millionen von Schaltungen eine Einsparung. Das schlägt also sehr schnell sehr stark durch. Das Problem hierbei ist, dass genau deswegen die Standardzellen eh schon ziemlich stark optimiert sind.

HarryHirsch
2013-09-22, 00:44:03
Gibt es irgendwie Möglichkeiten die Packdichte deutlich zu erhöhen, ohne dass Taktraten darunter leiden?

Was steht denn jetzt eigentlich fest? Nur die 512bit Speicherinterface, die 4GB Ram und die Die Größe von 436mm²?

512bit dürfte für eine reine Spiele GPU oversized sein, es kann eigentlich nur auf eine reine GPGPU GPU hinauslaufen, welche dann dort neue Maßstäbe setzt, aber bei der Spieleleistung wieder Kompromisse gemacht werden, allerdings nicht so große Kompromisse, dass nicht wenigstens Titan drinnen wäre.

Ja ein verbesserter Fertigungsprozess. SP Performance > all.
Das wird die F@H ficker GPU.

marc-05
2013-09-22, 03:56:53
AMD Radeon R9 290X is slightly faster than GTX TITAN...AMD Radeon R9 290X would consume less power than GTX TITAN
-> klick (http://videocardz.com/45753/amd-radeon-r9-290x-slightly-faster-gtx-titan)

MrSchmelzer
2013-09-22, 04:03:58
AMD Radeon R9 290X is slightly faster than GTX TITAN...AMD Radeon R9 290X would consume less power than GTX TITAN
-> klick (http://videocardz.com/45753/amd-radeon-r9-290x-slightly-faster-gtx-titan)

Und das hier ist die Quelle dafür:
http://udteam.tistory.com/539

mczak
2013-09-22, 04:36:49
Danke....

CB über weitere VIs.
http://www.computerbase.de/news/2013-09/weitere-volcanic-islands-grafikkarten-gesichtet/
Was an Oland neu sein soll ist mir nicht ganz klar die Mobilvariante wird ja schon längst verkauft. Und wie man da auf die Idee kommen kann der Chip könnte sich oberhalb von Cape Verde positionieren ist mir wirklich schleierhaft denn selbst wenn man nicht wissen würde dass der Chip bloss 6 statt 8 CUs hat könnte man das sofort erkennen aufgrund dass sowohl ddr3 wie gddr5 Varianten existieren.
Wobei immerhin ein Oland XT dürfte in der Performance fast gleichauf liegen mit einer HD7750 800Mhz (falls denn die Taktraten stimmen, und selbstverständlich gilt das nur falls beide gddr5 verwenden).
Wenn ich da so das Bild ansehe sind die verbauten Komponenten beim Curacao Pro (PCB-Unterseite beim Chip) identisch zu denen bei einer 7850. Muss jetzt nicht gleich heissen dass es derselbe umbenannte Chip ist aber wohl mindestens pinkompatibel?

Ailuros
2013-09-22, 09:00:33
Danke :freak:
Ailuros hatte mal gesagt, dass NV Fermi auf 28nm geshrinkt hat und das sogar ganz gut aussah. Also ich glaube nicht, dass man nur über die Architektur gleich 100% Steigerung rausholen kann, schon gar nicht regelmäßig.

NVIDIA's erster testrun fuer TSMC 28HP war ein GK110 GF110 auf diesen geschrumpft; es lag nichts falsches an dem Resultat nur wird ein solcher chip eben stets von einer neueren effizienteren Archiktektur hoffnungslos blamiert. Bei perf/W sah Kepler natuerlich um einiges besser aus.

AMD Radeon R9 290X is slightly faster than GTX TITAN...AMD Radeon R9 290X would consume less power than GTX TITAN
-> klick (http://videocardz.com/45753/amd-radeon-r9-290x-slightly-faster-gtx-titan)

Wenn es mit dem Stromverbrauch stimmen sollte dann kann es IMHO nur 28HPM sein. Die erste wirklich gute Nachricht fuer Hawaii. Der angebliche "review" duftet mir aber schon nach leichter Uebertaktung bei der Radeon; abwarten bis zu den ersten offiziellen reviews. Den Stromverbrauch behalt ich aber :)

boxleitnerb
2013-09-22, 09:13:49
G"K"110? Oder GF110?
Könntest du bitte etwas genauer werden, bzw. was ist "um einiges besser"? :)

bzgl. Verbrauch darf man den Turbo nicht vernachlässigen. Im Test taktet Titan wahrscheinlich mit knapp 1 GHz, die Radeon mit 1020 MHz. Dass zwischen Titan und 7970 GHz gleich 40W liegen, ist eher unüblich, normalerweise ist das so 20-30W. Einen Tick bessere Effizienz wird AMD aber wohl doch haben.

Botcruscher
2013-09-22, 09:21:29
Das Ding soll mit 1020MHz laufen?!?
PS: Als Titan Besitzer würde ich das Ding jetzt panisch an den nächsten Idioten bei Ebay verticken.

Ailuros
2013-09-22, 09:21:48
G"K"110? Oder GF110?
Könntest du bitte etwas genauer werden, bzw. was ist "um einiges besser"? :)

Nochmal sie haben GF110@40G in einem testrun (ergo chip wurde mit Absicht nie finalisiert) zu 28HP geschrumpft. Wo liegt denn der perf/W Unterschied zwischen Kepler und Fermi genau? Du fragst manchmal Sachen....GF110 wurde nur geschrumpft um 28HP Erfahrung zu machen; durch den shrink aendert sich das perf/W Verhaeltnis nicht besonders wenn ueberhaupt.

bzgl. Verbrauch darf man den Turbo nicht vernachlässigen. Im Test taktet Titan wahrscheinlich mit knapp 1 GHz, die Radeon mit 1020 MHz. Dass zwischen Titan und 7970 GHz gleich 40W liegen, ist eher unüblich, normalerweise ist das so 20-30W. Einen Tick bessere Effizienz wird AMD aber wohl doch haben.

Ich gehe nicht durch den Prozess zu raten was der Kerl angestellt hat; wie gesagt das wichtigste hab ich behalten. Sonst wenn Hawaii wirklich auf 28HPM hergestellt wurde wie wuerde im Gegensatz GK110 unter 28HPM im Vollausbau genau aussehen?

boxleitnerb
2013-09-22, 09:26:59
Das Ding soll mit 1020MHz laufen?!?
PS: Als Titan Besitzer würde ich das Ding jetzt panisch an den nächsten Idioten bei Ebay verticken.

Nicht standardmäßig, 1020 MHz ist mit Turboschalter (wahrscheinlich).

Nochmal sie haben GF110@40G in einem testrun (ergo chip wurde mit Absicht nie finalisiert) zu 28HP geschrumpft. Wo liegt denn der perf/W Unterschied zwischen Kepler und Fermi genau? Du fragst manchmal Sachen....GF110 wurde nur geschrumpft um 28HP Erfahrung zu machen; durch den shrink aendert sich das perf/W Verhaeltnis nicht besonders wenn ueberhaupt.


Äh, was? Die Kapazitäten werden bei einem Shrink kleiner, damit sinkt auch die Leistungsaufnahme. So hab ich es jedenfalls an der Uni gelernt :freak:


Ich gehe nicht durch den Prozess zu raten was der Kerl angestellt hat; wie gesagt das wichtigste hab ich behalten. Sonst wenn Hawaii wirklich auf 28HPM hergestellt wurde wie wuerde im Gegensatz GK110 unter 28HPM im Vollausbau genau aussehen?

Keine Ahnung, es ist ja noch gar nicht klar, ob sowas überhaupt kommt und ob Nvidia die GPU "einfach mal so" auf HPM portiert.

Knuddelbearli
2013-09-22, 09:27:01
NVIDIA's erster testrun fuer TSMC 28HP war ein GK110 auf diesen geschrumpft;

er meinte das da, du schreibst GK110, meintest aber wohl sicher GF110

fondness
2013-09-22, 09:28:00
Der Chip ist ~75 mm² größer falls das Die Bild keine Fälschung ist.

Du vergleichst Herstellerangaben vs. tatsächliche Messung. Man misst meist mehr als die Hersteller angeben. Die 363mm² bei Tahiti sind aber eine Herstellerangabe. Ich gehe davon aus, dass die 30% vs. GK110 ziemlich genau stimmen werden des AMD Mannes.

/Edit: Die Quellen von oben gibt 424mm² an. Damit eine Leistung >Titan bei weniger Verbrauch zu erreichen wäre schlicht grenzgenial. Speichertakt soll nur bei 1125-1250Mhz liegen.

Ailuros
2013-09-22, 09:29:14
er meinte das da, du schreibst GK110, meintest aber wohl sicher GF110

Verdammte typos; Ihr habt recht; gerade korrigiert. Danke.

AnarchX
2013-09-22, 09:33:34
Das Ding soll mit 1020MHz laufen?!?
PS: Als Titan Besitzer würde ich das Ding jetzt panisch an den nächsten Idioten bei Ebay verticken.
Nicht standardmäßig, 1020 MHz ist mit Turboschalter (wahrscheinlich).

... und nur GDDR5 mit 5Gbps. Also nur ~10% mehr Bandbreite als die aktuelle 384-Bit-Konkurrenz. Vielleicht geht man da sogar noch unter 1,35V?

Für einen "Refresh" kann sich das wirklich sehen lassen, sofern die Ergebnisse stimmen.

boxleitnerb
2013-09-22, 09:36:15
Über Treiber dürfte noch etwas gehen, denn bei 1020 MHz sollte das Ding wirklich überall schneller sein als ein ~1 GHz Titan.

fondness
2013-09-22, 09:39:57
PS: Als Titan Besitzer würde ich das Ding jetzt panisch an den nächsten Idioten bei Ebay verticken.

Das habe ich mir auch gerade gedacht, der Wertverlust dürfte gigantisch sein, bzw. wird NV die Preise enorm senken müssen, wenn die $599 stimmen die AMD dafür verlangen will.

Inzwischen sind haufenweise Benchmarks verfügbar:

http://img6.imageshack.us/img6/7803/kbm8.jpg (http://imageshack.us/photo/my-images/6/kbm8.jpg/)

http://img191.imageshack.us/img191/6486/wbay.jpg (http://imageshack.us/photo/my-images/191/wbay.jpg/)

http://img22.imageshack.us/img22/9546/tz39.jpg (http://imageshack.us/photo/my-images/22/tz39.jpg/)

http://img443.imageshack.us/img443/1365/vrrt.jpg (http://imageshack.us/photo/my-images/443/vrrt.jpg/)

http://img34.imageshack.us/img34/6110/iy4w.jpg (http://imageshack.us/photo/my-images/34/iy4w.jpg/)

http://img844.imageshack.us/img844/353/jj17.jpg (http://imageshack.us/photo/my-images/844/jj17.jpg/)

http://img29.imageshack.us/img29/9717/cn5o.jpg (http://imageshack.us/photo/my-images/29/cn5o.jpg/)

http://img268.imageshack.us/img268/1336/lqp8.jpg (http://imageshack.us/photo/my-images/268/lqp8.jpg/)

http://img692.imageshack.us/img692/1236/1w5m.jpg (http://imageshack.us/photo/my-images/692/1w5m.jpg/)

http://videocardz.com/45753/amd-radeon-r9-290x-slightly-faster-gtx-titan

john carmack
2013-09-22, 09:53:02
wenn das stimmt... :D

Oder es sind die "geschönten" AMD Benchmarks!

Knuddelbearli
2013-09-22, 09:54:32
wasn da in Bioshock los?

Godmode
2013-09-22, 09:55:46
Also Titankäufer sehe ich das nicht so eng. Titan gabs ja schließlich schon seit Februar 2013. Und vielleicht bekommen wir ja wirklich wieder normale Highend GPUs für 500-600 Euro. Ich freue mich für AMD, dass sie es wieder mal schaffen eine richtig fette GPU zu bauen. :up:

AnarchX
2013-09-22, 09:56:09
Wenn ich da so das Bild ansehe sind die verbauten Komponenten beim Curacao Pro (PCB-Unterseite beim Chip) identisch zu denen bei einer 7850. Muss jetzt nicht gleich heissen dass es derselbe umbenannte Chip ist aber wohl mindestens pinkompatibel?
Laut Videocardz ist wohl auch die Device-ID die gleiche.
In der TPU-DB gibt es bei der R9-270 diesen Hinweis: "Direct Rebrand of HD 8860" (http://www.techpowerup.com/gpudb/2458/radeon-r9-270.html).
edit: Wobei die "8860" ein "Pitcairn" mit 5,2Gbps GDDR5 auch etwas seltsam ist und nicht bei AMD gelistet wird.

Vielleicht nur eine neue Revision mit Boost? Wobei die Lücke zwischen 212mm² und den 430mm² von Hawaii Platz für einen größeren Chip lassen würde.

Ailuros
2013-09-22, 09:57:28
Also Titankäufer sehe ich das nicht so eng. Titan gabs ja schließlich schon seit Februar 2013. Und vielleicht bekommen wir ja wirklich wieder normale Highend GPUs für 500-600 Euro. Ich freue mich für AMD, dass sie es wieder mal schaffen eine richtig fette GPU zu bauen. :up:

Darum geht es auch nicht wirklich; wuerdest Du zumindest mit etwas DP semiprofessionell herumfuchteln und Hawaii hat tatsaechlich ein 1:2 Verhaeltnis laege Dein Titan schon seit langem auf ebay zum Verkauf um die Finger auf Hawaii zu legen ;)

boxleitnerb
2013-09-22, 09:58:10
wasn da in Bioshock los?

Wohl unterschiedliche Testszenen. Gibt manche, die liegen AMD gut und manche, die liegen NV gut ;)

Godmode
2013-09-22, 09:58:44
Darum geht es auch nicht wirklich; wuerdest Du zumindest mit etwas DP semiprofessionell herumfuchteln und Hawaii hat tatsaechlich ein 1:2 Verhaeltnis laege Dein Titan schon seit langem auf ebay zum Verkauf um die Finger auf Hawaii zu legen ;)

Bringt halt recht wenig, wenn man das vorher nicht zu 100% weiß.

fondness
2013-09-22, 09:59:30
Vielleicht nur eine neue Revision mit Boost? Wobei die Lücke zwischen 212mm² und den 430mm² von Hawaii Platz für einen größeren Chip lassen würde.

Soll nicht Tahiti weiter laufen?

AnarchX
2013-09-22, 10:03:32
Soll nicht Tahiti weiter laufen?
Fragt sich nur wie lange. Langfristig wäre da wohl Hawaii LE ein passender Ersatz.

Knuddelbearli
2013-09-22, 10:08:42
hmm ich habe eigentlich auch erwartet das Hawaii und Tahiti ( mit geringerem Takt ) die R9 Serie formen und die 2 anderen Chips die R7

und Mars dann eventuell noch für R5

AnarchX
2013-09-22, 10:14:19
hmm ich habe eigentlich auch erwartet das Hawaii und Tahiti ( mit geringerem Takt ) die R9 Serie formen und die 2 anderen Chips die R7
XTL sieht sehr nach Abverkauf aus. Curcao ist momentan noch etwas unklar, was dieser nun genau darstellt.
Und von Tonga/Iceland/Maui wird wohl auch einer dieser Chips 2014 in die R9-Serie vorstoßen.


und Mars dann eventuell noch für R5
Mars = Oland und der wird für die R7-240/250 verwendet. Darunter hat man nur noch Hainan, der aber einen IGP für Bildausgabe benötigt. Cedar/Caicos wird hoffentlich nicht noch einmal rebrandet... Mit seinen 77mm² und einer eventuellen 64-Bit Option ist Oland eigentlich schon ein typischer AMD-Low-End-Chip.
Bezüglich APUs gibt es schon Einträge zur R5 (Kaveri) und R2/R3 (Beema).

Angiesan
2013-09-22, 10:20:43
Ihr unterschätzt alle NV was die Sturheit des Preises und damit der Marge angeht ;-)

Der Titan ist schon seit einiger Zeit nicht mehr die Schnellste Karte out of the Box. Da wird wenn ich die Benches jetzt richtig interpretiere NV auch nicht wirklich traurig, dafür ist der Vorsprung der neuen AMD einfach zu klein und wird mit 100% Sicherheit durch einen Ultra beantwortet. Der normale Titan geht dann nach einen Abverkauf auf EOL. Wenn ich das richtig sehe ist die GTX 780 Takt bereinigt der Gegenspieler denn eine GTX 780 mit 1100 MHz liegt in etwa auf dem Niveau der neuen AMD. Also wieder ein Kopf an Kopf Rennen das AMD leider nicht gewinnen kann und es mal wieder über den Preis regeln muss, die tun mir echt leid, machen tolle HW seit GCN und wirklich sehr gute Treiber und bekommen die Grünen doch nicht wirklich in den Griff, was sie aber mal zumindest eine Generation brauchen würden um ihr Image aufzupolieren.

So wie es jetzt wieder ist, werden die Hardcore User das wieder mit OC ihrer GK110 rechtfertigen und auf einmal ist der Stromverbrauch in dieser Klasse nicht mehr wirklich wichtig ;-)
Dann werden wieder die nerdigen Dinge wie AA Bits, 3D, PhysiX in die Schlacht geworfen und schon weiß der NV Boy warum er dann doch 350,-- Euro mehr für eine Titan -Ultra blechen will:freak: Und wenn selbst das alles nichts bringt dann braucht man die Leistung ja auch gar nicht zur Zeit, mehr wie 4xSSAA bringt eh keinen IQ Mehrgewinn und für alles andere gibt es ja dann wieder die einzig funktionierende MGPU Lösung SLI:freak::D

Solange AMD nicht mal einen richtigen Hammer auspackt wird das nix, leider!

Trotzdem wird ein Vulkanchen in meinem PC Platz nehmen:biggrin:

boxleitnerb
2013-09-22, 10:25:31
Naja, ich finde als "NV-Boy" (:D) schon, dass das Gesamtpaket stimmen muss. Da tust du einigen also Unrecht finde ich. Es kommt sicher immer auf den Einzelfall an, wem was wichtig ist. Aber wenn ich eine so schnelle Karte habe, will ich keine ausgegrauten Optionen sehen oder irgendwelche Features missen. Damit ich das ausblenden kann, müsste die AMD schon 25+% schneller sein.

S940
2013-09-22, 10:29:08
dafür ist der Vorsprung der neuen AMD einfach zu klein und wird mit 100% Sicherheit durch einen Ultra beantwortet.
Und was hindert AMD daran, ihrerseits ne Tuningversion rauszubringen?

fondness
2013-09-22, 10:30:22
Ihr unterschätzt alle NV was die Sturheit des Preises und damit der Marge angeht ;-)

Der Titan ist schon seit einiger Zeit nicht mehr die Schnellste Karte out of the Box. Da wird wenn ich die Benches jetzt richtig interpretiere NV auch nicht wirklich traurig, dafür ist der Vorsprung der neuen AMD einfach zu klein und wird mit 100% Sicherheit durch einen Ultra beantwortet. Der normale Titan geht dann nach einen Abverkauf auf EOL. Wenn ich das richtig sehe ist die GTX 780 Takt bereinigt der Gegenspieler denn eine GTX 780 mit 1100 MHz liegt in etwa auf dem Niveau der neuen AMD. Also wieder ein Kopf an Kopf Rennen das AMD leider nicht gewinnen kann und es mal wieder über den Preis regeln muss, die tun mir echt leid, machen tolle HW seit GCN und wirklich sehr gute Treiber und bekommen die Grünen doch nicht wirklich in den Griff, was sie aber mal zumindest eine Generation brauchen würden um ihr Image aufzupolieren.

So wie es jetzt wieder ist, werden die Hardcore User das wieder mit OC ihrer GK110 rechtfertigen und auf einmal ist der Stromverbrauch in dieser Klasse nicht mehr wirklich wichtig ;-)
Dann werden wieder die nerdigen Dinge wie AA Bits, 3D, PhysiX in die Schlacht geworfen und schon weiß der NV Boy warum er dann doch 350,-- Euro mehr für eine Titan -Ultra blechen will:freak: Und wenn selbst das alles nichts bringt dann braucht man die Leistung ja auch gar nicht zur Zeit, mehr wie 4xSSAA bringt eh keinen IQ Mehrgewinn und für alles andere gibt es ja dann wieder die einzig funktionierende MGPU Lösung SLI:freak::D

Solange AMD nicht mal einen richtigen Hammer auspackt wird das nix, leider!

Trotzdem wird ein Vulkanchen in meinem PC Platz nehmen:biggrin:

Das traurige an das Sache ist, dass das Potential bei AMD seit RV770 fast durchgehend da wäre um NV wirklich in die Schranken zu weisen. Aber man baut leider wieder keinen BigChip. Mit nur 424mm² eine solche Vorstellung abzuliefern ist genial, einen >500mm² Chip mit dieser Architektur könnte NV nicht mehr schlagen.

Knuddelbearli
2013-09-22, 10:32:21
das sie nix freischalten können also der Verbrauch dann vermutlich komplett fürn Arsch ist ^^

Mir wärs ja egal aber den Fanboys gibt das nur wieder unnötige Munition siehe Centurion

boxleitnerb
2013-09-22, 10:33:12
Ob das vom Verbrauch her machbar wäre im üblichen Rahmen, ist aber auch nicht ganz klar. Mit gleichem Prozess dürften sich die beiden nichts geben.

fondness
2013-09-22, 10:33:54
das sie nix freischalten können also der Verbrauch dann vermutlich komplett fürn Arsch ist ^^

Mir wärs ja egal aber den Fanboys gibt das nur wieder unnötige Munition siehe Centurion

Naja das eine SMX bei GK110 bewirkt auch keine Wunder. Das sind real vielleicht 5% mehr Leistung. Eine Titan Ultra wird es Verbrauchstechnisch auch nur for free geben und wenn die Messungen stimmen ist Hawaii ja sogar sparsamer.

S940
2013-09-22, 10:37:07
Das traurige an das Sache ist, dass das Potential bei AMD seit RV770 fast durchgehend da wäre um NV wirklich in die Schranken zu weisen. Aber man baut leider wieder keinen BigChip. Mit nur 424mm² eine solche Vorstellung abzuliefern ist genial, einen >500mm² Chip mit dieser Architektur könnte NV nicht mehr schlagen.
Tja, da zeigen sich auch die unterschiedlichen Strategien /Zielmärkte. Nvidia ist bei den Server/HPC-Karten sehr stark. Die gehen schnell mal Karten im 100er Pack weg und dabei kostet eine einzelne schnell mal mehrere Tausend Euro ...

AMD wächst da zwar gerade ziemlich stark, aber das kommt v.a. daher da sie quasi bei 0 anfängt. CUDA ist da schon ein dicker Stein im Brett.

Deshalb ist AMD eher klassisch Spielemarkt orientiert. Dort ist aber die Stückzahl für $999-Karten zu klein. Wer hier im Forum hat nochmal ne Titan? Sind das mehr als 10 Leute?

Da machen $599 schon mehr Sinn. Ein nettes Spielpaket dazu geschnürt und fertig :)

Knuddelbearli
2013-09-22, 10:39:18
Verbrauchsmessung ist fürn Arsch, 7970 GHz 40W weniger als Titan?

Und nur Takterhörung gegen 7% mehr Shader und Takterhöhung ist halt doch was anderes.
Bin jedenfalls extrem gespannt und hoff mal auf 499€ und 399€ und dazu direkte Unterstüzung für die RadeonPro Entwickler und Beta gegen Mikroruckler unter Dx9 + Hohe Auflösungen.

Dann sind 2 Davon gekauft!

dildo4u
2013-09-22, 10:42:37
Die Benches sind bis auf AvP (Denke mal dort kanns sich die neue Karte wegen Tesselation absetzen)jetzt nicht so der knaller vs die 7970Ghz,die nur 300€ kostet bei Tomb Raider sinds z.b 6fps lol.

boxleitnerb
2013-09-22, 10:44:22
Bei AvP ist Bandbreite Trumpf, gerade mit MSAA. Bei Tomb Raider sind es 25% in 1600p mit SSAA, das ist schon ordentlich.

dargo
2013-09-22, 10:46:36
Bei AvP ist Bandbreite Trumpf, gerade mit MSAA.
Davon hat die neue Graka gerade mal lächerliche 11% mehr gegenüber HD7970GE.

AnarchX
2013-09-22, 10:47:12
$650 MSRP? (http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207900&viewfull=1#post5207900)
44 ROPs? (http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207899&viewfull=1#post5207899)
Letzeres vielleicht eine Design-Veränderung in VI?

Angiesan
2013-09-22, 10:47:15
@ Boxi, es war auch nicht böse gemeint, du weißt, dass ich schon alles im Rechner hatte und eigentlich keiner Farbe mehr oder weniger zugeneigt bin.
Aber nur ein funktionierender Wettbewerb garantiert auch angemessene Preise, ich bin mir absolut sicher, NV verdient eckig Geld mit GK110:wink:

@S940, wenn sie mehr Performance rausholen könnten meinst Du nicht auch sie würden es tun? Ich denke das AMD hier das erste mal richtig den Weg von Intel geht und mit Tick und Tock arbeitet, also dann wenn der 20 nm Prozess fertig ist man die GCN 2 auf diesen anwendet mit dann vielleicht nur kleinen Änderungen und höheren Taktraten.

@Fondness: Stimme die 100%, ich denke jedoch das NV die Messlatte schon sehr hoch legt und eigentlich keine offene Flanke bietet, die machen schon beide das was sie am besten können!

fondness
2013-09-22, 10:47:29
Tja, da zeigen sich auch die unterschiedlichen Strategien /Zielmärkte. Nvidia ist bei den Server/HPC-Karten sehr stark. Die gehen schnell mal Karten im 100er Pack weg und dabei kostet eine einzelne schnell mal mehrere Tausend Euro ...

AMD wächst da zwar gerade ziemlich stark, aber das kommt v.a. daher da sie quasi bei 0 anfängt. CUDA ist da schon ein dicker Stein im Brett.

Deshalb ist AMD eher klassisch Spielemarkt orientiert. Dort ist aber die Stückzahl für $999-Karten zu klein. Wer hier im Forum hat nochmal ne Titan? Sind das mehr als 10 Leute?

Da machen $599 schon mehr Sinn. Ein nettes Spielpaket dazu geschnürt und fertig :)

Dann sollen sie wenigstens einen reinen Gaming Chip bauen, aber das machen sie ja nicht. Das 1:2 DP Verhältnis spricht dagegen, damit hätte man auch die überlegene HPC-Karte.

boxleitnerb
2013-09-22, 10:48:32
Davon hat die neue Graka gerade mal lächerliche 11% mehr gegenüber HD7970GE.

Bessere Nutzung? Außerdem ist ja nicht gesagt, das bei der 7970 GE die schon (hart) limitiert hat. Die war schließlich auch keine 50% schneller als die 680, die nur 192 GB/s hat.

@Angiesan:
Klar, Wettbewerb ist toll. Dann kostet die nächste Titan (hoffentlich) auch nicht wieder so einen Haufen Asche, da freu ich mich dann auch.

gedi
2013-09-22, 10:48:43
@boxleitnerb

Ich glaube eher, dass in AvP das breitere Frontend zum Tragen kommt. Die Bandbreite ist ja eher wenig gestiegen. Meiner Meinung sind ein 512-Bit mit entsprechend langsameren Chips dem Verbrauch eher zuträglich als ein 384-Bit Si mit entsprechend schnellen Rams.

dargo
2013-09-22, 10:50:06
Bessere Nutzung?
Was soll man da noch besser nutzen wenn Tahiti schon kaum an der Bandbreite gehangen hat.

fondness
2013-09-22, 10:50:31
Naja, ich finde als "NV-Boy" (:D) schon, dass das Gesamtpaket stimmen muss. Da tust du einigen also Unrecht finde ich. Es kommt sicher immer auf den Einzelfall an, wem was wichtig ist. Aber wenn ich eine so schnelle Karte habe, will ich keine ausgegrauten Optionen sehen oder irgendwelche Features missen. Damit ich das ausblenden kann, müsste die AMD schon 25+% schneller sein.

Also der einzige Hersteller der Features vermissen lässt ist NV, die noch immer bei DX11.0 hängen. Ansonsten unterstützt du damit NVs verfehlte Politik, würde AMD auch so agieren bräuchte man zwei Karten für alles Features.

dildo4u
2013-09-22, 10:50:50
Wobei die Benches eh komisch sind die fps sind viel zu niedrig beim Tomb Raider.

boxleitnerb
2013-09-22, 10:55:03
Was soll man da noch besser nutzen wenn Tahiti schon kaum an der Bandbreite gehangen hat.

Caches, mehr ROPs. Und je mehr Leistung du hast, desto mehr Bandbreite brauchst du auch.

Also der einzige Hersteller der Features vermissen lässt ist NV, die noch immer bei DX11.0 hängen. Ansonsten unterstützt du damit NVs verfehlte Politik, würde AMD auch so agieren bräuchte man zwei Karten für alles Features.

Nein, bei AMD fehlt mir einiges. DS, PhysX, AA-Bits, gefixtes LOD, SLI-Bits, TXAA (je nach Spiel gar nicht so übel). DX11.x interessiert mich erst, wenn es Spiele damit gibt. Ich sag nicht, dass ich die Aufsplittung des Markts gut finde, aber im Moment ist es halt so, und ich will nunmal das vollständigste (für mich) Featureset.

Angiesan
2013-09-22, 10:57:22
Ne die passen wenn man die Schatten auch auf Ultra einstellt und nicht auf Standard stehen lässt, zusammen mit 4xSSAA und TressFX ist das auf keiner SGPU spielbar.

dildo4u
2013-09-22, 10:58:03
Ne die passen wenn man die Schatten auch auf Ultra einstellt und nicht auf Standard stehen lässt, zusammen mit 4xSSAA und TressFX ist das auf keiner SGPU spielbar.
Dort steht nix von SSAA.

boxleitnerb
2013-09-22, 11:00:10
Dort steht nix von SSAA.

In Tomb Raider gibts nix anderes, schon gar nicht MSAA. Das ist einfach falsch beschriftet. Es gibt FXAA und SSAA.

Edit:
Preis liegt angeblich bei 650 USD.
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207900&viewfull=1#post5207900

Angiesan
2013-09-22, 11:01:07
Es geht kein 4xAA bei TR 2013 nur 2xSSAA oder 4xSSAA oder FXAA zu langsam :-)

Edit: Was dann wohl nach den üblichen Einführungspreisen bei runden 500,-- Euro enden dürfte und somit genau wie gedacht die GTX 780 OC Modelle preislich angreifen wird.

S940
2013-09-22, 11:08:23
@S940, wenn sie mehr Performance rausholen könnten meinst Du nicht auch sie würden es tun?
Wozu? Dann hieß es nur wieder "Boaahh .. was für ein Stromverbrauch".
Außerdem rechnen sie sicherlich ebenso wie Du mit ner Ultra-Version seitens NV ... da halten sie ne eigene OC-Version besser noch zurück.
Davon abgesehen ist dafür meistens auch Cherry-Picking bei den Chips notwendig, wofür man zum Markteintritt zuwenig hat. OC-Versionen gibts deshalb immer erst 2-3 Monate nach dem Massenstart, da man erst dann genügend OC-Dies zusammen hat.
Dann sollen sie wenigstens einen reinen Gaming Chip bauen, aber das machen sie ja nicht. Das 1:2 DP Verhältnis spricht dagegen, damit hätte man auch die überlegene HPC-Karte.
Naja, sie wollen ja auch im HPC-Markt Fuß fassen, deswegen kommt da dann so ne Quadratur des Kreises raus. Kompromisse über Kompromisse.
Wenn sie auch bei HPC weniger Strom als die Titan verbraten sollten, hätten sie auch für ne nur leicht schwächere Karte ein gutes Verkaufsargument. Die Karten im HPC laufen schließlich 24/7.

horn 12
2013-09-22, 11:16:20
Preis zu hoch angesetzt, Unter 550 Euro und das Ding geht massig weg!
Nicht übel die Neue Karte falls alles stimmen sollte.
Treiber sind wohl auch noch nicht FINAL bei dem Vorpreview

dildo4u
2013-09-22, 11:17:44
Der Preis stimmt wenn AMD endlich mal was verdienen will.

Angiesan
2013-09-22, 11:19:09
@S940: Genau davon rede ich doch, es ist nicht so das man einfach mal die Zieltaktrate hochschrauben kann, damit erkauft man sich i.d.R. immer einen überproportional steigenden Verbrauch und damit eben auch Abwärme, sicherlich wird es OC Modelle geben, aber auch da wird es interessant sein zu sehen wie AMD das Thema Boost gelöst hat und ob es auch sowas wie TT geben wird PT gibt es ja schon.

dargo
2013-09-22, 11:19:11
Caches, mehr ROPs. Und je mehr Leistung du hast, desto mehr Bandbreite brauchst du auch.

Du hast mich wohl nicht verstanden. Tahiti hängt schon kaum an der Bandbreite, also limitiert diese schon nicht im besagten Spiel. Dass sich die neue Graka dort stärker absetzen kann liegt sicherlich nicht an der höheren Bandbreite dieser.

Blediator16
2013-09-22, 11:25:12
Also ich glaube immernoch nicht an den Weihnachtsmann:rolleyes:

Angiesan
2013-09-22, 11:28:54
:confused:?

boxleitnerb
2013-09-22, 11:32:53
Du hast mich wohl nicht verstanden. Tahiti hängt schon kaum an der Bandbreite, also limitiert diese schon nicht im besagten Spiel. Dass sich die neue Graka dort stärker absetzen kann liegt sicherlich nicht an der höheren Bandbreite dieser.

Es gibt schon Fälle, wo die Bandbreite benötigt wird:
https://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/
Bei AvP ist es ähnlich, dort liegen NV und AMD nicht nur praktisch gleichauf wegen derselben Bandbreite, sondern die Leistung der Karten skaliert auch schön mit jener (z.B. 660 Ti vs 680, Vorsprung in fps entspricht exakt der Bandbreitensteigerung).
Wobei diese AvP-Ergebnisse sehr uncharakteristisch sind, denn wie gesagt liegen NV und AMD hier normalerweise sehr nah zusammen, siehe z.B. hier:
http://hothardware.com/Reviews/GeForce-GTX-Titan-Performance-Yes-It-CAN-Play-Crysis-3/?page=4

fondness
2013-09-22, 11:39:06
Es gibt schon Fälle, wo die Bandbreite benötigt wird:
https://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/

Das Problem an solchen Benchmarks ist das bei reinem heruntertakten die Timings unverändert bleiben und deshalb völlig im Arsch sind.

Blediator16
2013-09-22, 11:40:26
:confused:?

Das hört sich alles viel zu gut an um wahr zu sein. Das kann nie und nimmer stimmen, zumindest der Stromverbrauch:confused:

M4xw0lf
2013-09-22, 11:41:50
Preis liegt angeblich bei 650 USD.
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207900&viewfull=1#post5207900
Hmpf. Naja, vielleicht gibts ja Schnäppchenangebote im Weihnachtsgeschäft...

boxleitnerb
2013-09-22, 11:42:20
Das Problem an solchen Benchmarks ist das bei reinem heruntertakten die Timings unverändert bleiben und deshalb völlig im Arsch sind.

Beleg, dass die Timings eine nennenswerte Auswirkung haben? Es ist jedenfalls ein guter Anhaltspunkt.

Ronny145
2013-09-22, 11:45:11
Du vergleichst Herstellerangaben vs. tatsächliche Messung. Man misst meist mehr als die Hersteller angeben. Die 363mm² bei Tahiti sind aber eine Herstellerangabe. Ich gehe davon aus, dass die 30% vs. GK110 ziemlich genau stimmen werden des AMD Mannes.



Nein, ich vergleiche in Prozenten anhand Tahiti und Hawaii Die Messungen und schlage es dann der Herstellerangabe oben drauf. Das stimmt nicht was du sagst.

fondness
2013-09-22, 11:45:54
Beleg, dass die Timings eine nennenswerte Auswirkung haben? Es ist jedenfalls ein guter Anhaltspunkt.

Offensichtlich macht es dir Spaß von mir immer etwas zu fordern das nachweislich nicht möglich ist...warum auch immer.
Faktum ist das die Speicherlatenzen um 1/3 steigen wenn ich den Takt um 1/3 senke. Würde ich eine Karte mit diesen Speichertakt heraus bringen könnte man wesentlich aggressivere Timings fahren. Wieviel das ausmacht kann nur spekuliert werden, es ist jedenfalls nicht egal und sollte zumindest erwähnt werden.

Nein, ich vergleiche in Prozenten anhand Tahiti und Hawaii Die Messungen und schlage es dann der Herstellerangabe oben drauf. Das stimmt nicht was du sagst.

Laut der Quelle mit den Benchmarks sind es 424mm². Das ist sicherlich wesentlich exakter als deine Methode mit verzerrten Bildern, vermutlich kommt die Angabe sogar direkt von AMD.

boxleitnerb
2013-09-22, 11:49:35
Offensichtlich macht es dir Spaß von mir immer etwas zu fordern das nachweislich nicht möglich ist...warum auch immer.
Faktum ist das die Speicherlatenzen um 1/3 steigen wenn ich den Takt um 1/3 senke. Würde ich eine Karte mit diesen Speichertakt heraus bringen könnte man wesentlich aggressivere Timings fahren. Wieviel das ausmacht kann nur spekuliert werden, es ist jedenfalls nicht egal.

Wer sowas behauptet, muss es eben auch belegen. Das ist dein Problem, nicht meins. Man muss nicht gleich übertrieben und etwas als "völlig im Arsch" zu bezeichnen, wenn man selbst keine harten Daten hast. Diesen Argumentationsstil solltest du mal überdenken.

fondness
2013-09-22, 11:50:47
Wer sowas behauptet, muss es eben auch belegen. Das ist dein Problem, nicht meins. Man muss nicht gleich übertrieben und etwas als "völlig im Arsch" zu bezeichnen, wenn man selbst keine harten Daten hast. Diesen Argumentationsstil solltest du mal überdenken.

Ich habe gesagt die Timings sind im Arsch, nicht mehr und nicht weniger. Und das ist ein Faktum, da gibt es nichts zu belegen. Du forderst irgend welche uneinbringlichen Benchmarks, das ist nicht mehr Problem. Man sollte jedenfalls nicht so tun als würden dort bei den Benchmarks rein der Speicherbandbreitenunterschied abgebildet.

Ronny145
2013-09-22, 11:51:06
Laut der Quelle mit den Benchmarks und den Bildern der Karte sind es 424mm². Das ist sicherlich wesentlich exakter als deine Methode mit verzerrten Bildern, vermutlich kommt die Angabe sogar direkt von AMD.


Bei der Quelle, die 389 mm² für Tahiti angibt? Wo kommen jetzt die 389 mm² her? Sieht nach Blödsinn aus. Das Die ist ohne Zweifel 20% größer, dann müsste das schon ein Fake gewesen sein.

Blediator16
2013-09-22, 11:51:08
http://s10.postimg.org/ckxhxmpd5/290_X.jpg

Vergleicht man die mit dem Koreaner sind sie sich recht ähnlich. Wer hat das bessere Fake?

Angiesan
2013-09-22, 11:52:52
Das hört sich alles viel zu gut an um wahr zu sein. Das kann nie und nimmer stimmen, zumindest der Stromverbrauch:confused:
Lassen wir uns überraschen in 3 Tagen wissen wir mehr.

Hmpf. Naja, vielleicht gibts ja Schnäppchenangebote im Weihnachtsgeschäft...
Das sind ja nach aktuellem Kurs schon nur 480 Euro ist halt jetzt die Frage ob mit oder ohne MwSt, ich fürchte aber ohne ;-).
Sind dann runden 575,-- Euro zum Verkaufsstart.dazu noch 3 Spiele (BF4), würde ich ok finden wenn die Leistung die ist die wir bis jetzt gesehen haben.

fondness
2013-09-22, 11:58:11
Bei der Quelle, die 389 mm² für Tahiti angibt? Wo kommen jetzt die 389 mm² her? Sieht nach Blödsinn aus. Das Die ist ohne Zweifel 20% größer, dann müsste das schon ein Fake gewesen sein.

Möglich wir werden es eh bald erfahren. Im Wahrheit geht es eh nur um wenige mm².

boxleitnerb
2013-09-22, 12:04:27
Ich habe gesagt die Timings sind im Arsch, nicht mehr und nicht weniger. Und das ist ein Faktum, da gibt es nichts zu belegen. Du forderst irgend welche uneinbringlichen Benchmarks, das ist nicht mehr Problem. Man sollte jedenfalls nicht so tun als würden dort bei den Benchmarks rein der Speicherbandbreitenunterschied abgebildet.

Es ist trotzdem immer noch nicht erwiesen, ob das (sehr) relevant ist oder nicht. Und das ist ja wohl die zentrale Frage, denn ohne diese Infos kann man mit der Timing-Geschichte nichts anfangen.

gedi
2013-09-22, 12:11:56
Wenn ich mir die Ergebnisse bei Chiphell so anschaue, dann hat es AMD wohl geschafft die Performance unter MSAA erheblich zu verbessern. Vor allem im Vgl. zu Tahiti

fondness
2013-09-22, 12:13:20
http://s10.postimg.org/ckxhxmpd5/290_X.jpg

Vergleicht man die mit dem Koreaner sind sie sich recht ähnlich. Wer hat das bessere Fake?

Die Werte kommen auf jeden Fall mit dem OC-Bios laut den Daten bei Chiphell...

Fetza
2013-09-22, 12:18:00
Hawaii scheint es echt in sich zu haben. Wenn man mal bedenkt, was amd dort scheinbar noch mit der 28nm technik so leistet. Also der sprung von tahiti zu hawaii scheint ja ungefähr so groß zu sein, wie von fermi (gtx 580) zu kepler (gtx 680).

Kann man anhand der kartenshots und der darauf abgebildeten bohrungslöcher schon absehen, ob sich ein thermal right shaman kühler auf eine hawaii-karte schrauben lassen wird?

fondness
2013-09-22, 12:19:48
Keine Ahnung wie der Kühler genau aussieht, die Löcher sind nicht alle identisch:

http://img694.imageshack.us/img694/3659/i0wx.jpg (http://imageshack.us/photo/my-images/694/i0wx.jpg/)

dildo4u
2013-09-22, 12:21:51
Also wurde mit OC getestet?Sollte die Karte nicht bei 900mhz liegen?

M4xw0lf
2013-09-22, 12:22:59
Keine Ahnung wie der Kühler genau aussieht, die Löcher sind nicht alle identisch:

http://img694.imageshack.us/img694/3659/i0wx.jpg (http://imageshack.us/photo/my-images/694/i0wx.jpg/)

Die um die GPU herum sehen aber schon sehr nach gleichen Abständen aus.

AnarchX
2013-09-22, 12:24:06
Also wurde mit OC getestet?Sollte die Karte nicht bei 900mhz liegen?
Die Frage ist wohl, was dann real in den Benchmarks anlag. Aber bei den Verbrauchswerten, kann man sich wohl auch diese 1,02GHz oder gar mehr erlauben.

fondness
2013-09-22, 12:26:15
Also wurde mit OC getestet?Sollte die Karte nicht bei 900mhz liegen?

Die Karte hat ein Dual-Bios. Man kann zwischen eine Stromspar-Bios und einem OC Bios mit aggresiveren Turbo-Mode wählen.

Der Kerl hat angeblich das Blockdiagramm von AMD gesehen und behauptet 44 SIMDs (2816 ALUs), 176 TMUs, 44 ROPs mit Quad-Frontend, also 11 SIMDs pro Rasterizer.

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207899&viewfull=1#post5207899

dildo4u
2013-09-22, 12:27:18
Hat die Karte kein auto Boost wie NV?

dargo
2013-09-22, 12:33:04
Es gibt schon Fälle, wo die Bandbreite benötigt wird:
https://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/

Du zeigst mir einen Test wo der Reviewer den Speichertakt gravierend senkt und schlussfolgerst daraus, dass die Bandbreite @Default bei Tahiti limitiert. Ist das dein ernst? :| CB wollte da nur ein 256Bit SI simulieren.

S940
2013-09-22, 12:33:20
@S940: Genau davon rede ich doch, es ist nicht so das man einfach mal die Zieltaktrate hochschrauben kann, damit erkauft man sich i.d.R. immer einen überproportional steigenden Verbrauch und damit eben auch Abwärme, sicherlich wird es OC Modelle geben, aber auch da wird es interessant sein zu sehen wie AMD das Thema Boost gelöst hat und ob es auch sowas wie TT geben wird PT gibt es ja schon.
Na worüber reden wir dann? Dass der Stromverbrauch im High-end-Ultrasegment nicht interessierst, schriebst Du doch auch ...

Fetza
2013-09-22, 12:36:47
Keine Ahnung wie der Kühler genau aussieht, die Löcher sind nicht alle identisch:

http://img694.imageshack.us/img694/3659/i0wx.jpg (http://imageshack.us/photo/my-images/694/i0wx.jpg/)

So sieht er aus:

http://www.thermalright.com/products/?act=data&id=164&cat_id=30

Aktuell habe ich ihn auf einer gtx 480. Also von der vorderseite her betrachtet scheint er mir auch zu passen, mal gucken ob man ihn dann später auch mit backplate drauf bekommt, oder die notfalls ablassen muss.

Locuza
2013-09-22, 12:48:05
Der Kerl hat angeblich das Blockdiagramm von AMD gesehen und behauptet 44 SIMDs (2816 ALUs), 176 TMUs, 44 ROPs mit Quad-Frontend, also 11 SIMDs pro Rasterizer.

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207899&viewfull=1#post5207899
Bei 44 ROPs blockt mein Gehirn.

OBrian
2013-09-22, 13:01:53
Die vier Löcher um die GPU herum sind seit Ewigkeiten unverändert identisch. Wenn die genutzt werden, dann paßt der ganz bestimmt, wenn er auch schon auf einer anderen Radeon gepaßt hat.

M4xw0lf
2013-09-22, 13:51:32
Angeblich nur 1125 MHz Speichertakt und somit exakt wieder 288 Gb/s Bandbreite... Sinn? :uponder:
http://www.techpowerup.com/gpuz/ub828/

Gipsel
2013-09-22, 13:52:36
Bei 44 ROPs blockt mein Gehirn.
Da müßten die schon sehr stark intern umgestellt haben, wenig wahrscheinlich.

Duplex
2013-09-22, 13:52:39
@M4xw0lf
Techpowerup ist unseriös.

44 Rops finde ich auch falsch, entweder 50% oder 100% mehr.

(del676)
2013-09-22, 13:53:03
Ich wuerde mich ja GRUEN aergern, haette ich mir eine 0815 Grafikkarte fuer 900€ gekauft. :lol:
Zumindest wenn sich bewahrheitet was an jeder Ecke verlautbart wird.
Die neue AMD teilweise wesentlich schneller, verbraucht weniger UND IST BILLIGER.
Aber ich bin mir sicher, gewisse Angestell..... aehm Forenmember werden trotzdem einen Grund finden, diese Karte schlecht zu reden. ;)

M4xw0lf
2013-09-22, 13:54:59
@M4xw0lf
Techpowerup ist unseriös.
Deren GPU-Z ist jetzt nicht direkt unseriös.

aufkrawall
2013-09-22, 13:55:34
Wer so viel Geld für eine oder sogar mehrere GPUs ausgibt, wird sich wohl kaum über so etwas ärgern.
AMD kann von mir aus 50% billiger sein, ich würds trotzdem nicht kaufen. Und so sehen das viele und warum wurd auch schon x mal erörtert...

Gipsel
2013-09-22, 13:55:43
Angeblich nur 1125 MHz Speichertakt und somit exakt wieder 288 Gb/s Bandbreite... Sinn? :uponder:
http://www.techpowerup.com/gpuz/ub828/
8 ROPs, 384 Shader, 32Bit Busbreite...
Na ob man sich da auf den Takt verlassen kann? Wenn doch, ist das vielleicht irgendeine niedrigere Stromspartaktstufe, in der das Ding gerade war. Ich denke mal, es besteht noch nicht so viel Erfahrung, wie man da die richtigen Taktraten ausliest.

LSSJBroly
2013-09-22, 13:56:13
Angeblich nur 1125 MHz Speichertakt und somit exakt wieder 288 Gb/s Bandbreite... Sinn? :uponder:
http://www.techpowerup.com/gpuz/ub828/


Wie schon gesagt wurde, weniger Leistungsaufnahme und mehr Spielraum für den boost. Allerdings gehe ich eher von 1250 MHz aus, ergo 320 GB/s.

Duplex
2013-09-22, 13:57:16
AMD kann von mir aus 50% billiger sein, ich würds trotzdem nicht kaufen. Und so sehen das viele und warum wurd auch schon x mal erörtert...
Nvidia Fanboys erster Klasse :smile:

(del676)
2013-09-22, 13:58:28
Macht ja nix. Wir wissen ja wer diese Angestellten sind, deren Wortspenden werden gekonnt ignoriert. ;)

Viel wichtigere Frage, wann ist denn (zumindest) der Paperlaunch, mit Reviews?

Gipsel
2013-09-22, 14:00:39
Ich erinnere daran, daß wir uns hier im Volcanic Islands Spekuthread befinden. Irgendwelche AMD vs. nV Grundsatzdiskussionen oder auch Fanboy-Vorwürfe gehören nicht hier her.

Danke.

M4xw0lf
2013-09-22, 14:01:20
8 ROPs, 384 Shader, 32Bit Busbreite...
Gute Argumente ^^

fondness
2013-09-22, 14:01:27
Viel wichtigere Frage, wann ist denn (zumindest) der Paperlaunch, mit Reviews?

Das sollte man wohl spätestens am Mittwoch erfahren...

bHfmM6QYWNM

M4xw0lf
2013-09-22, 14:03:33
Dass jetzt die Bilder auftauchen, spricht ja dafür, dass Testsamples bei den Redaktionen liegen. Die Frage ist, ob AMD schon vollständige Reviews erlaubt.

Skysnake
2013-09-22, 14:03:34
Darum geht es auch nicht wirklich; wuerdest Du zumindest mit etwas DP semiprofessionell herumfuchteln und Hawaii hat tatsaechlich ein 1:2 Verhaeltnis laege Dein Titan schon seit langem auf ebay zum Verkauf um die Finger auf Hawaii zu legen ;)
Wenn das Ding wirklich 1:2 DP:SP hat, dann wird rein von Compute her die K20x in der Luft zerrissen :freak:

Was für nVidia noch sprechen kann, worüber man auch nicht groß diskutieren kann ist halt RDMA. Da muss AMD dringend nachlegen. Das MUSS! von denen auch unterstützt werden!

Wenn Sie dann aber endlich auch noch globale Sync bringen, die performant sind, dann hat nVidia echt ein Problem. Da gibts außer "alte" eher bestehende Software eigentlich keinen Grund mehr für Sie.

Tja, da zeigen sich auch die unterschiedlichen Strategien /Zielmärkte. Nvidia ist bei den Server/HPC-Karten sehr stark. Die gehen schnell mal Karten im 100er Pack weg und dabei kostet eine einzelne schnell mal mehrere Tausend Euro ...

AMD wächst da zwar gerade ziemlich stark, aber das kommt v.a. daher da sie quasi bei 0 anfängt. CUDA ist da schon ein dicker Stein im Brett.

Deshalb ist AMD eher klassisch Spielemarkt orientiert. Dort ist aber die Stückzahl für $999-Karten zu klein. Wer hier im Forum hat nochmal ne Titan? Sind das mehr als 10 Leute?

Da machen $599 schon mehr Sinn. Ein nettes Spielpaket dazu geschnürt und fertig :)
nVidia muss sich aber schon jetzt massiv umschauen. Im HPC-Bereich mussten Sie schwer Federn lassen, XeonPhi drängt sich immer mehr auf, hat viel mehr RAM, braucht keine extra API wie mit CUDA/OpenCL usw usw. Zudem ist XeonPhi billiger als K20x.

nVidia muss sich da echt! lang machen, wenn AMD mit 1:2 DP:SP daher kommt. Da gibt es dann echt nicht mehr viel, was für Sie spricht. Und das wird so manchen, er noch an nVidia fest hält auch wachrütteln, in welche Abhängigkeit man sich mit CUDA begibt.

Du hast mich wohl nicht verstanden. Tahiti hängt schon kaum an der Bandbreite, also limitiert diese schon nicht im besagten Spiel. Dass sich die neue Graka dort stärker absetzen kann liegt sicherlich nicht an der höheren Bandbreite dieser.
Wayne Games.....

Bei GPGPU hat man nie zu viel Bandbreite :( Und wenn Hawaii 1:2 DP:SP hat, dann ist das einfach ein Computemonster! :biggrin:

Gipsel
2013-09-22, 14:06:37
Die 1:2 DP würde ich momentan aber noch mit einem dicken Fragezeichen versehen.

Duplex
2013-09-22, 14:21:55
Die 1:2 DP würde ich momentan aber noch mit einem dicken Fragezeichen versehen.
Aufgrund der spekulierten Chipfläche?

dargo
2013-09-22, 14:31:25
Angeblich nur 1125 MHz Speichertakt und somit exakt wieder 288 Gb/s Bandbreite... Sinn? :uponder:
http://www.techpowerup.com/gpuz/ub828/
Da sind so viele Fehler drin, dass es schon weh tut. Wer sagt, dass die Taktraten überhaupt richtig ausgelesen werden wenn der Rest schon Müll ist?


Wayne Games.....

Wayne non Games... :rolleyes:

Blackhand
2013-09-22, 14:36:17
Bei der Chipfläche wären extra DP Transistoren beachtlich. Ich spekulier mal folgendes: AMD bringt dort nur 1:16 DP:SP und bringt auf GCN 2.0 ein komplettes Lineup raus um dann relativ frühzeitig ein neues Highendmodell auf Basis von 20nm mit DP rauszubringen. Das komplette 20nm Lineup dauert aber, da es sich preislich erstmal nicht lohnt, die 28er abzulösen.

AnarchX
2013-09-22, 14:39:34
Bei 44 ROPs blockt mein Gehirn.
Da müßten die schon sehr stark intern umgestellt haben, wenig wahrscheinlich.
Vielleicht übernehmen nun die CUs einen Teil der ROP-Funktionen, das könnte Platz sparen gegenüber herkömmlichen ROPs und man hätte eine verbesserte Programmierbarkeit, welche wiederrum diverse Custom-AA-Modi erlauben könnte.

Bei 2816SPs (mit Half-Rate-DP) @430mm² gibt es vielleicht noch ein paar Überraschungen bezüglich Umsetzung der 3D-Funktionen.

Duplex
2013-09-22, 14:39:54
Wenn die 420mm² Fläche zutreffen, dann kann AMD sogar 1 Jahr später eine 3. Generation in 28nm mit 550mm² rausbringen, aber nur wenn sich der 20nm Prozess verzögert.

fondness
2013-09-22, 14:55:46
Auch videochards "bestätigt" die eben genannten Specs mit 2816 ALUs, 44ROPs, 176 TMUs:
http://videocardz.com/45837/amd-hawaii-gpu-2816-stream-processors

mboeller
2013-09-22, 14:59:27
Um ehrlich zu sein halte ich das für Geschwafel. Entweder er meint mit neuem Fertigungsprozess - dann wäre es nichts Besonderes. Oder er meint nur die Architektur. Und das ist mMn nicht möglich.


Wieso, geht doch super "einfach". 1/4 DP -> 1/2 DP bei gleichem Verbrauch...


Apropos 1:2 DP; das wäre doch schon ein massiver Umbau, oder? Also nicht GCN 1.1 sondern GCN 2.0?

AnarchX
2013-09-22, 15:00:37
Apropos 1:2 DP; das wäre doch schon ein massiver Umbau, oder? Also nicht GCN 1.1 sondern GCN 2.0?
Half-Rate-DP wurde doch schon in den ersten GCN-Beschreibungen erwähnt.

dargo
2013-09-22, 15:00:47
Auch videochards "bestätigt" die eben genannten Specs mit 2816 ALUs, 44ROPs, 176 TMUs:
http://videocardz.com/45837/amd-hawaii-gpu-2816-stream-processors
Die schreiben doch momentan bestimmt auch nur ab und reimen sich was zusammen. Wo haben die eigentlich die 389mm² von Tahiti her?

Skysnake
2013-09-22, 15:15:07
Die 1:2 DP würde ich momentan aber noch mit einem dicken Fragezeichen versehen.
Deswegen schreibe ich ja im Konjungtiv ;)

Bei der Chipfläche wären extra DP Transistoren beachtlich. Ich spekulier mal folgendes: AMD bringt dort nur 1:16 DP:SP und bringt auf GCN 2.0 ein komplettes Lineup raus um dann relativ frühzeitig ein neues Highendmodell auf Basis von 20nm mit DP rauszubringen. Das komplette 20nm Lineup dauert aber, da es sich preislich erstmal nicht lohnt, die 28er abzulösen.
1:16 kannste knicken. Entweder 1:4 oder 1:2.

AMD braucht mindestens 1:4, ansonsten kannste das Ding nicht im HPC-Bereich bringen, und da steht AMD zwar mit der S1000 nicht schlecht da, aber man braucht durchaus was Neues, um sich eben von denen wirklich absetzen zu können.


Apropos 1:2 DP; das wäre doch schon ein massiver Umbau, oder? Also nicht GCN 1.1 sondern GCN 2.0?
Nein, das wäre kein massiver Umbau. AMD hat das von Anfang an eingeplant und auch in ihren Tech-Doks erwähnt.

im Prinzip muss man ja "nur" die ALUs entsprechend anpassen.

Ailuros
2013-09-22, 15:23:59
Auch videochards "bestätigt" die eben genannten Specs mit 2816 ALUs, 44ROPs, 176 TMUs:
http://videocardz.com/45837/amd-hawaii-gpu-2816-stream-processors

Apropos ROPs:

http://semiaccurate.com/forums/showpost.php?p=195315&postcount=62

------------------------------------------------------------------------------------------------

Ich gehe uebrigens das 1:2 Risiko gerne ein, egal ob ich damit auf die Nase falle, Monsieur Gipsel et Monsieur Skysnake :P

Leonidas
2013-09-22, 16:13:45
Auch videochards "bestätigt" die eben genannten Specs mit 2816 ALUs, 44ROPs, 176 TMUs:
http://videocardz.com/45837/amd-hawaii-gpu-2816-stream-processors


Bezieht sich alles auf dieselbe Quelle.


Kritische Punkte:
44 ROPs?
nur 2250 oder 2500 MHz Speichertakt - arg unwahrscheinlich, hier im Forum wurden 2750 MHz genannt

fondness
2013-09-22, 16:18:18
Bezieht sich alles auf dieselbe Quelle.


Kritische Punkte:
44 ROPs?
nur 2250 oder 2500 MHz Speichertakt - arg unwahrscheinlich, hier im Forum wurden 2750 MHz genannt

Die Taktraten dürfte mit 900 Base und 1020 Turbo relativ fix sein (OC-Bios). Bzw. 1125 Base und 1250 Turbo beim Speichertakt. Immerhin kamen die von dem Typen der die Benchs geliefert hat.

StefanV
2013-09-22, 16:18:21
nur 2250 oder 2500 MHz Speichertakt - arg unwahrscheinlich, hier im Forum wurden 2750 MHz genannt
Hä?! Also 2250MHz werdens mit Sicherheit nicht sein und mehr noch weniger!

Selbst bei dem 'High Frequency Interface' von Tahiti ist bei 1500MHz schluss!

S940
2013-09-22, 16:19:03
nVidia muss sich aber schon jetzt massiv umschauen. Im HPC-Bereich mussten Sie schwer Federn lassen, XeonPhi drängt sich immer mehr auf, hat viel mehr RAM, braucht keine extra API wie mit CUDA/OpenCL usw usw. Zudem ist XeonPhi billiger als K20x.
Jupp Intel stellt sich sicher auch gut auf, die haben wie nvidia ja auch (wahrscheinlich noch bessere) Softwaretools und dann wie Du schon sagst x86 ... da könnte AMD fast auf der Strecke bleiben, wenn der HSA-Motor nicht rechtzeitig anläuft ...
Und das wird so manchen, er noch an nVidia fest hält auch wachrütteln, in welche Abhängigkeit man sich mit CUDA begibt.
Naja, Cuda heißt Programmierer und Programmierer bedeutet menschliche Wesen und die sind faul. Solange es nicht *den* Riesenvorteil gibt werden sie wohl bei NV bleiben.

Wenn die 420mm² Fläche zutreffen, dann kann AMD sogar 1 Jahr später eine 3. Generation in 28nm mit 550mm² rausbringen, aber nur wenn sich der 20nm Prozess verzögert.
Lol, ja das wär cool, wäre dafür ^^
20nm soll ja sowieso teuer werden, also wieso nicht mal wieder nen Super-Riesenchip?
Ich gehe uebrigens das 1:2 Risiko gerne ein, egal ob ich damit auf die Nase falle, Monsieur Gipsel et Monsieur Skysnake :PWas für ein "Risiko" denn? Um was wird gewettet? Musst Du vom 10m Turm in ne Regentonne springen, wenns kein 1:2 wird? ;D

M4xw0lf
2013-09-22, 16:19:30
Hä?! Also 2250MHz werdens mit Sicherheit nicht sein und mehr noch weniger!

Selbst bei dem 'High Frequency Interface' von Tahiti ist bei 1500MHz schluss!
Pssst... doppelt gezählt - 2250=1125 ;)

Ailuros
2013-09-22, 16:22:59
Was für ein "Risiko" denn? Um was wird gewettet? Musst Du vom 10m Turm in ne Regentonne springen, wenns kein 1:2 wird? ;D

Och sie wollen beide noch nicht an 1:2 so richtig glauben oder wohl eher sie glauben es erst wenn sie es sehen. Ich bin etwas romantischer diesbezueglich aber auch nicht so daemlich von einem 10m Turm in eine Regentonne zu huepfen; Schokoladenbesen im allerbesten Fall :P

-------------------------
***edit: was spricht jetzt genau gegen 1250MHz GDDR5 auf Hawaii?

Nakai
2013-09-22, 16:24:02
Hui, Hawaii zeigt seine Zähne. Also bei 512Bit SI sind auch die restlichen Daten ziemlich in die Höhe geschossen, davon kann man ausgehen. Speichertakt wird niedriger sein, als bei Tahiti, um den Energieverbrauch einzudämmen und die Diesize klein zu halten. Wie war das nochmal mit Pitcairn SI? Pro 128Bit PHY SI, etwa 10mm²? Tahiti hatte 20mm². Da würde man schon um die 20mm² sparen.
Mhh, wieviel passt in 100mm² rein? Denn das ist der eigentlich Flächenzuwachs von Tahiti auf Hawaii.

Eine CU von Tahiti schluckt 5,5mm². Hawaii hat ~8-12CUs mehr, was etwa 66mm² sind. Ein paar mehr ROPs und doppeltes Frontend passen auch rein. Ja, da sind mindestens 2560SPs drin. Falls der Chip wirklich nur 2560SPs hat, dann sind DP 1:2 gar nicht mal so unwahrscheinlich.

Skysnake
2013-09-22, 16:26:25
Jupp Intel stellt sich sicher auch gut auf, die haben wie nvidia ja auch (wahrscheinlich noch bessere) Softwaretools und dann wie Du schon sagst x86 ... da könnte AMD fast auf der Strecke bleiben, wenn der HSA-Motor nicht rechtzeitig anläuft ...
Naja, Cuda heißt Programmierer und Programmierer bedeutet menschliche Wesen und die sind faul. Solange es nicht *den* Riesenvorteil gibt werden sie wohl bei NV bleiben.

Ähm ja... Und deswegen wollen Sie eigentlich auch gar kein CUDA :ugly:

Gibt schon genug Leute die überhaupt gescheit parallel programmieren können auf dem Niveau, und dann noch CUDA/OpenCL dazu. Das Hauptargument ist aber echt die schnelle Portierbarkeit auf XeonPhi UND die ganzen x86 Tools, die man halt nutzen kann. Das ist wirklich ein gewaltiger Vorteil.

Debuggen und Profiling auf der GPU ist ein GRAUS! im Vergleich zu x86. Da gibts einfach unmengen an nützlichen Tools usw usw.


Ich gehe uebrigens das 1:2 Risiko gerne ein, egal ob ich damit auf die Nase falle, Monsieur Gipsel et Monsieur Skysnake :P
Ich bin mir auch ziemlich sicher, das 1:2 kommt. Das wäre total behämmert, wenn die kein 1:2 bringen würden bei so nem SI, aber AMD hat in der Vergangenheit schon hin und wieder mal nen Bock geschossen... Und bei den paar Tagen bis wir es sicher wissen, braucht man sich nicht groß aus dem Fenster lehnen :tongue:

Zu 99% bin ich aber auch von 1:2 überzeugt.

StefanV
2013-09-22, 16:32:16
Die Frage ist doch auch: Wieviel würde 1:2 gegenüber 1:4 denn kosten? Also in Fläche...

Und da Hawaii auch nach 'nem 2. R300 ausschauen könnte, würd ich auch eher auf 1:2 denn 1:4 tippen. Das Teil ist einfach gebaut, um nV mal so a bisserl in die Schranken zu weisen...

Wenn man jetzt Verschwörungstheoretiker wäre, könnte man ja auch die These aufstellen, dass Hawaii eigentlich als Tahiti geplant wurde, aber irgendwie verschoben worden ist, weil mans nicht brauchte. Gut, bisserl arg an den Haaren herbei gezogen.
Aber 'ne kleine Verschwörungstheorie muss ja auch mal sein :D

Ailuros
2013-09-22, 17:08:47
http://www.fudzilla.com/home/item/32576-amd-hawaii-got-nvidia%E2%80%99s-attention

Nichts Neues...

Godmode
2013-09-22, 19:29:25
So wie es jetzt wieder ist, werden die Hardcore User das wieder mit OC ihrer GK110 rechtfertigen und auf einmal ist der Stromverbrauch in dieser Klasse nicht mehr wirklich wichtig ;-)


Ich bin echt der letzte der wegen dem Stromverbrauch jammert, war mir von Anfang an egal. Meine Titans laufen immer schon mit 1.2v und 1163 MHz. Ich habe mich auf auf den Centurion gefreut, allerdings hatte der dann deutlich zu wenig Leistung.


Dann werden wieder die nerdigen Dinge wie AA Bits, 3D, PhysiX in die Schlacht geworfen und schon weiß der NV Boy warum er dann doch 350,-- Euro mehr für eine Titan -Ultra blechen will:freak: Und wenn selbst das alles nichts bringt dann braucht man die Leistung ja auch gar nicht zur Zeit, mehr wie 4xSSAA bringt eh keinen IQ Mehrgewinn und für alles andere gibt es ja dann wieder die einzig funktionierende MGPU Lösung SLI:freak::D

Solange AMD nicht mal einen richtigen Hammer auspackt wird das nix, leider!

Trotzdem wird ein Vulkanchen in meinem PC Platz nehmen:biggrin:

Also das hast du ganz gut erkannt. AA Bits, 3D und MGPU sind mir sehr wichtig. PhysiX hingegen ist mir egal, da eh fast nirgendwo gut implementiert.

fondness
2013-09-22, 19:37:04
Half-Rate-DP wurde doch schon in den ersten GCN-Beschreibungen erwähnt.

Man könnte es auch so sehen: NV hat nicht ohne Grund den neuen MacPRO an AMD verloren. Dieser soll praktischerweise Ende des Jahres kommen und wird deshalb mit hoher Wahrscheinlichkeit auf Hawaii setzen. Apple wird dafür mit Sicherheit gute Gründe gehabt haben.....

ShadowXX
2013-09-22, 20:06:05
Man könnte es auch so sehen: NV hat nicht ohne Grund den neuen MacPRO an AMD verloren. Dieser soll praktischerweise Ende des Jahres kommen und wird deshalb mit hoher Wahrscheinlichkeit auf Hawaii setzen. Apple wird dafür mit Sicherheit gute Gründe gehabt haben.....
Ja, AMD ist billiger als nVidia.

Ailuros
2013-09-22, 20:11:36
Ja, AMD ist billiger als nVidia.

Das was Du als Verbraucher als Preis siehst hat ueberhaupt nichts mit diesen Preisen zu tun. Wenn dem so waere haette NV nie einen deal bei Apple gelandet.

fondness
2013-09-22, 20:15:30
Ja, AMD ist billiger als nVidia.

Achso und wenn man NV verbaut natürlich weil sie besser sind, was für eine Logik. Wenn du glaubst das irgend wer bei Apple sonderlich Gewinn macht hast du dich gewaltig geirrt. Und im MacPRO verbaut Apple sicherlich nicht die zweitbeste Lösung. Eine 1:2 DP Rate wäre schon mal ein verdammt guter Grund.

2phil4u
2013-09-22, 20:16:05
Mal eine Frage zum Speicher.
Wäre der in der Lage 3500 mhz zu schaffen bei entsprechender Spannung ?

Mit guter Wasserkühlung ist sicher einiges drin, da hilft dann auch keine Titan Ultra, die dann ja noch mehr verbraucht.

Ailuros
2013-09-22, 20:18:43
Mal eine Frage zum Speicher.
Wäre der in der Lage 3500 mhz zu schaffen bei entsprechender Spannung ?

Mit guter Wasserkühlung ist sicher einiges drin, da hilft dann auch keine Titan Ultra, die dann ja noch mehr verbraucht.

Kommt drauf was fuer Speicher AMD verbaut hat; aber wenn Du schon zu so teuren Experimenten aufgelegt bist, bitte ein video aufnehmen wie lange es die GPU aushalten wird bevor es knallt :D

Sunrise
2013-09-22, 20:27:31
...Und im MacPRO verbaut Apple sicherlich nicht die zweitbeste Lösung. Eine 1:2 DP Rate wäre schon mal ein verdammt guter Grund.
Ich habe vorher schon versucht, da was rauszulesen, aber laut der Apple-Präsentation sah das eher nach Tahiti Workstation aus. Allerdings ist es auch möglich, dass Apple den Hawaii kastriert um mehr Strom zu sparen und mit niedrigerer Frequenz zu fahren die in diesem sehr engen Design noch kühlbar ist.

Angiesan
2013-09-22, 20:43:45
Ich bin echt der letzte der wegen dem Stromverbrauch jammert, war mir von Anfang an egal. Meine Titans laufen immer schon mit 1.2v und 1163 MHz. Ich habe mich auf auf den Centurion gefreut, allerdings hatte der dann deutlich zu wenig Leistung.



Also das hast du ganz gut erkannt. AA Bits, 3D und MGPU sind mir sehr wichtig. PhysiX hingegen ist mir egal, da eh fast nirgendwo gut implementiert.
Ach komm, du weißt ganz genau das ich weder dich noch Boxleitnerb oder Blaire damit angesprochen habe, das ist Leidenschaft!
Ich schiele dabei mehr in ein anderes Forum und andere User wo die Basherei ja schon losgeht ehe die Karte auf dem Markt ist:freak:

Das bei deinem Setup bzw deinem alten Setup der Stromverbrauch egal ist, ist klar, solange man keine schnellere CPU kaufen kann, kann dir eine GPU die 10% schnelle ist auch am Popo vorbeigehen das kommt eh nicht mehr an und wenn spürt man es einfach nicht mehr dann spielen wirklich andere Sachen eine Rolle.:wink:
Ich guck mir das Ding auf alle Fälle an und entscheide dann ob es gut ist oder nicht so wie ich es immer mache. Im schlimmsten Fall hat mal wieder ein Anderer hier im Forum den Vorteil eine High End GPU zum Schnappi-Preis zu bekommen, ich bin einfach ein guter Mensch und bereite anderen gerne eine Freude:freak::biggrin:

Raff
2013-09-22, 21:16:38
Mal eine Frage zum Speicher.
Wäre der in der Lage 3500 mhz zu schaffen bei entsprechender Spannung ?

Mit guter Wasserkühlung ist sicher einiges drin, da hilft dann auch keine Titan Ultra, die dann ja noch mehr verbraucht.

Viele, aber längst nicht alle 6-Gbps-Chips schaffen 3.500 MHz. Ausnahmen stemmen sogar 3.700 bis 3.800 MHz stabil. Wenn der Controller innerhalb der GPU wie auch die installierten Chips gut sind, wird das schon laufen.

MfG,
Raff

Skysnake
2013-09-22, 21:26:33
Und genau da hätte ich bei dem recht kleinen DIE so meine Bedenken...

Irgendwo muss man bei so nem "kleinen" DIE auch mal abstriche machen, und wenn ich schon nen 512 BIt Interface baue, welches ich mit niedrigen Taktraten betreiben will, dann wäre das so ziemlich das Erste.

Zergra
2013-09-22, 21:30:23
Und genau da hätte ich bei dem recht kleinen DIE so meine Bedenken...

Irgendwo muss man bei so nem "kleinen" DIE auch mal abstriche machen, und wenn ich schon nen 512 BIt Interface baue, welches ich mit niedrigen Taktraten betreiben will, dann wäre das so ziemlich das Erste.
Sollen doch auch Low Voltage Speicher sein oder ?

M4xw0lf
2013-09-22, 22:47:40
Viele, aber längst nicht alle 6-Gbps-Chips schaffen 3.500 MHz. Ausnahmen stemmen sogar 3.700 bis 3.800 MHz stabil. Wenn der Controller innerhalb der GPU wie auch die installierten Chips gut sind, wird das schon laufen.

MfG,
Raff
Wenn Hawaii aber nur 5 oder 5,5gbps-Speicher bekommt, sind 3500 Mhz doch leicht out of range ;)

Nightspider
2013-09-23, 00:32:58
Vielleicht sind dank fortgeschrittenen 28nm Prozess sogar 1,2- 1,3Ghz Chipsatkt mit Wakü möglich. :D

Skysnake
2013-09-23, 00:46:30
Oder vielleicht auch nur 1,1 GHz, weil man die Signallaufzeiten mehr am limit plant, da man den Prozess sehr gut kennt usw. um eben den Verbrauch bei Standardtakt niedrig zu halten und eben eine möglichst kleine DIE-Size zu haben...

Apriori kann niemand sagen, ob sich der Chip besser oder schlechter takten lassen wird.

Felixxz2
2013-09-23, 04:13:08
Nochmal kurz zur Leistung:

Eine Titan ist ja 40% schneller als ne normale 7970 (925mhz). Man nimmt mal an, dass Hawaii den selben Takt hat (~900-950Mhz), etwaige boosts außen vor gelassen.

Hawaii wird wohl entweder 2560 oder 2816 Shader haben, also entweder 25% oder 37,5% mehr. Je nachdem wie viel % das Frontend, die ROPs oder das Interface bringen oder auch Architekturverbesserungen, liegt man also bei selben Takt mindestens 25%, aber durchaus auch über 50% über Tahiti bei selben Takt.

Ergo wird man ja wohl mit 2560 Shadern auf Titanniveau kommen, mit 2816 aber auch deutlich drüber, wenn man mal von 10-20% Mehrleistung pro Shader ausgeht.

Oder sind die 10-20% durch Quad Frontend, mehr ROPs und mehr Bandbreite zu viel?

StefanV
2013-09-23, 04:35:08
Oder vielleicht auch nur 1,1 GHz, weil man die Signallaufzeiten mehr am limit plant, da man den Prozess sehr gut kennt usw. um eben den Verbrauch bei Standardtakt niedrig zu halten und eben eine möglichst kleine DIE-Size zu haben...
Unwahrscheinlich, weil das
a) OC Versionen von Herstellern eindämmen würde (kann nicht in AMDs Interesse sein)
b) man so auch nicht 'nachlegen' könnte, wenn nV mit 'ner Titan Ultra kommt.

Gut, bei der 7970GHZ Edition ist das höchste der Gefühle auch nur 1150MHz (bei MSI, Boost Takt) bzw 1650MHz Speicher bei ASUS.

Allerdings: von der 'normalen' 7970 gibts hingegen 'ne latte von Karten (http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7970%7E140_1000#xf_top), die nahe an der GHz Edition dran war. Die schnellste hat 1070MHz Core Takt und 1400 MHZ Speicher. 1450MHz Speicher ist das höchste der Gefühle (Sapphire)

Apriori kann niemand sagen, ob sich der Chip besser oder schlechter takten lassen wird.
Richtig, aber wie gut der Chip geht, werden wir auch bald wissen.

Ich gehe aber einfach mal davon aus, dass der Chip Powerlimited sein wird. Sprich mit Stock Kühlern vielleicht 100-150MHz mehr, mit Wasser dann noch mal 100-200MHz mehr - wie bei anderen modernen High End Karten auch.

Knuddelbearli
2013-09-23, 05:49:11
? 7970 gehen doch auf über 1200* rauf, teilweise sogar stark Richtung 1300 mit dicker wakü, also ca 100 MHz mehr als Titan ( gute Exemplare mit ordentlicher wakü und Mod bios schaffen knapp 1200MHz ) und unter Boost scheint AMD auch 100MHz höher als Titan zu takten.

*1200MHz gibt es sogar zu kaufen mit der Toxic

Ist halt die frage ob die, sehr wahrscheinlich, höhere Packdichte das OC verschelchter

boxleitnerb
2013-09-23, 07:29:01
Titan boostet bis zu 1 GHz, wenn man ihn lässt - praktisch genauso hoch wie die 290X mit diesem Turbo-Bios.

Knuddelbearli
2013-09-23, 07:40:53
also ist oc dann sogar AMD schneller? ok wenn du das sagst ^^

Wenn ich das sagen würden würde ich von den üblichen verdächtigen sicher böse angeschaut werden ^^

john carmack
2013-09-23, 08:27:30
Wenn ne Titan Ultra kommt könnte AMD eine Hawaii Ghz bringen wenn man sich die Taktraten heute anschaut ;)

V2.0
2013-09-23, 08:36:17
Nochmal kurz zur Leistung:

Eine Titan ist ja 40% schneller als ne normale 7970 (925mhz). Man nimmt mal an, dass Hawaii den selben Takt hat (~900-950Mhz), etwaige boosts außen vor gelassen.

Hawaii wird wohl entweder 2560 oder 2816 Shader haben, also entweder 25% oder 37,5% mehr. Je nachdem wie viel % das Frontend, die ROPs oder das Interface bringen oder auch Architekturverbesserungen, liegt man also bei selben Takt mindestens 25%, aber durchaus auch über 50% über Tahiti bei selben Takt.

Ergo wird man ja wohl mit 2560 Shadern auf Titanniveau kommen, mit 2816 aber auch deutlich drüber, wenn man mal von 10-20% Mehrleistung pro Shader ausgeht.

Oder sind die 10-20% durch Quad Frontend, mehr ROPs und mehr Bandbreite zu viel?

10-20% ist konservativ geschätzt.

Duplex
2013-09-23, 10:20:09
Vielleicht sind dank fortgeschrittenen 28nm Prozess sogar 1,2- 1,3Ghz Chipsatkt mit Wakü möglich. :D
Das ist bereits bei der HD7970 möglich.

fondness
2013-09-23, 10:53:03
LOL:

With all the leaks surround the next-gen GPUs from AMD we figured that it would be best to go straight to AMD and ask if they had any info they wanted to share. They kindly declined to share any details on the upcoming AMD Hawaii GPU that will power the AMD Radeon R9 290X video card, but did share an image exclusively with Legit Reviews of their GPU Tech Day Command Center. The photo shows some of the PR team working on Sunday to get ready for the international press briefing about Hawaii based GPU products that will be taking place this week in beautiful Hawaii!


http://www.legitreviews.com/amd-shares-photo-of-the-gpu-tech-day-command-center-ready-to-launch-hawaii-gpus_124633#PbqB43DUs1qmOcGB.99

http://img266.imageshack.us/img266/9208/1f00.jpg (http://imageshack.us/photo/my-images/266/1f00.jpg/)

Und noch ein nettes Foto:
https://twitter.com/AMDRadeon/status/381942285732036608/photo/1

http://img42.imageshack.us/img42/1299/7cca.jpg (http://imageshack.us/photo/my-images/42/7cca.jpg/)

Pick
2013-09-23, 11:00:05
Wenn ne Titan Ultra kommt könnte AMD eine Hawaii Ghz bringen wenn man sich die Taktraten heute anschaut ;)

Titan Ultra vs 290X Titanium (44 + 2 CUs activated, 44 + 20 ROPs activated, 6-7GHz GDDR5) :wink:

HOT
2013-09-23, 11:02:30
Wenn ne Titan Ultra kommt könnte AMD eine Hawaii Ghz bringen wenn man sich die Taktraten heute anschaut ;)
Da kommt keine Titan "ultra". Maxwell steht doch kurz bevor.

Eggcake
2013-09-23, 11:05:07
@fondness
Das Bild könnte von Crysis stammen :ugly:

AnarchX
2013-09-23, 11:06:39
Da kommt keine Titan "ultra". Maxwell steht doch kurz bevor.

Welcher Maxwell? Der geheime 28nm Chip, der noch 2013 kommen soll oder die 20nm Maxwell, die man nicht vor H2/2014 sieht?:D
Im Endeffekt sollte es für NV wohl kein Problem sein eine Performance-Antwort auf GK110-Basis zu formulieren. Mit 7Gbps GDDR5 könnte man wohl auch ähnliche Bandbreiten wie Hawaii@~5Gbps erreichen.

Skysnake
2013-09-23, 11:06:52
"kurz" in nem halben bis dreiviertel Jahr :ugly:

StefanV
2013-09-23, 11:16:51
Welcher Maxwell? Der geheime 28nm Chip, der noch 2013 kommen soll oder die 20nm Maxwell, die man nicht vor H2/2014 sieht?:D
Im Endeffekt sollte es für NV wohl kein Problem sein eine Performance-Antwort auf GK110-Basis zu formulieren. Mit 7Gbps GDDR5 könnte man wohl auch ähnliche Bandbreiten wie Hawaii@~5Gbps erreichen.
Problem ist nur, dass der Hawaii dann wohl deutlich sparsamer sein würde ;)

Und ist der große Hawaii denn auch 'nen Salvage Part oder hat der alles, was vorhanden ist, an?

Duplex
2013-09-23, 11:25:27
Da kommt keine Titan "ultra". Maxwell steht doch kurz bevor.
Wozu Maxwell? Wer braucht das? Im Profi Markt hat man mit GK110 sehr hohe Margen.
Im Desktop Markt braucht man nur ein GK110-Vollausbau mit 10% mehr Boost bringen.
GTX785 mit 2688 Shader für 500-550 € ist auch noch möglich!

Maxwell sollte man erst bringen wenn der 20nm Prozess reif geworden ist, dann kann man 50-80% mehr Performance zeigen!
Ein 28nm Maxwell ist total uninteressant, zu welchem Preis?

fondness
2013-09-23, 11:47:11
Keine Ahnung wie glaubwürdig der Typ noch ist, hat in den letzten Wochen genug Blödsinn abgelassen, aber:

Branded sample R9 290X arrived at our office! Photos, info a details only thru PM! No NDA signed, but it is branded, have to be carefull!

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5208056&viewfull=1#post5208056

Sieht auf jeden Fall so aus als wäre ein "echter" Launch näher als gedacht, nachdem ja auch bereits Bilder der Karte und Benchmarks aufgetaucht sind.

Thunder99
2013-09-23, 11:57:05
nvidia kann nur gleichziehen aber nicht mehr die totale Performance Krone für mind. ein halbes Jahr haben (einzelne Titel ausgenommen)

Jetzt muss AMD nur noch schaffen nachhaltig mehr Marktanteile zu sichern und sie sind wieder auf Augenhöhe mit nvidia. Hat ja damals nicht so geklappt mit der HD7xxx Serie :(

Knuddelbearli
2013-09-23, 12:03:09
zu vergönnen wärs ihnen aber da müssten sie wohl RadeonPro massiv pushen

Knacki99
2013-09-23, 12:08:17
Eben. Fragt sich nur ob Nvidia Hightech Maxwell preislich attraktiv positioniert...

Rampage 2
2013-09-23, 12:09:01
Sorry, dass ich evtl. eine Frage stelle, die evtl. schon beantwortet wurde, aber:

Welche Specs (auch rein spekulativ) hat eine Curacao im Vollausbau? Und kann sie genug Performance haben, damit es bei Nvidia zu deutlichen Preissenkungen kommt (bei GTX 760, 770)?

R2

AnarchX
2013-09-23, 12:10:26
Die von Leonidas spekulierte Performance im Rahmen der HD 7950 könnte für die R9-270X durchaus passen.

Wozu Maxwell? Wer braucht das? Im Profi Markt hat man mit GK110 sehr hohe Margen.
Im Desktop Markt braucht man nur ein GK110-Vollausbau mit 10% mehr Boost bringen.
GTX785 mit 2688 Shader für 500-550 € ist auch noch möglich!

Als Übergangslösung, falls 20nm nicht so erfolgreich ist?
Ein 28nm-GM104 mit +30% Die-Size und vielleicht + ~20% IPC gegenüber GK104, könnte durchaus in interessante Regionen vorstoßen, ohne dabei im Profimarkt GK110 zu bedrohen.

Duplex
2013-09-23, 12:11:45
Wenn die Leistungsaufnahme nicht das Problem wäre, dann könnte AMD bei 550mm² nochmal 12 CUs drauflegen, dann hätte man 3584 Shader (56 CUs).
Vielleicht gibt es nächstes Jahr von Globalfoundries auch GPUs, wegen Gate-First vs. Gate-Last sollte der 28nm Chip bei GF rund 20% kleiner als bei TSMC ausfallen. Wenn der 20nm Prozess übersprungen wird und man auf 14XM oder 16nm wartet, dann könnte das vielleicht sinn machen 2014 eine 3. Generation auf 28nm zu präsentieren, vielleicht hat man es auch bis dahin geschafft die Effizienz in 28nm nochmal zu bessern, soweit ich weiß ist ein HPM Nachfolger in Arbeit.

Duplex
2013-09-23, 12:24:54
Als Übergangslösung, falls 20nm nicht so erfolgreich ist?
Ein 28nm-GM104 mit +30% Die-Size und vielleicht + ~20% IPC gegenüber GK104, könnte durchaus in interessante Regionen vorstoßen, ohne dabei im Profimarkt GK110 zu bedrohen.
Maxwell in 28nm würde ich komplett vergessen.
Wenn das so wäre hätte man GK110 im Desktop Markt erst garnicht bringen sollen, soweit ich weiß wurde GK114 & GM104 storniert weil man im Tegra Bereich Ressourcen braucht. Mit der GTX7xx Serie ist doch alles abgedeckt!

fondness
2013-09-23, 12:43:18
Übrigens braucht man für den Artikel mit den Benchmarks mittlerweile ein Passwort:
http://udteam.tistory.com/539

Spricht wohl nicht gerade dagegen das diese korrekt sind....

Dazu gibt es auch noch zwei weitere Artikel mit Passwortschutz:
Sneak Peek: successor of HD 7850 (http://udteam.tistory.com/536)
Sneak Peek 2: the 50th state of the United States (http://udteam.tistory.com/538)

M4xw0lf
2013-09-23, 13:07:11
Ich hoffe mal es gibt am 25. Reviews. Dass es nicht der Launch ist, wurde nochmal bekräftigt: https://twitter.com/cavemanjim/status/381551384065101824

Ailuros
2013-09-23, 13:35:33
Maxwell in 28nm würde ich komplett vergessen.

Da dieser PedantOne wohl in der Mehrzahl bis jetzt ueber Hawaii recht hatte und er auch behauptet hat dass NV Maxwell 28nm fuer Anfang 2014 geplant hat bin ich mir nicht mehr so sicher. Ich wuerde alles HPM nicht so leicht vergessen.

Wenn das so wäre hätte man GK110 im Desktop Markt erst garnicht bringen sollen, soweit ich weiß wurde GK114 & GM104 storniert weil man im Tegra Bereich Ressourcen braucht. Mit der GTX7xx Serie ist doch alles abgedeckt!

Auf dem Standpunkt bin ich auch noch, aber da ich eben kein insider bin heisst es auch nicht dass jeglicher Fetzen an Info nicht auch falsch sein kann.

Apropos GK114 ausser einem Bild von SA hab ich nie woanders vom dem Ding gehoert; ueber das Ding musst Du wohl Charlie fragen ob es ueberhaupt je existierte.

fondness
2013-09-23, 13:42:09
Da dieser PedantOne wohl in der Mehrzahl bis jetzt ueber Hawaii recht hatte und er auch behauptet hat dass NV Maxwell 28nm fuer Anfang 2014 geplant hat bin ich mir nicht mehr so sicher. Ich wuerde alles HPM nicht so leicht vergessen.



Ist das dein ernst?
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207925&viewfull=1#post5207925

Der widerspricht sich doch selbst ständig.

M4xw0lf
2013-09-23, 13:56:56
Ist das dein ernst?
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207925&viewfull=1#post5207925

Der widerspricht sich doch selbst ständig.

Den Eindruck hab ich allerdings auch. Er hat zwar ein paar mal getroffen, aber alles auch genauso oft wieder verworfen.

Ailuros
2013-09-23, 14:06:22
Ist das dein ernst?
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5207925&viewfull=1#post5207925

Der widerspricht sich doch selbst ständig.

Hmmmm ouch das tut aber weh....nun ich muss mich wohl trotz allem irgendwann mal druecken beim Teu...errrr *hust* NV nachzufragen :D

M4xw0lf
2013-09-23, 14:13:30
Hmmmm ouch das tut aber weh....nun ich muss mich wohl trotz allem irgendwann mal druecken beim Teu...errrr *hust* NV nachzufragen :D
Die antworten dir noch, als treuem Fan? :freak:

Nakai
2013-09-23, 15:01:17
Ich finde Curacao vor allem sehr interessant. Hawaii ist den meisten Leuten eh zu teuer. Curacao Pro hat wie HD7850(Pitcairn Pro) nur einen 6 Pin-Anschluss. Curacao XT wird wohl 2 6Pin-Anschluss bekommen und damit etwa auf Pitcairn-Stromverbrauch kommen.

Welche Chips sind denn nun im LineUp überhaupt drin?
Bonaire, Oland, Hainan, Curacao, Tahiti und Hawaii?

Hawaii: 290
Tahiti: 280
Curacao: 270
Bonaire: 260
Oland: 250/240

Ich seh die Zusammenstellung von CB als ziemlichen Dreck an:
http://www.computerbase.de/news/2013-09/weitere-volcanic-islands-grafikkarten-gesichtet/

y33H@
2013-09-23, 15:25:18
Dann kehr doch den Dreck mal zusammen.

Eggcake
2013-09-23, 15:30:47
Ist ja die genau gleiche wie hier zu finden ist in den News (http://www.3dcenter.org/news/amds-radeon-r7-240-r7-250-basieren-auf-dem-oland-chip), basierend auf Leaks/Whatever von videocardz.net

Nakai
2013-09-23, 15:46:03
Ich kann da derzeit auch nur spekulieren.

R9 290X: Hawaii XT
R9 290: Hawaii Pro
R9 280X: Tahiti XTL/Hawaii LE
R9 280: Tahiti XTL/
R9 270X: Curacao XT
R9 270: Curacao Pro
R7 260X: Bonaire
R7 260: Bonaire
R7 250: Oland/Mars
R7 240: Oland/Mars

maximus_hertus
2013-09-23, 15:48:52
Ich kann da derzeit auch nur spekulieren.

R9 290X: Hawaii XT
R9 290: Hawaii Pro
R9 280X: Tahiti XTL/Hawaii LE
R9 280: Tahiti XTL/
R9 270X: Curacao XT
R9 270: Curacao Pro
R7 260X: Bonaire
R7 260: Bonaire
R7 250: Oland/Mars
R7 240: Oland/Mars

Sehe ich auch so. Aber mal den Mittwoch abwarten, dann sollten wir zumindest ein wenig schlauer sein ;)

Ailuros
2013-09-23, 15:57:10
Die antworten dir noch, als treuem Fan? :freak:

Komisch gell? :biggrin: Spass beiseite so wie ich sie kenne werden sie nur zwitschern wenn sie gute Nachrichten haben.

M4xw0lf
2013-09-23, 16:35:12
Komisch gell? :biggrin: Spass beiseite so wie ich sie kenne werden sie nur zwitschern wenn sie gute Nachrichten haben.
Nun, das ist ja dann trotzdem so oder so recht aussagekräftig...

mboeller
2013-09-23, 19:13:39
mal ne Frage an die DP-Freaks:

Wenn Hawaii wirklich 1:2 DP implementiert hat, dann sollte die DP/W-Leistung doch extrem gut sein, oder?

Also bei 1020MHz und 300W wären es schon für die Consumer-Variante 9,5 GFlops DP/W und bei der Profivariante dann ja wahrscheinlich bei hyp. 850MHz und 225W 10,5 GFlops DP/W.

Das wäre doch wohl ein Durchbruch, oder? In den letzten Folien wird ja von Nvidia selbst für Maxwell nur noch von AFAIR 8 GFlops DP/W gesprochen.

Skysnake
2013-09-23, 19:31:26
Ja, mit 1:2 DP:SP würde man in dem Bereich wohl mit allen anderen den Boden wischen, sofern man die Taktraten nicht absenken müsste, was ich aber eher für unwahrscheinlich halte.

Die ALU-Leistung ist aber NICHT! ALLES!!!

Die ALUs müssen auch mit Daten versorgt werden. Wenn man da also nicht auch einen großen Schritt nach vorne macht, bleibt halt je nach Anwendungsfall davon halt nichts übrig.

Einen Schritt nach vorne hat AMD ja bei Hawaii mit dem 512 Bit Interface gemacht. Wenn man davon ausgeht, dass der L2 Cache im gleichen Maße ansteigt, wovon ich btw ausgehe da der L2 an den Speichercontrollern hängt, dann hat man statt 768kB L2 Cache eben 1024kB L2 Cache. Selbst bei gleicher nomineller Speicherbandbreite des SI, wird man wohl viele Fälle haben, in denen eben der größere L2 Cache durchschlagen kann.

nVidia hat aber im Prinzip 256kB L2 pro 64 Bit Speichercontroller. Ich würde mir daher wünschen, das AMD den L2 Cache pro Controller verdoppelt. Dann hätte Hawaii insgesamt 2MB L2 Cache, und das wäre schon ziemlich cool!

Ein Hawaii mit 44 CUs hätte ja bei weiterhin 64kB sharedMem (LDS) insgesamt 2816kB (2,75MB) LDS. Oder halt 704kB L1 Cache. Man würde mit doppeltem Cache/Controller also fast den gesamten Inhalt der L1+LDS bekommen. Das wäre schon ziemlich cool und lässt eben hoffen, das man weniger den Cache ständig flushed.

Gerade bie DGEMM könnte sich das als sehr vorteilhaft zeigen.

mczak
2013-09-23, 19:51:56
nVidia hat aber im Prinzip 256kB L2 pro 64 Bit Speichercontroller. Ich würde mir daher wünschen, das AMD den L2 Cache pro Controller verdoppelt. Dann hätte Hawaii insgesamt 2MB L2 Cache, und das wäre schon ziemlich cool!

Was meinst du mit im Prinzip 256kB L2 pro 64bit MC bei nvidia? Das ist nur bei gk110 der Fall, gk104/106/107 haben 128kB pro 64bit MC (und gk208 hat 512kB pro 64bit MC).
Allerdings benutzen bei Kepler auch die ROPs den L2 Cache was ja bei AMD zumindest bisher nicht der Fall ist (aber ausschliessen dass das mit Hawaii ändert würde ich jetzt nicht - da würde dann auch eine Verdoppelung des L2 wohl noch mehr Sinn machen).

john carmack
2013-09-23, 19:52:16
Wird es denn am Mitwoch offizielle Tests geben?

Ich dachte das es nur die Vorstellung von Hawaii sein wird...?!?!

Zergra
2013-09-23, 20:15:42
Wird es denn am Mitwoch offizielle Tests geben?

Ich dachte das es nur die Vorstellung von Hawaii sein wird...?!?!
Es wird gehofft das es Test gibt :D

Steffko
2013-09-23, 20:23:56
Warum wird denn Tahiti eigentlich nicht ebenfalls eingestellt? Die kleinere Ausführung von Hawai dürfte doch nicht sonderlich weit über der 7970Ghz Edition liegen, gleichzeitig ist davon auszugehen (oder? :freak: ), dass die größte Curacao Variante ein gutes Stück über 7870 Niveau liegen wird, also vermutlich schon etwa die 7950 erreicht. Da ist doch nicht mehr viel Platz für Tahiti?

fondness
2013-09-23, 20:34:22
Es gibt durchaus Quellen laut denen Curacao nur die 7850 ersetzt.

Steffko
2013-09-23, 20:43:41
Die würde doch sicher wieder zwei Grafikkarten bekommen und wenn die größere davon nur die 7850 ersetzen würde, was soll dann die kleinere? Die wäre doch viel zu nah an der 7790.

Akkarin
2013-09-23, 20:45:45
Wobei es ihmo wirklich nicht so viel sinn macht Tahiti weiter zu führen. Da schleppt man doch nur unnötig ballast mit rum, lieber Hawaii bis zur 7970 Ghz runter gehen lassen einen Gaming Chip aufsetzten der den rest des LUs ergänzt.

reaperrr
2013-09-23, 20:57:28
Die würde doch sicher wieder zwei Grafikkarten bekommen und wenn die größere davon nur die 7850 ersetzen würde, was soll dann die kleinere? Die wäre doch viel zu nah an der 7790.
Viel zu nah ist gut, die 7850 ist ja teilweise schon kaum schneller als die 7790. Außerdem soll die 260X Bonaire XTX nutzen, XTX klingt für mich nach "noch etwas schneller als 7790".

Allermindestens ist Curacao ein umbenannter Pitcairn mit etwas höheren Taktraten, ich gehe aber eher von GCN 1.1-Architektur und mindestens 4 zusätzlichen CUs gegenüber Pitcairn aus, vielleicht auch 8 (wobei es dann eigentlich auch mehr Speicherbandbreite bräuchte).

Warum wird denn Tahiti eigentlich nicht ebenfalls eingestellt?
Weil Curacao voraussichtlich etwas langsamer sein wird (niedrigere Speicherbandbreite, vermutl. auch ein paar weniger CUs) und somit nur gegen die GTX 760 antreten kann, gegen die GTX 770 braucht AMD aktuell wohl noch Tahiti. Hawaii ist einerseits noch größer und teurer in der Herstellung, und andererseits ist die Ausbeute an Chips mit mindestens 36 funktionierenden CUs vermutlich so hoch (wegen des ausgereiften Prozesses), dass es Verschwendung wäre diesen Chip im Preissegment der 7970 GE und GTX 770 zu verschleudern, wenn man fast alle Chips auf gewinnträchtigeren 290 und 290X einsetzen kann. Später, wenn man genug teildefekte Hawaiis gesammelt hat, kann man dann vielleicht Tahiti durch Hawaii LE ersetzen.

Nakai
2013-09-23, 20:58:36
Ja, mit 1:2 DP:SP würde man in dem Bereich wohl mit allen anderen den Boden wischen, sofern man die Taktraten nicht absenken müsste, was ich aber eher für unwahrscheinlich halte.

Die ALU-Leistung ist aber NICHT! ALLES!!!

Die ALUs müssen auch mit Daten versorgt werden. Wenn man da also nicht auch einen großen Schritt nach vorne macht, bleibt halt je nach Anwendungsfall davon halt nichts übrig.

Einen Schritt nach vorne hat AMD ja bei Hawaii mit dem 512 Bit Interface gemacht. Wenn man davon ausgeht, dass der L2 Cache im gleichen Maße ansteigt, wovon ich btw ausgehe da der L2 an den Speichercontrollern hängt, dann hat man statt 768kB L2 Cache eben 1024kB L2 Cache. Selbst bei gleicher nomineller Speicherbandbreite des SI, wird man wohl viele Fälle haben, in denen eben der größere L2 Cache durchschlagen kann.

nVidia hat aber im Prinzip 256kB L2 pro 64 Bit Speichercontroller. Ich würde mir daher wünschen, das AMD den L2 Cache pro Controller verdoppelt. Dann hätte Hawaii insgesamt 2MB L2 Cache, und das wäre schon ziemlich cool!

Ein Hawaii mit 44 CUs hätte ja bei weiterhin 64kB sharedMem (LDS) insgesamt 2816kB (2,75MB) LDS. Oder halt 704kB L1 Cache. Man würde mit doppeltem Cache/Controller also fast den gesamten Inhalt der L1+LDS bekommen. Das wäre schon ziemlich cool und lässt eben hoffen, das man weniger den Cache ständig flushed.

Gerade bie DGEMM könnte sich das als sehr vorteilhaft zeigen.

Ich weiß ja nicht, wie AMD den L2-Cache nutzt. Bei NV ist der L2-Cache auch ein Buffer für Speicherzugriffe. Bei AMD habe ich keine Ahnung, wie der genutzt wird. Im Whitepaper zu Tahiti und einigen anderen Papers steht nur drin, dass der GDS, also L2-Cache eher als Synchronisationspunkt für alle Workgroups dient. Inwiefern wird der L2-Cache bei AMD denn genutzt? Ich hab da echt nicht soviel Ahnung...

Wobei es ihmo wirklich nicht so viel sinn macht Tahiti weiter zu führen. Da schleppt man doch nur unnötig ballast mit rum, lieber Hawaii bis zur 7970 Ghz runter gehen lassen einen Gaming Chip aufsetzten der den rest des LUs ergänzt.

Tahiti ist technologisch immer noch top. Er ist zwar etwas ineffizient, weswegen ich auf einen "besseren" Tahiti hoffe(XTL).

Es gibt durchaus Quellen laut denen Curacao nur die 7850 ersetzt.

Das macht nicht soviel Sinn, da Bonaire bereits bei der HD7850 ankratzt. Aber KA was wir sehen werden.

StefanV
2013-09-23, 21:04:36
Tahiti ist technologisch immer noch top. Er ist zwar etwas ineffizient, weswegen ich auf einen "besseren" Tahiti hoffe(XTL).
Tahiti @ 28nm HPM??

Ist halt die Frage, wieviel Sackstand das von 28nm HP auf HPM ist...

Akkarin
2013-09-23, 21:40:46
Tahiti ist technologisch immer noch top. Er ist zwar etwas ineffizient, weswegen ich auf einen "besseren" Tahiti hoffe(XTL).


Tahiti mag technologisch top sein, aber nicht besonderst sinnvoll ihmo. 7970 Ghz könnte man mit Hawaii LE ersetzen, 7950 dann mit einem etwas größeren Curacao der nicht so weit runter reicht (weil man Bonair hat).

Wie groß wäre ein 24-28 CU chip, 256 bit >6Gbps oder 382 bit interface mit <=5,5GBps und mit 1:16 DP:SP ? 270mm ?

Weil Curacao voraussichtlich etwas langsamer sein wird (niedrigere Speicherbandbreite, vermutl. auch ein paar weniger CUs) und somit nur gegen die GTX 760 antreten kann, gegen die GTX 770 braucht AMD aktuell wohl noch Tahiti. Hawaii ist einerseits noch größer und teurer in der Herstellung, und andererseits ist die Ausbeute an Chips mit mindestens 36 funktionierenden CUs vermutlich so hoch (wegen des ausgereiften Prozesses), dass es Verschwendung wäre diesen Chip im Preissegment der 7970 GE und GTX 770 zu verschleudern, wenn man fast alle Chips auf gewinnträchtigeren 290 und 290X einsetzen kann. Später, wenn man genug teildefekte Hawaiis gesammelt hat, kann man dann vielleicht Tahiti durch Hawaii LE ersetzen.

Macht ihmo am meisten sinn. Tahiti auslaufen lassen und die Restlichen chips als XTL aka effektivere 7970 GHz benutzen bis Hawaii LE als 785X raus kommt sobald man keine Tahiti chips mehr hat.

boxleitnerb
2013-09-23, 21:55:27
also ist oc dann sogar AMD schneller? ok wenn du das sagst ^^

Wenn ich das sagen würden würde ich von den üblichen verdächtigen sicher böse angeschaut werden ^^

Was soll das heißen? @stock werden die beiden sich nicht viel geben vermute ich und mit Turbo-Bios bzw. den Reglern@max auch nicht. pro Takt dürfte die Performance also ähnlich sein.

Nakai
2013-09-23, 21:56:00
Tahiti mag technologisch top sein, aber nicht besonderst sinnvoll ihmo. 7970 Ghz könnte man mit Hawaii LE ersetzen, 7950 dann mit einem etwas größeren Curacao der nicht so weit runter reicht (weil man Bonair hat).

Wie groß wäre ein 24-28 CU chip, 256 bit >6Gbps oder 382 bit interface mit <=5,5GBps und mit 1:16 DP:SP ? 270mm ?



Mhh, wie groß ist eine CU bei Pitcairn? ~4,5mm²?
Naja dann sinds bei sonst gleichem Aufbau etwa 18 - 36mm² mehr, also Sub 250mm². Ich hoffe aber auf einen Curacao als semiprofessionellem Chip. DP 1:4, 256bit SI, hier und da ein paar Verbesserungen,~ 260mm2.

€: Wir bräuchten mal eine komplette Aufspaltung aller Chips der gesamten GCN-Reihe bis jetzt.

john carmack
2013-09-23, 22:23:22
http://wccftech.com/amd-hawaii-r9290x-gpu-volcanic-islands-benchmark-results-exposed-fastest-gpu-planet-1020-mhz-clock-speed/


Was meinen die eigentlich 1150Mhz - 1250Mhz MemClock bei der R9 290X?
Warum sollte Hawaii weitaus weniger Bandbreite haben als Tahiti?

Wenn man etwas faked oder vermutet, dann doch bitte realistisch :D :D

MR2
2013-09-23, 22:39:55
Mal 2. 2500mhz. Das wäre schon so richtig.

Felixxz2
2013-09-23, 22:41:03
Wieso weniger? Hawaii hat doch ein 512 Bit Interface, bei 1250Mhz hätte Hawaii 320 GB/s und damit ein gutes Stück mehr als Tahiti.

john carmack
2013-09-23, 22:43:14
Mal 2. 2500mhz. Das wäre schon so richtig.


auch bei 2500Mhz wäre wir bei 160GB\s

...104 GB\s weniger als Tahiti???

Komm schon, wer auch immer das war ist :crazy:

john carmack
2013-09-23, 22:46:27
Wieso weniger? Hawaii hat doch ein 512 Bit Interface, bei 1250Mhz hätte Hawaii 320 GB/s und damit ein gutes Stück mehr als Tahiti.



384 * 5500 / 8 = 264.000 (Tahiti)

512 * 1250 / 8 = 80.000 (angeblicher Hawaii)
oder
512 * 2500 / 8 = 160.000 (angeblicher Hawaii)

kunibätt
2013-09-23, 22:51:53
Wenn man es absichtlich falsch verstehem will, kann man so natürlich rechnen....

john carmack
2013-09-23, 22:53:13
Wenn man es absichtlich falsch verstehem will, kann man so natürlich rechnen....


??? Bitte was?

LSSJBroly
2013-09-23, 22:54:36
512 x 5000 : 8 = 320.000 / 320GB/s ...

(5000 : 2 = 2500)
(2500 : 2 = 1250)

john carmack
2013-09-23, 22:57:22
muss ich das verstehen?
Warum teile ich zwei mal durch 2?

SDR Ram: 1000Mhz = 1000Mhz
DDR Ram: 1000Mhz = 2000Mhz effektiv (Double Data Rate - wie der Name schon sagt!)

LSSJBroly
2013-09-23, 23:00:35
muss ich das verstehen?
Warum teile ich zwei mal durch 2?


Wie kommst du denn sonst auf die 288GB/s der 7970 GE?

1500MHz Speichertakt - 6Gbps-Chips (6000MHz)

384 x 6000 : 8 = 288.000

Hawai wird wohl 5Gbps Chips bekommen, ergo 5000MHz

john carmack
2013-09-23, 23:04:04
Weil Arbeitsspeicher eben so funktioniert...

SDR - SingleDataRate: Signale werden nur auf der aufsteigenden Flange übertragen.

DDR - DoubleDataRate: Signale werden auf der aufsteigenden und abfallenden Flanke übertragen. Somit werden aus 3000Mhz effektiv 6000Mhz

http://www.itwissen.info/bilder/die-verschiedenen-transferverfahren-sdr-ddr-qdr.png


Deswegen verstehe ich nicht wie mir jemand klar machen will das aus 1250Mhz auf einmal 5000Mhz werden...?!?!?!

reaperrr
2013-09-23, 23:04:16
??? Bitte was?
GDDR5 ist technisch gesehen eigentlich QDR (QuadDataRate), "5 GHz" sind eigentlich 1250 MHz wobei allerdings 4 Datenpakete pro Takt übertragen werden. Leider hat das Nvidia-Marketing dann irgendwann damit angefangen, den doppelten Basis-Takt als D[ouble]DR-Takt anzugeben, was einige Webseiten so übernommen haben, womit das Chaos perfekt ist.

Wenn hier von 1125-1250 MHz für die 290X die Rede ist, sind damit effektive 4,5-5 GHz gemeint.

Wenn von 2500 MHz die Rede ist, sind ebenfalls effektive 5 GHz gemeint, weil damit die verquere Nvidia-"D"DR-Rechnung verwendet wird.

StefanV
2013-09-23, 23:24:18
http://wccftech.com/amd-hawaii-r9290x-gpu-volcanic-islands-benchmark-results-exposed-fastest-gpu-planet-1020-mhz-clock-speed/
While we would get 4 GB in the reference models, the leaker has also said that we will see 6 GB custom models soon after launch.
Äh, hää?! War der Schreiber besoffen??
Was schreibt der hier nur fürn Scheiß!?

Aber der eine Display Port wundert mich immer noch. DAS mag ich nicht so recht glauben...

mczak
2013-09-23, 23:31:29
Mhh, wie groß ist eine CU bei Pitcairn? ~4,5mm²?
Naja dann sinds bei sonst gleichem Aufbau etwa 18 - 36mm² mehr, also Sub 250mm². Ich hoffe aber auf einen Curacao als semiprofessionellem Chip. DP 1:4, 256bit SI, hier und da ein paar Verbesserungen,~ 260mm2.

Ich sehe nicht ein wieso man noch einen semiprofessionellen Chip bräuchte dafür gibt es NULL Bedarf. Für die HPC-Anwendungen nimmst du sowieso einen High-End Chip, und für Dinge wie das Pro-GL Zeugs (da werden auch kleinere Karten verkauft) hat DP schlicht keine Bedeutung (natürlich genau so wenig wie auch für Gaming).


€: Wir bräuchten mal eine komplette Aufspaltung aller Chips der gesamten GCN-Reihe bis jetzt.
Wo ist das Problem die Liste ist nicht sonderlich lang:
(Temash/Kabini APU): 2 CU, 1/4 Tri/Clock, 4 ROPs, 64bit, GCN 1.1
Sun/Hainan: 5 CU, 1 Tri/Clock, 4 ROPs, 64bit, GCN 1.0, ohne Display Controller / UVD, nur 8x PCIE (denke ich jedenfalls)
Mars/Oland: 6 CU, 1 Tri/Clock, 8 ROPs, 128bit, GCN 1.0, nur 8x PCIE (3.0)
(Berlin/Kaveri APU): 8 CU, 1 Tri/Clock, 8 ROPs, 128bit, GCN 1.1
Cape Verde: 10 CU, 1 Tri/Clock, 16 ROPs, 128bit, GCN 1.0
Bonaire: 14 CU, 2 Tri/Clock, 16 ROPs, 128bit, GCN 1.1
Pitcairn: 20 CU, 2 Tri/Clock, 32 ROPs, 256bit, GCN 1.0
Curacao: ?
Tahiti: 32 CU, 2 Tri/Clock, 32 ROPs, 384bit, GCN 1.0
Hawaii: ? CU, ? Tri/Clock, ? ROPs, 512bit, GCN > 1.1

Ausserdem alle ausser Tahiti/Hawaii (und vermutlich Kaveri) mit 1:16 DP.

Ach ja bei den APUs geistern auch noch Codenamen herum die scheinen aber sehr unbestätigt zu sein (Mullins/Kalindi für Kabini, Spectre/Spooky für Kaveri, Spooky wäre dann die 4 CU/4 ROP Variante in einem kleineren Die zusammen mit bloss 1 SR Modul).

S940
2013-09-24, 00:06:18
Mullins ist doch der Kabininachfolger, Schwesterchip ist Bima(Temashnachfolger) und Kalindi ist der Codename der Kabini-GPU, wenn ich mich recht erinnere. Für die Mullins GPU gibts da sicher auch noch nen Namen ...
Es lebe die Inflation ... 1 SoC, 3 Namen ... :freak:

mczak
2013-09-24, 00:30:24
Mullins ist doch der Kabininachfolger, Schwesterchip ist Bima(Temashnachfolger) und Kalindi ist der Codename der Kabini-GPU, wenn ich mich recht erinnere. Für die Mullins GPU gibts da sicher auch noch nen Namen ...
Es lebe die Inflation ... 1 SoC, 3 Namen ... :freak:
Ist nicht wirklich klar welcher Name da für was genau steht, deswegen habe ich die auch nur nebenbei erwähnt. Im Open-Source Treiber verwendet AMD ja auch keine Codenamen mehr für den GPU-Teil der APUs (die heissen dort ganz profan einfach Kaveri/Kabini), das war bei Trinity/Richland noch anders (Aruba).

Nakai
2013-09-24, 00:53:39
Wo ist das Problem die Liste ist nicht sonderlich lang:
(Temash/Kabini APU): 2 CU, 1/4 Tri/Clock, 4 ROPs, 64bit, GCN 1.1
Sun/Hainan: 5 CU, 1 Tri/Clock, 4 ROPs, 64bit, GCN 1.0, ohne Display Controller / UVD, nur 8x PCIE (denke ich jedenfalls)
Mars/Oland: 6 CU, 1 Tri/Clock, 8 ROPs, 128bit, GCN 1.0, nur 8x PCIE (3.0)
(Berlin/Kaveri APU): 8 CU, 1 Tri/Clock, 8 ROPs, 128bit, GCN 1.1
Cape Verde: 10 CU, 1 Tri/Clock, 16 ROPs, 128bit, GCN 1.0
Bonaire: 14 CU, 2 Tri/Clock, 16 ROPs, 128bit, GCN 1.1
Pitcairn: 20 CU, 2 Tri/Clock, 32 ROPs, 256bit, GCN 1.0
Curacao: ?
Tahiti: 32 CU, 2 Tri/Clock, 32 ROPs, 384bit, GCN 1.0
Hawaii: ? CU, ? Tri/Clock, ? ROPs, 512bit, GCN > 1.1

Ausserdem alle ausser Tahiti/Hawaii (und vermutlich Kaveri) mit 1:16 DP.
.

Ne, sowas meinte ich nicht:

Pitcairn hat etwa 212mm². Wenn man einige Faktoren rausrechnet, welche man von Gipsels Tahiti Aufschlüsselung entnehmen kann, kommt man auf etwa ganz grob auf 4,5mm² für eine CU. Es wird wohl auch an den DP-Funktionalitäten liegen. Hawaii hat möglicherweise DP1:2, ergo wird die CU wieder größer. Also etwa 6,5mm² pro CU, auch weil man hier und da optimieren kann.
CU 44*6,5mm² -> ~286mm²

komplettes Shader-Array aus 44 CUs | 280-290
Pad-Area des Speicherinterface | ~40
PCIe, Display, UVD, VCE etc. | ~45
L2, ROPs, Speichercontroller | ~50
Frontend, Raster | ~40
Rest Verschnitt | ~30
Summe | ~480

Das ist schon arg groß. Da muss AMD aber ziemlich viel am Chip optimiert haben. Unmöglich halte ich es nicht, dennoch könnte DP1:2 einfach nur ein Hirngespinst sein. 512Bit schließen sowieso schon auf einen sehr starken Chip.

€: Also die geleakten Benches halte ich für Fakes. Hawaii muss wirklich eine ziemlich verbesserte Architektur haben, damit die geleakten Specs stimmen.
Ich weiß nicht so recht...

Gipsel
2013-09-24, 01:02:11
Ich weiß ja nicht, wie AMD den L2-Cache nutzt. Bei NV ist der L2-Cache auch ein Buffer für Speicherzugriffe. Bei AMD habe ich keine Ahnung, wie der genutzt wird. Im Whitepaper zu Tahiti und einigen anderen Papers steht nur drin, dass der GDS, also L2-Cache eher als Synchronisationspunkt für alle Workgroups dient. Inwiefern wird der L2-Cache bei AMD denn genutzt? Ich hab da echt nicht soviel Ahnung...Also ab GCN ist der L2 Cache (der nicht der GDS ist!) auch ein allgemeiner Schreib-Lese-Cache für fast alle Speicherzugriffe (bei GPGPU für alle). Ein Unterschied ist, daß bei nV die ROPs ebenfalls über den L2 laufen, bei AMD haben die eigene, spezialisierte Caches (128kB color +32 kB Z-cache bei den Versionen mit 32 ROPs, sind immer 16kB+4kB pro RBE). Bei Grafikanwendungen wird der L2 also nicht mit den ROP-Exports belastet und steht vollständig für Textur- und Bufferzugriffe zur Verfügung (und GPGPU nutzt keine ROPs). Dagegen hat nV eventuell Vorteile, wenn ein Rendertarget direkt wieder als Textur eingelesen werden soll (geringere Turnaround-Time, weil die ROP-Caches nicht geflushed werden müssen; wenn man einfach nur schreiben will, also ohne die fixed function ROP-Funktionen wie Z-Test und Blending, kann GCN auch über den L2-Cache ohne die ROPs schreiben [auch die "image"-Formate der Rendertargets]*). Das hat z.B. auch Auswirkungen auf global Atomics, die bei nV offenbar von den ROPs im L2 gehandhabt werden, während AMD dafür extra Einheiten verbaut.
Und das mit dem GDS hast Du ziemlich durcheinander gebracht. Der hat mit dem L2 nichts zu tun. Das ist nochmal ein zusätzlicher 64kB Speicherbereich, der eben nicht als Cache, sondern als direkt adressierbarer Speicher allen CUs zur Verfügung steht, um mit geringer Latenz Daten auszutauschen. Das funktioniert ähnlich wie der LDS (hat auch 32 Bänke und somit maximal 128Byte pro Takt Bandbreite), nur eben global für die ganze GPU (und separate atomic units hat der auch noch mal). Der hat eine niedrigere Latenz als der L2, kann also schneller sein, als etwas über den Speicher bzw. L2 auszutauschen. An die CUs ist das Ding wohl über den Export-Bus bzw. Crossbar (also wie die ROPs) angebunden. Ein passendes Äquivalent besitzen nV-GPUs nicht, sie müßten das mit globalem Speicher (gecached im L2) nachbilden, was mit niedrigerer Performance verbunden wäre.

*): Insofern wäre es schon irgendwie denkbar, daß Hawaii bzw. VI eventuell diese Funktionalität ausbaut, und die ROP-Funktionen in diesen Pfad übernimmt (womit GCN2 oder wie immer man das nennen will ebenfalls den L2 für die ROPs nutzt). Die ROPs könnten dann eventuell auch enger an die CUs gebunden werden (jede CU besitzt ja 4 TMUs, in Zukunft dann vielleicht jeweils ein Gruppe aus 4 CUs dann auch jeweils ein RBE? Würde dann zu dem 44CUs + 44ROPs-Gerücht passen, wäre aber beim Load-Balancing unflexibler, würde etwa nV's Export-Limit der Fermis entsprechen), wobei das umfangreichere Änderungen beim Prinzip der Aufteilung des Rendertargets zu den einzelnen ROPs erforderlich macht (sind bisher Screenspace-Tiles in einem bestimmten Interleaving-Muster für's Load-Balancing). Die ROPs würden dann bei der Crossbar zwischen SMxs/CUs und dem Speichercontroller nicht wie bei nV auf der Seite des Speichercontrollers sitzen (und mit diesem mitskalieren), sondern auf der Seite der CUs. Aber das wird tricky, die richtige Renderreihenfolge einzuhalten, also mal sehen (unter Umständen, sieht VIs Setup/Raster->ROP-System dann ja bald sehr ähnlich zu nVs aus? Nur das sie die ROPs irgendwie noch zu die CUs pappen [oder die zählen nur anders als nV :rolleyes:]).
Bei Tahiti gibt es da ja offenbar zwei Crossbar-Ebenen hintereinander: die Export-Crossbar zwischen CUs und ROPs und dann noch mal eine (nicht komplett verdrahtet, sondern nur Gruppen aus 4 RBEs und 3 Speichercontrollern [oder 2 RBEs und 3 Kanälen?] verbunden, spart Aufwand), was irgendwie etwas Verschwendung ist.

Nakai
2013-09-24, 01:11:28
Also ab GCN ist der L2 Cache (der nicht der GDS ist!) auch ein allgemeiner Schreib-Lese-Cache für fast alle Speicherzugriffe (bei GPGPU für alle). Ein Unterschied ist, daß bei nV die ROPs ebenfalls über den L2 laufen, bei AMD haben die eigene, spezialisierte Caches (128kB color +32 kB Z-cache bei den Versionen mit 32 ROPs, sind immer 16kB+4kB pro RBE). Bei Grafikanwendungen wird der L2 also nicht mit den ROP-Exports belastet und steht vollständig für Textur- und Bufferzugriffe zur Verfügung (und GPGPU nutzt keine ROPs). Dagegen hat nV eventuell Vorteile, wenn ein Rendertarget direkt wieder als Textur eingelesen werden soll (geringere Turnaround-Time, weil die ROP-Caches nicht geflushed werden müssen; wenn man einfach nur schreiben will, also ohne die fixed function ROP-Funktionen wie Z-Test und Blending, kann GCN auch über den L2-Cache ohne die ROPs schreiben [auch die "image"-Formate der Rendertargets]*). Das hat z.B. auch Auswirkungen auf global Atomics, die bei nV offenbar von den ROPs im L2 gehandhabt werden, während AMD dafür extra Einheiten verbaut.
Und das mit dem GDS hast Du ziemlich durcheinander gebracht. Der hat mit dem L2 nichts zu tun. Das ist nochmal ein zusätzlicher 64kB Speicherbereich, der eben nicht als Cache, sondern als direkt adressierbarer Speicher allen CUs zur Verfügung steht, um mit geringer Latenz Daten auszutauschen. Das funktioniert ähnlich wie der LDS (hat auch 32 Bänke und somit maximal 128Byte pro Takt Bandbreite), nur eben global für die ganze GPU (und separate atomic units hat der auch noch mal). Der hat eine niedrigere Latenz als der L2, kann also schneller sein, als etwas über den Speicher bzw. L2 auszutauschen. An die CUs ist das Ding wohl über den Export-Bus bzw. Crossbar (also wie die ROPs) angebunden. Ein passendes Äquivalent besitzen nV-GPUs nicht, sie müßten das mit globalem Speicher (gecached im L2) nachbilden, was mit niedrigerer Performance verbunden wäre.


Oke, thx. Ja, das war wohl falsch.

*): Insofern wäre es schon irgendwie denkbar, daß Hawaii bzw. VI eventuell diese Funktionalität ausbaut, und die ROP-Funktionen in diesen Pfad übernimmt (womit GCN2 oder wie immer man das nennen will ebenfalls den L2 für die ROPs nutzt). Die ROPs könnten dann eventuell auch enger an die CUs gebunden werden (jede CU besitzt ja 4 TMUs, in Zukunft dann vielleicht jeweils ein Gruppe aus 4 CUs dann auch jeweils ein RBE? Würde dann zu dem 44CUs + 44ROPs-Gerücht passen, wäre aber beim Load-Balancing unflexibler, würde etwa nV's Export-Limit der Fermis entsprechen), wobei das umfangreichere Änderungen beim Prinzip der Aufteilung des Rendertargets zu den einzelnen ROPs erforderlich macht (sind bisher Screenspace-Tiles in einem bestimmten Interleaving-Muster für's Load-Balancing). Die ROPs würden dann bei der Crossbar zwischen SMxs/CUs und dem Speichercontroller nicht wie bei nV auf der Seite des Speichercontrollers sitzen (und mit diesem mitskalieren), sondern auf der Seite der CUs. Aber das wird tricky, die richtige Renderreihenfolge einzuhalten, also mal sehen. Bei Tahiti gibt es da ja offenbar zwei Crossbar-Ebenen hintereinander: die Export-Crossbar zwischen CUs und ROPs und dann noch mal eine (nicht komplett verdrahtet, sondern nur Gruppen aus 4 RBEs und 3 Speichercontrollern [oder 2 RBEs und 3 Kanälen?] verbunden, spart Aufwand), was irgendwie etwas Verschwendung ist.

Oke, du sagst also, das die ROPs in die CUs wandern(oder direkt gekoppelt), damit deren Funktionalitäten näher zusammenliegen? Das würde ziemlich mit dem Leak zu 44 ROPs passen.

Gipsel
2013-09-24, 01:12:37
Oke, du sagst also, das die ROPs in die CUs wandern(oder direkt gekoppelt), damit deren Funktionalitäten näher zusammenliegen? Das würde ziemlich mit dem Leak zu 44 ROPs passen.Ich sage gar nichts. Ich überlege nur, wie das zusammen passen könnte, falls es stimmen sollte. ;)

mczak
2013-09-24, 01:31:45
Ne, sowas meinte ich nicht:

Pitcairn hat etwa 212mm². Wenn man einige Faktoren rausrechnet, welche man von Gipsels Tahiti Aufschlüsselung entnehmen kann, kommt man auf etwa ganz grob auf 4,5mm² für eine CU. Es wird wohl auch an den DP-Funktionalitäten liegen. Hawaii hat möglicherweise DP1:2, ergo wird die CU wieder größer. Also etwa 6,5mm² pro CU, auch weil man hier und da optimieren kann.
CU 44*6,5mm² -> ~286mm²

Ach so. Na also die grösseren Tahiti-CUs sind nur teilweise wegen DP, da sind doch z.B. auch noch die L1 Caches mit ECC zu berücksichtigen.

Das ist schon arg groß. Da muss AMD aber ziemlich viel am Chip optimiert haben. Unmöglich halte ich es nicht, dennoch könnte DP1:2 einfach nur ein Hirngespinst sein. 512Bit schließen sowieso schon auf einen sehr starken Chip.

€: Also die geleakten Benches halte ich für Fakes. Hawaii muss wirklich eine ziemlich verbesserte Architektur haben, damit die geleakten Specs stimmen.
Ich weiß nicht so recht...
Da sind tatsächlich noch viele Details unklar, auch wenn die Leaks korrekt sein sollten. Aber vielleicht wissen wir ja demnächst mehr.

OBrian
2013-09-24, 03:56:12
Die reine Existenz von Curacao und das Weiterbestehen von Tahiti im Line-up (angenommen, das stimmt so) bedeutet für mich jedenfalls, daß es größere Änderungen (Verbesserungen) in der Architektur geben wird. Denn sonst bräuchte man nicht im gleichen Prozeßnode einen Ersatzchip für den gleichen Performancebereich (soll ja wohl Ersatz für Pitcairn sein) zu designen, weil dann praktisch dasselbe rauskäme, d.h. unnötige Kosten ohne ernsthaften Nutzen.

Denkbar wäre aber, wenn Bonaire noch hochgepusht wird, um die 7850 vollends zu überrunden, daß man einen Chip auflegt, der Pitcairn XT sowie Tahiti LE, Pro und auch XT ersetzt mit einem sparsameren und vor allem billiger herzustellenden Chip mit 256bit SI. Für die Performance der 7970 GHz Edition reicht es dann evtl. nicht, das kann man aber mit teildeaktivierten Hawaiis regeln (auf 384 bit runtergeschnitten, Chip ebenfalls teildeaktiviert). Das würde dann wieder Sinn machen und wäre auch wohl mit Prozeßverbesserungen ohne großartig verbesserte Architektur denkbar, und mit Architekturverbesserungen wäre auch die anscheinend geringere Stromaufnahme erklärbar. Aber dann dürfte eben Tahiti bei den neuen Karten nicht mehr auftauchen.

Angesichts des engen Preisgefüges sehe ich für Tahiti keine Zukunft, besonders effektiv ist der Chip ja auch nicht. Also wenn irgendwas wegrationalisiert wird, dann er (würde ich jedenfalls lieber rauswerfen als z.B. Bonaire). Paßt auch mit den Nummern: 260 für Oland, 270 für Bonaire, 280 für Curacao und 290 für Hawaii. Dual-Karte wird vielleicht 295 oder sowas oder (wahrscheinlich) kommt gar nicht mehr in der 28nm-Generation.

M4xw0lf
2013-09-24, 09:10:13
Keine weiteren Leaks, hmm? Langweilig ^^

AnarchX
2013-09-24, 09:20:35
Angesichts des engen Preisgefüges sehe ich für Tahiti keine Zukunft, besonders effektiv ist der Chip ja auch nicht. Also wenn irgendwas wegrationalisiert wird, dann er (würde ich jedenfalls lieber rauswerfen als z.B. Bonaire). Paßt auch mit den Nummern: 260 für Oland, 270 für Bonaire, 280 für Curacao und 290 für Hawaii. Dual-Karte wird vielleicht 295 oder sowas oder (wahrscheinlich) kommt gar nicht mehr in der 28nm-Generation.

Mit einem wahrscheinlich überarbeiteten Boost und wohl möglich einer geringeren Maximalaufnahme, versucht man mit Tahiti XTL noch mal ein attraktives Angebot zu schnürren, bis man ihn wohl durch Hawaii LE ersetzt.
Die LE-Lösungen kommen ja typischerweise nicht direkt zum Launch. 4-6 Monate dürfte Tahiti XTL wohl noch überleben. Dann vielleicht der Ersatz durch eine R9-285X (Hawaii-LE, 2048SPs@384-Bit).

Dual-Hawaii (Vesuvius?) könnte durchaus kommen, erst recht wenn NV sich an Dual-GK110/GK180 (letzer ist laut China der Codenamen der K6000-GPU) herantraut.

Und dann gibt es ja auch noch die anderen "echten" VI-GPUs: Iceland, Tonga, Maui, die entweder schon in 20nm oder vielleicht in einer 28nm Prozessvariante @ GF gefertigt werden. Die dürften wohl 2014 auch in das Lineup integriert werden bzw. ersetzen dann wohl möglich einige GPUs.

mboeller
2013-09-24, 10:48:07
Ich sage gar nichts. Ich überlege nur, wie das zusammen passen könnte, falls es stimmen sollte. ;)

Könnte das dann ein weiterer Schritt auf dem Weg zu HSA sein? Also das die GPU in sich abgeschlossen ist und der Speichercontroller dann vielleicht die Funktionen für die GPU und CPU übernimmt. Passt ja eigentlich nur für die APUs aber vielleicht benutzen sie das System ja erst einmal bei ihrem Highend HSA Chip.

fondness
2013-09-24, 10:52:08
Mit einem wahrscheinlich überarbeiteten Boost und wohl möglich einer geringeren Maximalaufnahme, versucht man mit Tahiti XTL noch mal ein attraktives Angebot zu schnürren, bis man ihn wohl durch Hawaii LE ersetzt.
Die LE-Lösungen kommen ja typischerweise nicht direkt zum Launch. 4-6 Monate dürfte Tahiti XTL wohl noch überleben. Dann vielleicht der Ersatz durch eine R9-285X (Hawaii-LE, 2048SPs@384-Bit).

Dual-Hawaii (Vesuvius?) könnte durchaus kommen, erst recht wenn NV sich an Dual-GK110/GK180 (letzer ist laut China der Codenamen der K6000-GPU) herantraut.

Und dann gibt es ja auch noch die anderen "echten" VI-GPUs: Iceland, Tonga, Maui, die entweder schon in 20nm oder vielleicht in einer 28nm Prozessvariante @ GF gefertigt werden. Die dürften wohl 2014 auch in das Lineup integriert werden bzw. ersetzen dann wohl möglich einige GPUs.

Ganz klar ist das ohnehin noch nicht. Curacao ist schließlich auch eine Vulkaninsel eigentlich. Dual-GPU kommt wohl sicher, das hat der AMD-Mann im Interview ja schon ziemlich klar angedeutet.

AnarchX
2013-09-24, 10:58:58
Wobei Curacao aber auch die Nachbar-Insel von Bonaire ist und zum ähnlichen Zeitpunkt in Treibern auftauchte. Fragt sich nur warum der Release sich so verzögert hat, eventuell war es die Portierung auf 28HPM.

HOT
2013-09-24, 11:32:57
Ist doch egal ob Curacao jetzt vulkanisch ist oder nicht. Fakt ist doch, dass AMD die High-End-Variante von Sea-Islands gestrichen hat und alle anderen VI-Varianten bis auf Hawaii. Alle GCN 1.1 und Tahiti XTL rechnet AMD ja jetzt einfach Volcanic-Islands zu und fertig. Nachfolgend kommt Pirate-Islands. Mal gucken ob das wie geplant abläuft. Hängt wohl von den Fertigungsmöglichkeiten ab und von dem was NV macht. Einzig Beema dürfte ebenfalls GCN 2.0 sein und Volcanic-Islands zugerechnet werden.

fondness
2013-09-24, 11:49:23
Keine weiteren Leaks, hmm? Langweilig ^^

Sieht mir sehr nach eine gezielt gesteuerten Situation aus. Bis vor kurzem weiß man genau gar nichts. Plötzlich veröffentlicht der Typ von DICE offiziell ein Bild der Karten, dann folgen weitere und eine Seite mit Benchmarks. Dann wieder lange nichts. Alle anderen haben anscheinend noch nicht mal Karten, am Mittwoch soll ja auch kein Launch kommen.

fondness
2013-09-24, 12:16:29
Next gen faster than anything NVIDIA has...

http://hardforum.com/showpost.php?p=1040220915&postcount=1

HardOCP hat also offenbar bereits ein Sample. :D

Und noch ein Bild:
http://img41.imageshack.us/img41/4109/s48c.jpg (http://imageshack.us/photo/my-images/41/s48c.jpg/)

https://twitter.com/AMDRadeon/status/382369508322594816/photo/1

http://img194.imageshack.us/img194/829/kdxh.jpg (http://imageshack.us/photo/my-images/194/kdxh.jpg/)

https://twitter.com/AMDRadeon/status/382310386495524865/photo/1

Ailuros
2013-09-24, 12:20:54
http://hardforum.com/showpost.php?p=1040220915&postcount=1

HardOCP hat also offenbar bereits ein Sample. :D

Ja nur steht: AMD sez im gleichen Zitat direkt darueber. Braucht Ihr ne Uebersetztung dafuer? :biggrin:

M4xw0lf
2013-09-24, 12:23:15
Ich wollts auch grad schreiben.

fondness
2013-09-24, 12:25:41
Braucht Ihr ne Uebersetztung dafuer? :biggrin:

Ähm ja.

Ailuros
2013-09-24, 12:30:49
Ähm ja.

sez steht nicht fuer sezlong sondern fuer "AMD behauptet...."

Akkarin
2013-09-24, 12:33:17
Says ?

MR2
2013-09-24, 12:34:58
Na hoffentlich waren die Benchmarks wenigstens echt:-)

fondness
2013-09-24, 12:58:48
Naja okay sie werden wohl kaum kurz vor dem Launch etwas behaupten das nichts mit der Realität zu tun hat...

OBrian
2013-09-24, 13:08:30
stimmt, bei Bulldozer haben sie auch nie behauptet, die IPC stiege. :rolleyes: