PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 [54] 55 56

Locuza
2015-09-16, 19:40:04
Dann nenne doch mal einen die-shot der in Wahrheit ein Bullshot war, mit viel Verzerrung bzw. Photoshop?
Das siehst man regelmäßig bei Nvidia, bei AMD habe ich das noch nie gesehen.
Was man sieht sind Copy&Paste Fehler und Typos.

Hübie
2015-09-16, 19:47:40
nVidia nimmt immer nur Photoshop-Bilder, aber falsch sind die nie. Eher zurecht gerückt :D Und später ändert man einfach kommentarlos hier und da Daten. Egal darum gehts nicht. Es gibt einfach keine Anhaltspunkte für ein 384 Bit MI. Weder über register, ISA, Layout, Produkte oder oder oder... nix. Nur ein Bild. Also von daher...

fondness
2015-09-16, 19:49:45
NVs Zeug ist reines Photoshop-Bullshit-Bingo. Der besagte Die-Shot ist aber IMO viel zu detailliert um Fake zu sein, zudem passt er nur zu Tonga.

Locuza
2015-09-16, 20:00:05
Der Dieshot ist in meinen Augen ein verdammt guter Anhaltspunkt, AMD traue ich nicht zu absichtlich Falschinformationen in ein dieshot einzupflegen.
Ich denke es gibt keine tools, ohne spezifische ID Zuweisung, um herauszufinden was ein Chip maximal bietet?

eratte
2015-09-16, 20:02:05
Wird aber trotzdem vermutlich nur 256bit werden weil dann an den Boards nicht viel geändert werden muss - reine Spekulation von mir btw

Locuza
2015-09-16, 20:12:33
Ja kann gut sein, dass wir Tonga nie mit 384-Bit erleben werden.
Ich war mir auch unsicher, ob wir jemals ein Tonga mit 2048-ALUs für den Desktop-Markt sehen werden, nachdem Tonga schon als 380 rebranded wurde und nach insgesamt über 6 Monaten sich einfach nichts am Horizont getan hat.

OBrian
2015-09-16, 20:28:27
es kann ja sein, daß 384 bit wirklich da sind, aber trotzdem nie so gebaut werden, weil das einfach von der Produktplatzierung her nicht gewünscht ist.

Agent117
2015-09-16, 20:36:57
Da GM204 nur ~11% größer ist und NV im Gegensatz zu AMD auch teildefekte Chips verwenden könnte, sehe ich da für NV kein Problem.

Würde sogar sagen: Wenn NV den Preis der 970 auf ~270$ drückt und eine 970 Ti mit 14 SMM und "echten" 256bit @320$ bringt, sind es wieder AMD, die Probleme bekommen.

Da hast du vermutlich recht. So würde ich auch an NVs Stelle handeln um die marge bei GM204 höher zu halten als mit einem weiteren Salvage part.
Adererseits kann NV eine leicht schnellere TI Edition, die man im Referenzdesign bei 14SM kaum schneller als die non Ti Customs mit viel OC rausbringen kann, nicht mit einem echten 256Bit SI bewerben. Wobei ich NV sowas sogar zutrauen würde, frech wie die sind.:biggrin:

Ich vermute mal NV wird den Preis der GTX 970 etwas senken und sonst nix tun.

Ja kann gut sein, dass wie nie Tonga mit 384-Bit erleben werden.
Ich war mir auch unsicher, ob wir jemals ein Tonga mit 2048-ALUs für den Desktop-Markt sehen werden, nachdem Tonga schon als 380 rebranded wurde und nach insgesamt über 6 Monaten sich einfach nichts am Horizont getan hat.

Abwarten, vlt nehmen auch einige Bordpartner das Tahiti PCB samt größeren package für Tonga (sofern das technisch möglich ist) und bringen leicht teurere Versionen mit 384Bit.

Skysnake
2015-09-16, 20:45:07
Der Dieshot ist in meinen Augen ein verdammt guter Anhaltspunkt, AMD traue ich nicht zu absichtlich Falschinformationen in ein dieshot einzupflegen.
Ich denke, es gibt keine tools, ohne spezifische ID Zuweisung, um herauszufinden, was ein Chip maximal bietet?
Nein gibt es nicht.

Gab es aber nicht auch von ChipWorks einen tear down von Tonga?

Locuza
2015-09-16, 20:58:31
Nicht das ich wüsste (google auch nicht).
Bezüglich AMD kenne ich nur 4 dieshots.
Tahiti, Wiiu, Xbox One und PS4.

ndrs
2015-09-16, 21:41:31
Abwarten, vlt nehmen auch einige Bordpartner das Tahiti PCB samt größeren package für Tonga (sofern das technisch möglich ist) und bringen leicht teurere Versionen mit 384Bit.
Die GPU wird fertig auf dem Package verlötet verkauft. Da kann der Board-Hersteller garnichts machen.

Nakai
2015-09-16, 22:38:09
Nicht das ich wüsste (google auch nicht).
Bezüglich AMD kenne ich nur 4 dieshots.
Tahiti, Wiiu, Xbox One und PS4.

+Bonaire
+Capeverde
+Tonga

Da ich derzeit auch mit OpenCL wieder mehr "rumspiele". Eine ACE bei AMD kann pro Takt eine Workgroup an eine CU schedulen. Was ist, wenn dieser Kernel eine niedrige Utilization verursacht, dann sollte man doch mit mehr Queues eine höhere Auslastung erreichen?

Schade meine M4100 hat nur zwei ACEs mit je einer Queue. Mhh.

horn 12
2015-09-16, 22:40:49
Nakai

Kann jemanden ein R9 Sapphire Nano bestellen falls er möchte für 607 Euro
Abholbereit in Bruneck (Südtirol)

Interessierte bitte PN an mich!!

Thunder99
2015-09-16, 23:26:20
Was spricht gegen die Theorie das Tonga real 384bit hat aber nur 256bit funktionieren und der Rest defekt ist? AMD könnte sich gedacht haben, 'dank der Kompression langt 256bit und wir canceln ein Respin' (Speku!!!)

Sie müssten sich der Sache sehr sicher sein sonst wäre es mehr als peinlich wenn 280x schneller wäre als 380x in Bandbreitenintensiven Anwendungen/Spiele/Settings

von Richthofen
2015-09-16, 23:46:05
Mit 384 bit SI wäre mehr Bandbreite da, damit würde wohl gerade bei höheren Auflösungen durchaus noch was rauszuholen sein, und die sich dann ergebenden 6 GB sähen auch attraktiver aus. Hoffen wird mal, daß diese 384 bit wirklich vorhanden sind.

Ein durch ein etwaiges 384 Bit SI auf 6 GB VRAM ausgebauter Performancechip, ließe die Fiji SKUs mit deren "nur" 4 noch blöder ausschauen.
Vllt. wären sogar nur 3 GB als Standard plus einer unverschämt teuren Option auf Verdopplung (a la nV), die öffentlich weit weniger wahrgenommen wird, eine Möglichkeit.
Ansonsten wird es wohl die übliche 4 GB Variante.

Palpatin
2015-09-17, 08:23:35
Da liegt doch noch Hawaii dazwischen, welcher schneller ist und mit 8GB ausgeliefert wird und preislich weit unterhalb Fiji rangiert. Also völlig egal.
Außerdem sollte sich AMD mehr an NV orientieren als an Karten aus dem eigenem Haus. Bei NV klafft zwischen 960 und 970 ne große Lücke da könnte man rein und mit ner starken 250€ Karte die näher an 970 als 960 ist und über ein schönes VRAM Polster verfügt richtig schön Geld verdienen.

tm0975
2015-09-17, 08:45:37
Bei NV klafft zwischen 960 und 970 ne große Lücke da könnte man rein und mit ner starken 250€ Karte die näher an 970 als 960 ist und über ein schönes VRAM Polster verfügt richtig schön Geld verdienen.

Im Prinzip macht amd das ja schon etwas mit der 390, nur ist sie ja etwas schneller. Die 380x wird es wohl nicht fur 250, eher für 280 € geben. Die Frage ist, ob sich damit mehr verdienen lässt. Die Preislücke von über 100 € zwischen 380 und 390 ist aber definitiv zu groß.

Dural
2015-09-17, 09:08:55
Ach dieses Gerücht wird sich noch in 10 Jahren rumschlagen, wie so vieles wenn es um AMD GPUs geht... Da hat ja quasi jede GPU irgendwas Versteckt :freak:

Skysnake
2015-09-17, 10:24:34
Was je nachdem mit wem man redet auch völlig normal ist, weil man nur so Sachen auch mit richtig großen Stückzahlen testen kann.

MR2
2015-09-17, 22:25:22
"Der Ablauf des NDA und der Verkaufsstart liege allerdings Anfang November 2015. Darum werde AMD auch im vierten Quartal 2015 die Preise der R9 380 etwas anpassen um den passenden Spielraum für diese Grafikkarte zu gestalten. "

http://ht4u.net/news/31465_amd_bringt_radeon_r9_380x_anfang_november/

Die 380 etwas billiger? Klingt schon mal gut!

reaperrr
2015-09-18, 00:02:07
Momentan ist die unwesentlich langsamere GTX 960 in der 4GB-Ausführung günstiger zu bekommen als die 4GB-380, eine Preisanpassung ist also sowieso bald nötig, wenn AMD Marktanteile halten/zurückgewinnen will.

Knuddelbearli
2015-09-18, 00:22:13
eine langsamere Karte ist günstiger oh mein Gott AMD wird untergehen!

Hübie
2015-09-18, 00:25:12
Was ist denn da eigentlich los, dass es so lang dauert? Liegt ja wohl nicht nur an Apple oder?

reaperrr
2015-09-18, 00:33:38
eine langsamere Karte ist günstiger oh mein Gott AMD wird untergehen!
Eine ~4-5% langsamere Karte mit niedrigerem Stromverbrauch, bei der breiten Masse beliebterer Marke und auf dem Papier höherem DX FL ist 10% günstiger -> fast alle, die pro-Nvidia oder neutral sind werden in dem Preisbereich wohl eher die GTX nehmen, und das dürften >80% des Marktes sein.

iuno
2015-09-18, 22:52:41
Kann mir jemand sagen, was Iceland sein soll?

Sind hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10784143#post10784143) wieder draufgestoßen.
In dem Video verstehe ich etwas wie
Iceland, which is one of those power express (:confused:) chips with no display - however - on it.
Habe aber keine Ahnung was das sein soll
Warum "gibt" es den Chip nirgends, ob wohl er offenbar existiert? Sie pflegen auch extra Code für ihn in den Treiber ein und erwähnen ihn dort :confused:

HOT
2015-09-18, 23:07:46
Vielleicht ein CF-Erweiterungschip für Kaveri/Carrizo. Wenn kein Displaycontroller in irgendeiner Form vorhanden ist, muss das ja über den internen Displaycontroller laufen. Intern arbeitet das Teil AFAIK mit GCN1.2, wie Tonga und Fiji.

Locuza
2015-09-18, 23:12:08
@ iuno


"mczak said:
The interesting thing (if you look at the code) is that Hainan has no display controllers (and no UVD) - essentially looks like Mars/Oland but with that (and 1 CU) stripped off."

Correct, its a notebook chip (A.K.A. Sun).
https://forum.beyond3d.com/posts/1613482/

AMD hatte 5 GCN Gen 1 Chips.
Hainan, Oland, Cape Verde, Pitcairn und Tahiti.

Iceland ist dann vermutlich der Ersatz für Hainan, vermutlich für irgendwelche embedded Geschichten, wovon man öffentlich wenig bis nichts mitbekommt.

mczak
2015-09-19, 00:11:05
Iceland wird meines Wissens als Mobilversion (Topaz) mit Namen R7 M260 verkauft, also nicht unterscheidbar von den Mars/Oland Chips. Ich dachte eigentlich immer da müsste es aufgrund von FBC einen relativ grossen Performanceunterschied geben wenn man gleich bestückte no-bandwidth Varianten vergleicht (Iceland ist immer 64bit ddr3, vielleicht wäre auch gddr5 möglich aber jedenfalls nur 64bit, Oland kann theoretisch mehr findet man aber selten (64bit und 128bit Versionen laufen ja immer unter demselben Namen, zu dem Thema äussere ich mich hier nicht weiter...).
Habe aber auch noch nirgends was schlaues zu dem Thema gefunden, bei Notebook Reviews merkt das offenbar keiner welcher Chip da verbaut ist... Eigentlich müsste Iceland ja zumidest bei den Carrizo-Notebooks mit Hybrid-Grafik verbaut sein, keine Ahnung ob das aber wirklich der Fall ist...

Nakai
2015-09-19, 00:38:01
@ iuno


https://forum.beyond3d.com/posts/1613482/

AMD hatte 5 GCN Gen 1 Chips.
Hainan, Oland, Cape Verde, Pitcairn und Tahiti.

Iceland ist dann vermutlich der Ersatz für Hainan, vermutlich für irgendwelche embedded Geschichten, wovon man öffentlich wenig bis nichts mitbekommt.

Ich habe ja Oland im Notebook und würde derzeit gerne mit mehr Queues arbeiten...sind aber blos 2 Compute Queues verfügbar...

Iceland wird meines Wissens als Mobilversion (Topaz) mit Namen R7 M260 verkauft, also nicht unterscheidbar von den Mars/Oland Chips. Ich dachte eigentlich immer da müsste es aufgrund von FBC einen relativ grossen Performanceunterschied geben wenn man gleich bestückte no-bandwidth Varianten vergleicht (Iceland ist immer 64bit ddr3, vielleicht wäre auch gddr5 möglich aber jedenfalls nur 64bit, Oland kann theoretisch mehr findet man aber selten (64bit und 128bit Versionen laufen ja immer unter demselben Namen, zu dem Thema äussere ich mich hier nicht weiter...).
Habe aber auch noch nirgends was schlaues zu dem Thema gefunden, bei Notebook Reviews merkt das offenbar keiner welcher Chip da verbaut ist... Eigentlich müsste Iceland ja zumidest bei den Carrizo-Notebooks mit Hybrid-Grafik verbaut sein, keine Ahnung ob das aber wirklich der Fall ist...

DDR3 und GDDR5 sollten auf das gleiche PHY umgemünzt werden können. Ergo ist der Chip auch GDDR5-kompatibel.

Leonidas
2015-09-19, 09:25:59
Tonga könnte deswegen mit 384 Bit gebaut worden sein, weil man zur Designphase glaubte, Fiji mit 4 GB würde für Enthusiast reichen und demzufolge Tonga mit 3 GB für Performance. Nun ist man sich darüber im klaren, daß man mit 4 GB mehr Karten verkauft als mit 3 GB - und verkrüppelt somit bewußt das Speicherinterface von Tonga.

N0Thing
2015-09-19, 10:46:32
Man könnte die 380X dann aber auch mit 6GB anbieten, was sehr gut in das ganze Lineup hinein passen würde. Bei der 380 kann man das Speicherinterface ja wie gehabt bei 256Bit belassen, um einen größeren Unterschied zu erhalten und mehr defekte Chips unters Volk bringen zu können.

Leonidas
2015-09-19, 10:49:35
Sehr gute Möglichkeit. Erfordert aber neue Platinen und außerdem Mehrkosten für die 2 GB mehr. Eventuell ist der Performanceverlust von 256/4GB auch so gering, daß sich 384/6GB nicht lohnen.

dargo
2015-09-19, 11:04:21
Eine 380X mit 384Bit und 3-6GB macht imho gar keinen Sinn. Erstens ist das eine ganz gute 1080p Karte, da reichen zu 99% 4GB aus. Und zweitens taktet der Speicher einer 380 per Default mit 1375Mhz. Je nachdem was der Speichercontroller vertragen kann könnte eine 380X auch mit 1500-1750Mhz @256Bit kommen. Nvidia verbaut selbst auf einer 960 1750Mhz GDDR5, die Kosten dürften also gering sein.

iuno
2015-09-19, 11:08:06
Vielleicht ein CF-Erweiterungschip für Kaveri/Carrizo. Wenn kein Displaycontroller in irgendeiner Form vorhanden ist, muss das ja über den internen Displaycontroller laufen. Intern arbeitet das Teil AFAIK mit GCN1.2, wie Tonga und Fiji.
Ja, ist GCN 1.2, das können wir ja amdgpu entnehmen.

Iceland wird meines Wissens als Mobilversion (Topaz) mit Namen R7 M260 verkauft, also nicht unterscheidbar von den Mars/Oland Chips. [...]
Habe aber auch noch nirgends was schlaues zu dem Thema gefunden, bei Notebook Reviews merkt das offenbar keiner welcher Chip da verbaut ist... Eigentlich müsste Iceland ja zumidest bei den Carrizo-Notebooks mit Hybrid-Grafik verbaut sein, keine Ahnung ob das aber wirklich der Fall ist...
Ja, stimmt. Das wird wohl für so mobile "DX" Lösungen benutzt werden. Auch wenn es imho kaum lohnt, aber vielleicht ist der kleine Chip auch immer für die Entwicklung/Validierung usw. wichtig, wenn es eine neue GCN Iteration gibt?
Sicher, dass damals schon als 260 (mglw. als erster GCN1.3 Chip noch vor Tonga?) und nicht übernommen in die 300er Reihe?
Ja so eine Lösung taugt ja nun nicht für Spieler und Reviews gibt es bei solchen Geräten kaum und wenn schauen die Reviewer halt nicht genau hin ;)


Nvidia verbaut selbst auf einer 960 1750Mhz GDDR5, die Kosten dürften also gering sein.
Das ist kein Argument., die 960 hat ein 128 Bit SI, wofür 2-4 Speicherchips reichen, während Tonga an 256 Bit 4-8 Chips braucht.

Effe
2015-09-19, 11:19:45
Nvidia verbaut selbst auf einer 960 1750Mhz GDDR5, die Kosten dürften also gering sein.
Die hat auch nur ein 128bit Interface. Sonst wäre die Bandbreite schon arg dünn.

dargo
2015-09-19, 11:30:00
Das ist kein Argument., die 960 hat ein 128 Bit SI, wofür 2-4 Speicherchips reichen, während Tonga an 256 Bit 4-8 Chips braucht.
Das ändert nichts daran, dass GDDR5 spottbillig ist. Eine 4GB 380 ist gerade mal 25-28€ teurer als eine mit 2GB. Und bei einer 380X ändert sich bei der Vram Menge nichts, es bleibt bei 4GB. Nur u.U. etwas schneller Speicher. Wenn der bei 4GB für den Endkunden 10-15€ mehr kostet juckt das auch keinen.

|MatMan|
2015-09-19, 16:10:25
Sehr gute Möglichkeit. Erfordert aber neue Platinen und außerdem Mehrkosten für die 2 GB mehr. Eventuell ist der Performanceverlust von 256/4GB auch so gering, daß sich 384/6GB nicht lohnen.
Es wäre doch eine ziemliche Fehlplanung ein 384 bit Interface einzubauen und es dann nicht zu benutzen, weil man es nicht braucht. Sowas gabs noch nie!
Wenn man ein Feature hat, schaltet man es IMO auch frei, egal wieviel es bringt.

reaperrr
2015-09-19, 21:19:20
Es wäre doch eine ziemliche Fehlplanung ein 384 bit Interface einzubauen und es dann nicht zu benutzen, weil man es nicht braucht. Sowas gabs noch nie!
Wenn man ein Feature hat, schaltet man es IMO auch frei, egal wieviel es bringt.
Meine persönliche Meinung ist, dass Tonga ein relativer Reinfall ist. Das verdoppelte Frontend mit 8 ACEs ist in fast allen Spielen kaum von Vorteil ggü. Tahiti, 1/3 des Speicherinterfaces (und meiner Vermutung auch 512 KB L2$, denn der ist bei AMD normalerweise ans SI gekoppelt) nicht aktiviert...

Mit Dual-Frontend, 4 ACEs und nativ 256bit/1MB L2 wäre der Chip locker ~60mm² kleiner geworden, und damit sowohl etwas effizienter beim Verbrauch pro MHz als auch günstiger herzustellen gewesen.

tm0975
2015-09-22, 10:15:35
ich werde das gefühl nicht los, dass die fury x nur eine grafikkarten-studie ist. da ist ja seit wochen nichts mehr nachgekommen. evtl ist die kühlkonstruktion zu teuer und die chips gehen aus wirtschaftlicher sicht besser in die non x und die nano. die verfügbarkeit geht jedenfalls gegen 0. oder ist das pumpenthema doch zeitintensiver? ist schon alles sehr komisch.

Kartenlehrling
2015-09-22, 10:48:28
Die Test zeigen es und ich kann mir nicht vorstellen das im AMD Labor das nicht auch festgestellt wurde,
die R9FuryX ist nicht das Overclock Wunder was "versprochen" wurde und für die 3-5fps mehr in 4k ist der Stromhunger zu gross.
Wie ich jetzt die 3x Fij Karten sehe, wär mir eine gedrosselte FuryX mit 2x 100 Lüfter und nicht länger als 280mm am liebsten,
sowas wie die MSI R9-390x (http://www.msi.com/media/product/five_pictures2_3478_201506182006265582b4427e9f1.png62405b38c58fe0f07fcef2367d8a9 ba1/600.png) kann ich mir gut vorstellen.

tm0975
2015-09-22, 11:25:46
es ist mir unbegreiflich, warum die fury x nicht in der kühllösung der sapphire fury tri-x ausgeliefert wird. das design ist relativ preiswert und die kühlung exzellent. ist bin sehr, sehr positiv überrascht, wie leise die sapphire fury tri-x unter last ist. der durchgehende kühlkörper am letzten drittel der karte ist deutlich effizienter zu kühlen als bei den karten mit kompletten pcb und gddr5. vielleicht kommt ja da noch was...

Leonidas
2015-09-22, 12:12:45
Ich bin eher gespannt, wie AMD sich die Fury X2 vorstellt. Vollausbau mit hohen Taktraten geht Richtung 550W - setzt man dagegen auf Nano-Taktraten, kann man mit 370W herauskommen.

Kartenlehrling
2015-09-22, 12:21:01
http://www.legitreviews.com/wp-content/uploads/2015/06/amd-radeon-fury-x2-card.jpg
Das gezeigt PCB von der Fiji-X2 aber bitte nicht, wo die ganzen Spannungsphasen auf der Karte kreuz und quer verteil sind,
ich hätte sie gern in der Mitte oder neben den Monitor anschlusse.

StefanV
2015-09-22, 12:41:39
Was mich bei den Dual GPU Karten so sehr stört, sind die wenigen ANschlüsse, die sie bieten...

Anyway, das schaut ja eher nach 2x Nano auf dem PCB aus, oder?

tm0975
2015-09-22, 12:48:07
die x2 wird wahrsacheinlich eine dual nano werden. ich vermute, dass amd diese zusammen mit einem dx12 titel bringen wird, im dem die dual gpu vorzüge zum tragen kommen ohne die dual-gpu-nachteile aus dx11-zeiten zu haben. ich würde das zumindest so machen und das ganze auch gleich bundeln. quasi ein tolles neues dx-12-aaa-game für 1300 € und die schnellste grafikkarte liegt gratis dabei :-) :-) :-)

anddill
2015-09-22, 12:52:34
http://www.legitreviews.com/wp-content/uploads/2015/06/amd-radeon-fury-x2-card.jpg
Das gezeigt PCB von der R9FuryX2 aber bitte nicht, die ganzen Spannungsphasen auf der Karte verteil,
ich hätte sie gern in der Mitte oder neben den Monitor anschlusse.

Es sind 2x4 +1 Phasen mit den metallverkappten Hochleistungs-Mosfets. Würde auch sagen sieht nach NanoX2 aus.

HOT
2015-09-22, 13:45:13
würde auch sagen, das passt ganz gut. 350W TDP bei 450W Maxpower wie gehabt.

y33H@
2015-09-22, 15:40:09
Was mich bei den Dual GPU Karten so sehr stört, sind die wenigen ANschlüsse, die sie bieten ...Wie viele Monitor möchtest du da denn dran hängen? :freak:

R.I.P.
2015-09-22, 16:12:40
die x2 wird wahrsacheinlich eine dual nano werden. ich vermute, dass amd diese zusammen mit einem dx12 titel bringen wird, im dem die dual gpu vorzüge zum tragen kommen ohne die dual-gpu-nachteile aus dx11-zeiten zu haben. ich würde das zumindest so machen und das ganze auch gleich bundeln. quasi ein tolles neues dx-12-aaa-game für 1300 € und die schnellste grafikkarte liegt gratis dabei :-) :-) :-)

Genau, mit dem neuen Directx12 Feature "double your RAM"! Aus den 4GB werden dann die angepriesenen 8 GB. Medienwirksam wäre es :tongue:

iuno
2015-09-22, 21:08:26
Nachdem nvidia nun einen vollen gm204 in Laptops verbaut, denkt ihr da kommt noch ein mobiler Fiji-Ableger? Sehe nicht, warum das für AMD kein Thema ist, da hat man Nachholbedarf, an der nano sieht man, dass es passt und die marge ist viel höher als bei desktop Karten...
Hat NV nun eigentlich gsync mit eDP aktiviert? Sonst könnte man sich am notebook auch dort absetzen

aufkrawall
2015-09-22, 21:12:48
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.

R.I.P.
2015-09-22, 21:15:36
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.
Mit Gewalt, ja genau. Die arme Nano wollte gar nicht, aber sie wurde einfach Ihrer Unschuld beraubt...
:freak:

horn 12
2015-09-22, 21:17:25
Dafür ist Nano aber auch mindestens/ sprich gleich so schnell wie GTX 980 OC Versionen!
Dir kann man es auch kaum Recht machen!

aufkrawall
2015-09-22, 21:25:02
Mit Gewalt, ja genau. Die arme Nano wollte gar nicht, aber sie wurde einfach Ihrer Unschuld beraubt...
:freak:
Ich weiß ja nicht, was du so mit Grafikkarten anstellst, aber es dürfte wohl legal sein.

@horn:
https://www.youtube.com/watch?v=Jvk7faxsxkQ

iuno
2015-09-22, 21:28:00
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.

Reden wir von derselben 980 mit 2048 SP? Glaube nicht, dass die nur 100W nimmt. CB sagt etwas unter 165W. Und wo liegt das Problem die nano durchgängig etwa mit 800MHz zu betreiben, wenn sie so besser verkauft werden kann?

samm
2015-09-22, 21:29:37
Nachdem nvidia nun einen vollen gm204 in Laptops verbaut, denkt ihr da kommt noch ein mobiler Fiji-Ableger? Sehe nicht, warum das für AMD kein Thema ist, da hat man Nachholbedarf, an der nano sieht man, dass es passt und die marge ist viel höher als bei desktop Karten...
Hat NV nun eigentlich gsync mit eDP aktiviert? Sonst könnte man sich am notebook auch dort absetzennVidia müsste GSync eigentlich aktiviert haben, gab doch schon vor recht langer Zeit entsprechende Meldungen zu einem Asus-NB, was dann in die ganze Diskussion zu "das GSync-Modul ist doch nur ein unnötiges Dongle" reinspielte.

Einen mobilen Fiji-Ableger halte ich für schwer vorstellbar. Auch die Nano produziert noch wesentlich mehr Abwärme, als aus einem NB gescheit abführbar ist. Und eine komplett verkrüppelte Version mit noch weniger Verbrauch ist dann vermutlich wieder weniger effizient in Sachen Verbrauch / Leistung als die alten, kleinen Chips, dafür wesentlich teurer.

[edit]Das Posting zu den 165W nicht gesehen. Hätte ich nicht gedacht.

Agent117
2015-09-22, 21:32:12
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.

Nein, das war bisher so. Nvidia gibt jetzt GM 204 aber mit vollen 2048SP frei für die Notebookhersteller und diese können die TDP in einem Bereich von ca. 100 bis 180W frei einstellen, je nach Netzteil und Kühlung.

Unicous
2015-09-22, 21:37:20
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.

Die "normale" 980M soll um die 125 Watt haben woher, hast du die 100 Watt? Offizielle Angaben gibt es nicht.

iuno
2015-09-22, 21:39:46
@samm: Ja, ich hatte aber nachgefragt, weil ich dachte, dass das ein Vorserienmodell und die Funktion eigentlich nicht freigeschalten war.

Frage mich, was AMD macht. Schon als sie die Nano das erste mal genannt haben, dachte ich das das Teil doch in eine mobile Lösung muss.
Wie gesagt FreeSync wäre dann noch gut machbar und man hätte das Gaming-NB schlechthin – sofern ein Hersteller das bauen würde :P
Natürlich kostet Fiji in der Produktion mehr als GM204, daher wäre die Marge kleiner als bei Nvidia, aber immer noch deutlich größer als bei der Fury X :rolleyes:

y33H@
2015-09-22, 21:40:18
G-Sync für Mobile gibt's seit Juni 2015: http://www.golem.de/news/embedded-displayport-nvidias-g-sync-fuer-notebooks-benoetigt-kein-zusatzmodul-1506-114362.html

Die GTX 980 für Notebooks hängt mit 1,15 GHz Boost bei knapp 150 Watt rum sagte mir ein OEM.

Unicous
2015-09-22, 21:41:16
Dank spezieller Selektion soll die mobile GTX 980 die 165 Watt TDP des Desktop-Modells leicht unterbieten, dürfte aber dennoch bei mindestens 150 Watt und damit weit oberhalb jeder bisherigen Notebook-Lösung liegen. Je nach Endgerät kann die TDP auch nach oben oder unten angepasst werden (mit entsprechenden Auswirkungen auf Boost Clock und Performance), zudem erlaubt Nvidia explizit Overclocking mittels entsprechender Hersteller-Tools.

http://www.notebookcheck.com/Nvidia-Neues-Notebook-Flaggschiff-GeForce-GTX-980-vorgestellt.150730.0.html

iuno
2015-09-22, 21:44:05
G-Sync für Mobile gibt's seit Juni 2015: [...]
knapp 150 Watt [...]
http://www.notebookcheck.com/Nvidia-Neues-Notebook-Flaggschiff-GeForce-GTX-980-vorgestellt.150730.0.html
Danke!
Jetzt muss nur noch ein Nano-Besitzer die Karte mal auf 150 W drosseln :P

Klar, dass sie sich OC jetzt wieder extra bezahlen lassen, nachdem es für die 980M irgendwann mal im Treiber gesperrt wurde :tongue:

tm0975
2015-09-22, 22:22:29
Dafür ist Nano aber auch mindestens/ sprich gleich so schnell wie GTX 980 OC Versionen!
Dir kann man es auch kaum Recht machen!

also die 175 watt nano wird in 4 k fast doppelt so schnell sein wie die 100 watt 980 m Notebook!!!


Klar, dass sie sich OC jetzt wieder extra bezahlen lassen, nachdem es für die 980M irgendwann mal im Treiber gesperrt wurde :tongue:

dieses verhalten sollen ja angeblich 82% der grafikkartenkunden honorieren bzw toll finden ;-) war teuer, muß also besser sein :-D

Flusher
2015-09-22, 23:05:50
Die Nano ist schon mit Gewalt auf 185W gedrückt, die 980 Mobile soll 100W TDP haben.

Die GTX 980 rennt doch auch Kopf voraus dauernd ins PT-Limit. Und damit hast du offenbar kein Problem. :freak:

Das mit den 100W ist Unfug.

aufkrawall
2015-09-22, 23:34:00
Die "normale" 980M soll um die 125 Watt haben woher, hast du die 100 Watt? Offizielle Angaben gibt es nicht.
Heise:
http://www.heise.de/newsticker/meldung/3D-Performance-fuers-VR-Gaming-Nvidia-bringt-GeForce-GTX-980-in-Notebooks-2823302.html

iuno
2015-09-22, 23:35:46
Die Mobil-GPU GTX 980M verbrät nominal rund 100 Watt, die Desktop-Grafikkarte GTX 980 hingegen 165 Watt. Angesichts der versprochenen Performance-Daten dürfte auch die GTX 980 für Notebooks kaum weniger verbrauchen.
Es geht hier gerade um letztere, nicht um die 980M.

aufkrawall
2015-09-22, 23:39:31
Oops, du hast recht. Hab mir das schnell reingezogen, als ich vom Laufband kam. :redface:

Unicous
2015-09-22, 23:53:11
Heise:
http://www.heise.de/newsticker/meldung/3D-Performance-fuers-VR-Gaming-Nvidia-bringt-GeForce-GTX-980-in-Notebooks-2823302.html

Cool. Und was soll ich damit jetzt anfangen?:confused:

Die Leistungsaufnahme der GeForce GTX 980M sollte inkl. MXM Board und Speicher im Bereich der GTX 880M liegen, die mit einer TDP von 122 Watt spezifiziert wurde.

http://www.notebookcheck.com/NVIDIA-GeForce-GTX-980M.126679.0.html

futuremark behauptet z.B. es wären

125 Watt.

http://www.futuremark.com/hardware/gpu/NVIDIA+GeForce+GTX+980M/review

wie auch THG (geschätzt)

http://www.tomshardware.com/news/nvidia-geforce-maxwell-mobile-gtx-970m-gtx-980m,27833.html

Wir reden hier ja nicht von realem Verbrauch, oder was der OEM dann letztendlich konfiguriert hat. Die 980M dürfte nominell bei 125 Watt liegen, kann aber sicherlich auch auf 100 Watt runtergedrosselt werden. Soweit ich mich erinnere gibt es dahingehend auch Probleme bei 970M und 980M.

Eigentlich geht auch offiziell nicht mehr als 100 Watt bei MXM, btw. die "980 Mobile" dürfte es also eigentlich gar nicht geben laut Nvidias eigener Spec:wink:

AffenJack
2015-09-23, 08:10:42
Die 880M hat 125 W, bei der 980M wurde die TDP aber gesenkt. Die ganzen Abschätzungen basierten einfach darauf, dass die 880M 125W hatte. Nur bei dieser habe ich auch von vielen Problemen gehört, 980M und 970M laufen eher problemlos. Die genauen TDPs stehen hier:
http://forum.techinferno.com/general-notebook-discussions/7759-maxwell-gm204-gtx980m-gtx970m-gtx965m.html

Prema arbeitet an Biosen bei Clevo, er weiß da wohl bescheid. Daher 103 W.

Aber das ganze ist auch leicht offtopic.
Nur bis auf ne Dual-Karte wirds wohl auch nix mehr von Pirate Islands geben?

tm0975
2015-09-23, 08:22:24
bei der jetzigen Verfügbarkeit wäre es Unsinn, Energie in einen mobilen fury zu investieren. klar würde es gehen, aber man könnte auch genauso gut die preise ders desktopkarten um 30 bis 50 € senken und musik in die verkaufszahlen bringen. das passiert nur vorerst nicht, da sowieso keine nennenswerten Stückzahlen lieferbar sind.

y33H@
2015-09-23, 10:49:47
Eigentlich geht auch offiziell nicht mehr als 100 Watt bei MXM, btw. die "980 Mobile" dürfte es also eigentlich gar nicht geben laut Nvidias eigener Spec.Nur kurz am Rande: Die Dinger, auch 980M sind eh längst kein MXM mehr.

Unicous
2015-09-23, 12:50:15
Nur kurz am Rande: Die Dinger, auch 980M sind eh längst kein MXM mehr.

Das müsstest du dann aber schon ein wenig genauer erklären.

But today’s announcement puts NVIDIA’s new strategy front and center, that the full desktop-class GTX 980 (with 2048 cores) will be made available in an MXM format for notebooks as well as integrated designs.

http://www.anandtech.com/show/9649/nvidia-gtx-980-in-notebooks

NVIDIA wasn't specific about what the exact TDP of this GPU was, only that it was "a little lower" than the desktop version of the GTX 980. Looking at the MXM specifications, we find a 150 watt limit on current designs, so it's likely the limit that this new GPU will run at.

http://www.pcper.com/reviews/Graphics-Cards/Worlds-Fastest-Mobile-GPU-Full-GM204-GTX-980-Notebooks

Anscheinend gab es eine neue Rev.. Und die Spec ist ja nicht mehr frei verfügbar, dank Nvidia...äääh ich meine natürlich der MXM-SIG.:wink:

y33H@
2015-09-23, 13:57:53
Es ist kein MXM laut NV und die "Platine" ein reines Render-Bild. Wenn dann ein MXM-like Design.

Grabhopser
2015-09-23, 18:53:10
Wo grad alle über die angeblichen „Pascal“ zauba Einträge reden, es gibt auch ein neues AMD Design, C882. Wurde schon geklärt was das ist?

Die naheliegende Erklärung wäre wohl ein Fiji X2 (Fiji = C880) aber dafür scheinen die ersten Erwähnung am 26.8 und 1.9 reichlich spät.

https://www.zauba.com/import-p-n-102-c88202-00-foc-hs-code.html

Loeschzwerg
2015-09-23, 19:23:29
C880 => Fury X / non X Ref. PCB
C882 => Nano PCB
C883 => Voraussichtlich Dual Fiji

Thunder99
2015-09-24, 19:20:52
Hat nun Tonga ein 384bit Interface? 380x soll ja kommen aber mit 4GB aka 256bit :confused: Oder ist es defekt oder doch nicht notwendig? :confused:
(Quelle: http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=9616&ckattempt=1)

ndrs
2015-09-24, 22:08:35
Hat nun Tonga ein 384bit Interface?
Auf diese Frage gibt es nur die eine wahre Antwort: Vielleicht.

Agent117
2015-09-24, 22:25:23
Bei beyond3d war man sich damals recht sicher dass es 384Bit sind.
Die beiden 64Bit Blöcke rechts sind nicht um 45° gedreht (wies ja auch da steht) was in 28nm wohl nicht mehr ohne weiteres geht sondern in Teilen verschoben.
Es wurde mal gemutmaßt dass AMD ein 384Bit SI verbaut hat, weil man sich nicht sicher war ob die Farbkompression richtig funktioniert. Das halte ich aber für Quatsch.

https://forum.beyond3d.com/posts/1847970/

Locuza
2015-09-24, 22:36:19
Ich denke aus Kosten und Effizienzgründen hat man sich eine volle Anbindung gespart, wobei das teilweise auch keinen Sinn macht.
Tonga macht kein Sinn, AMD macht kein Sinn, nichts macht da Sinn. /ragequit

StefanV
2015-09-25, 00:06:35
Hat nun Tonga ein 384bit Interface?
Bisher geht man davon aus, ja.
Die Frage ist nur, ob es auch sinnvoll ist, das noch auszuführen...

Oder ob man damit nicht ev. der 390 zu nah kommen würde...

Nightspider
2015-09-25, 00:15:25
Tonga 256Bit SI:

http://www.computerbase.de/2015-09/radeon-r9-380x-grafikkarte-mit-tonga-xt-fuer-november-bestaetigt/

ndrs
2015-09-25, 00:25:44
Tonga XT 256Bit SI
fixed.

Das sagt nichts über den Chip aus, sondern nur über dessen Konfiguration für eine Grafikkarte.

Thunder99
2015-09-25, 01:54:09
Bisher geht man davon aus, ja.
Die Frage ist nur, ob es auch sinnvoll ist, das noch auszuführen...

Oder ob man damit nicht ev. der 390 zu nah kommen würde...
bestimmt nicht, da dieser ja aufgebohrt wurde. Oder ist jemals eine R9 280x einer R9 290 nahe gekommen? So viel besser ist ja GCN 1.2 ja nicht

@Nightspider: siehe mein Post weiter oben :rolleyes: :wink: Ich glaube mit 384bit und 6GB würde sich die Karte besser verkaufen und interessanter sein. Wäre DER Lückenfüller zwischen 4GB 380 und 8GB 390

OBrian
2015-09-25, 07:36:50
TDP wäre noch interessant zu wissen...

fondness
2015-09-25, 09:54:42
Die nie erschienene 285X hatte eine TDP von 225W...

Schaffe89
2015-09-25, 10:26:50
Sollte die Karte mit 1050 mhz Takt kommen, wird die Karte vermutlich fast genausoschnell wie eine 290 sein.
280x + 15% werden es vermutlich dann sein.
Ich sehe die Karte wenn Directx12 mal breit verfügbar ist, als eigentlicher Konkurrent der GTX 970.
Die 390, ja selbst die 290 zieht der GTX 970 davon.

Ich denke dass es in ein paar Monaten unter Directx12 mit der Effizienz von Maxwell nicht mehr weit her ist.
Auch bezogen auf die Chipgrößen nicht.

Tonga ist ca 365mm² groß, Maxwell ~400mm². Ich denke ne 380x könnte durchaus an ne GTX 970 herankommen, vielleicht auch mit dem neuen Omega Treiber.

tm0975
2015-09-25, 10:41:27
das sehe ich genauso, schaffe89. allerdings geht der dx12 zug mehr als schleppend los, aus sicht von amd.der ark dx 12 patch ist z.b. immer noch nicht da. mit einer 380x, dx 12 und freesync wird es sehr schwer für nvidia, die 970 noch objektiv gut zu platzieren. allerdings kaufen auch viele ohne sich vorher mit dem thema auseinanderzusetzen.

Grabhopser
2015-09-25, 10:55:29
Ich denke dass es in ein paar Monaten unter Directx12 mit der Effizienz von Maxwell nicht mehr weit her ist.


Wieso sollte die Effizienz unter Dx12 leiden? Oder anders ausgedrückt, eine mögliche bessere Auslastung der ALUs bei deinem prognostizierten Gleichstand mit der 970 verschiebt die Effizienzkurve nicht dermaßen, dass man auch nur annähernd von Parität sprechen könnte.
Der Rest isst Spekulatius.

Thunder99
2015-09-25, 13:13:37
Blöd nur für AMD das die Leute schon gemolken wurden mit der 970. Da ist der Markt einfach schon gesättigt...

tm0975
2015-09-25, 13:31:47
Blöd nur für AMD das die Leute schon gemolken wurden mit der 970.

exakt. der vorteil dessen, der zuerst mit nem neuen produkt auf dem markt war. amd hat viel zu lange die 300er verzögert.

dargo
2015-09-25, 13:35:20
Hätte imo AMD auch nicht viel gebracht ohne eine low level API.

Kartenlehrling
2015-09-25, 13:40:53
Nun müsste auch der letzte wissen das DX11 einfach nur schlecht für die Entwicklung war, nun sind 6 Jahre rum,
und wir quälen uns immer noch mit Singlecore Altlasten rum.
DX12/Vulkan sind mindesten 3 Jahre zu spät für AMD gekommen.

von Richthofen
2015-09-25, 15:18:13
Das ganze Rumgeheule hilft doch nicht.
AMD muss endlich lernen Produkte für die aktuellen Bedürfnisse des Marktes zu entwickeln, da darin schließlich wirtschaftlicher Erfolg begründet wird.
Was nützt es denn im Nachhinein wieder von einer handvoll Nerds ob der richtungsweisenden Technik gefeiert zu werden?.

Thunder99
2015-09-25, 15:27:56
Nun müsste auch der letzte wissen das DX11 einfach nur schlecht für die Entwicklung war, nun sind 6 Jahre rum,
und wir quälen uns immer noch mit Singlecore Altlasten rum.
DX12/Vulkan sind mindesten 3 Jahre zu spät für AMD gekommen.
Mantle :wink: Das hat den wesentlichen Fortschritt gebracht, auch für nvidia User.

Denke sie hatten das Budget nicht mehr um was besseres als Fiji zu entwickeln...

tm0975
2015-09-25, 16:18:42
Mantle :wink: Das hat den wesentlichen Fortschritt gebracht, auch für nvidia User.

Denke sie hatten das Budget nicht mehr um was besseres als Fiji zu entwickeln...

fiji ist prima. nicht besser als fiji, sondern mehr als nur fiji hätten sie entwickeln und verkaufen müssen...

StefanV
2015-09-25, 17:06:50
Blöd nur für AMD das die Leute schon gemolken wurden mit der 970. Da ist der Markt einfach schon gesättigt...
Hätte auch nichts gebracht, da viele Leute einfach verblendet sind und nur Geforces kaufen und Alternativen gar nicht erst in Betracht ziehen...

Ist sehr schade, dieser Zustand. Aber so ist es leider bei weniger gut informierten Leuten :(

reaperrr
2015-09-25, 18:48:19
Hätte auch nichts gebracht, da viele Leute einfach verblendet sind und nur Geforces kaufen und Alternativen gar nicht erst in Betracht ziehen...

Ist sehr schade, dieser Zustand. Aber so ist es leider bei weniger gut informierten Leuten :(
Ganz so pauschal kann man das nun auch wieder nicht sagen.

Bis zu den GTX 9x0 lief es nämlich für AMD noch ganz ok, gab also schon genug Leute, die die Vorteile von Hawaii ggü. GK110 wahrgenommen haben.

Aber gegen das Gesamtpaket von GM204 aus besserer Leistung bei höherer Effizienz und neuerer Technik hatte AMD halt nichts entgegenzusetzen, auch wenn ich der Meinung bin, zumindest eine 295X mit 1050 MHz Chiptakt, 8GB VRAM @ 5,5 GHz und ohne langsamen (= in Reviews schlecht aussehenden) Quiet-Modus hätte AMD einfach schon letzten Herbst bringen müssen, um Durchschnittspreise und zumindest leistungsmäßige Konkurrenzfähigkeit einigermaßen über Wasser zu halten bis zum 300er Refresh. Da haben sie Nvidia einfach zu sehr einen Freifahrtschein ausgestellt.

von Richthofen
2015-09-25, 20:59:26
Hawaii pfeift doch taktmäßig von jeher auf dem letzten Loch.
Die paar MHzen mehr und dann dafür die explodierende Leistungsaufnahme in Kauf nehmen ist ein schlechter Deal.
Vllt. hätte man die 390er Serie mit den beinahe durch die Bank verbesserten Designs eher bringen können.

Hübie
2015-09-25, 21:33:49
Hätte auch nichts gebracht, da viele Leute einfach verblendet sind und nur Geforces kaufen und Alternativen gar nicht erst in Betracht ziehen...

Ist sehr schade, dieser Zustand. Aber so ist es leider bei weniger gut informierten Leuten :(

Genau. Wir sind alle verblendet und desinformiert :rolleyes:

Ich bin nach wie vor verwundert dass man aus 4096 ALUs so wenig herauspresst. Die Balance ist offenbar suboptimal. Dann halt in Runde 2.

OBrian
2015-09-26, 05:59:00
Also man darf ja nicht vergessen, daß in der Langfristplanung 20-nm-Chips vorgesehen waren, die dann weggefallen sind. Gäbe es die, hätte es so einen Fiji evtl. nie gegeben. Bei einem Fertigungswechsel muß eh viel umstrukturiert werden, da geht man dann auch Architekturänderungen an, aber bei Fiji hat man sich das wohl gespart, weil es sonst sicher noch länger gedauert hätte. Mit architektonisch unverändertem Tonga, der nur größer skaliert wurde, ist das Debugging eben einfacher. Der ganze HBM-"Mist" hat wohl schon genug Arbeit gekostet.

Säße AMD nicht schon ewig auf 28 nm rum (auch bei APUs), ginge es ihnen sicherlich besser. Aber man muß mit dem arbeiten, was machbar ist, und die Alternative zu diesem Fiji jetzt wäre vielleicht ein 10% schnellerer Fiji in einem halben Jahr gewesen, was definitiv schlechter gewesen wäre.

HOT
2015-09-26, 10:42:07
Hätte auch nichts gebracht, da viele Leute einfach verblendet sind und nur Geforces kaufen und Alternativen gar nicht erst in Betracht ziehen...

Ist sehr schade, dieser Zustand. Aber so ist es leider bei weniger gut informierten Leuten :(
Na ja, mit der Speicherpartition der 970 werden die Käufer noch massiv Spass mit dem Frametimes bekommen, wenn der Speicherverbrauch ein bisschen steigt. Die müssen dann halt ne GTX1070 kaufen nächstes Jahr - eingebautes Verfallsdatum sozusagen. Eine ähnliche Nummer hat man doch mit den 2GB bei der 680 und 770 abgezogen.
Radeon-Besitzer haben kaum Grund von Tahiti umzusteigen, die 3GB und Leistung sind zwar mittlerweile knapp, gehen aber meist noch klar. Kein Wunder also, dass die Geforces mehr verkauft werden.
Ist doch klar, was passiert: Viele haben sich den effizieteren GK104 gekauft, dann werden auf einmal die 2GB knapp, dann gucken sie in die Presse, dort wird grad zufällig die 970 als supereffizient abgefeiert und das wars dann. Die Verbindung, dass man NV auf den Leim geht und das Spiel in 2016/17 von vorne losgeht, daran denken die wenigsten.
Ergo: Du kannst sowas nicht über die Nachfrageseite glattbügeln, das geht genausowenig wie bei zu billigem Fleisch oder anderen Dingen, die in der Wirtschaft nicht stimmen. Angebot und Nachfrage ist halt kein Naturgesetz, sondern ein mathematischer Effekt, den gewisse Kreise einfach gut auszunutzen vermögen.

Timbaloo
2015-09-26, 11:07:13
dann gucken sie in die Presse, dort wird grad zufällig die 970 als supereffizient abgefeiert und das wars dann.
Korrekt. Aber warum hat AMD nicht einfach eine ähnlich effiziente Lösung auf den Markt gebracht? Fakt ist, dass AMD einem GM104 nichts entgegensetzen konnte und folglich Marktanteile einbüssen musste. Das Gelaber von "eingebautem Verfallsdatum" und "mit DX12 wird alles besser" ist doch reine Schönrederei der Wettbewerbsunfähigkeit von AMDs Grafikartensparte gegen Ende des 28nm-Prozesses.

Bleibt zu hoffen, dass es unter 14nm besser wird.

StefanV
2015-09-26, 11:26:07
Na ja, mit der Speicherpartition der 970 werden die Käufer noch massiv Spass mit dem Frametimes bekommen, wenn der Speicherverbrauch ein bisschen steigt. Die müssen dann halt ne GTX1070 kaufen nächstes Jahr - eingebautes Verfallsdatum sozusagen.
Richtig, aber diesen Zustand wollen einige auch jetzt noch nicht wahr haben und leugnen es, so gut es geht.
Bzw fangen sogar an jemanden, der sowas erwähnt, zu beleidigen...

Da nVidia es sich aber leisten kann, sehr BWL geführt zu arbeiten, ist das eigentlich nur die Logische Konsequenz - und der eigentliche Grund, warum man das überhaupt gemacht hat...


Eine ähnliche Nummer hat man doch mit den 2GB bei der 680 und 770 abgezogen.
Radeon-Besitzer haben kaum Grund von Tahiti umzusteigen, die 3GB und Leistung sind zwar mittlerweile knapp, gehen aber meist noch klar. Kein Wunder also, dass die Geforces mehr verkauft werden.
Auch richtig.
Und auch dieser Zustand wird immer wieder geleugnet...

Immer wieder wird der Vorteil von mehr Speicher runtergespielt und behauptet, dass das ja sowas von egal wäre - als ob die Leute völlig lernresistent sind und aus der Vergangenheit einfach mal nichts gelernt haben - oder nichts lernen wollten...
Das Kärtel mit mehr Speicher war langfristig immer die bessere Wahl...


Ist doch klar, was passiert: Viele haben sich den effizieteren GK104 gekauft, dann werden auf einmal die 2GB knapp, dann gucken sie in die Presse, dort wird grad zufällig die 970 als supereffizient abgefeiert und das wars dann. Die Verbindung, dass man NV auf den Leim geht und das Spiel in 2016/17 von vorne losgeht, daran denken die wenigsten.
Agreed.
Und wenn man diesen Zustand erwähnt, wird man von den meisten Leuten im Forum geflamt, weil man es gewagt hat, deren Hersteller anzugreifen - die Wahrheit tut manchmal weh. Und da ist es halt einfacher, sie zu leugnen, leider...

Aber genau das ist ja gerade das Problem...

Und viele kauften sich 'ne GTX 680, dann 780(Ti), rüsteten auf 970 oder 980 auf und dann kam 'ne 980Ti in den Rechner...

Ergo: Du kannst sowas nicht über die Nachfrageseite glattbügeln, das geht genausowenig wie bei zu billigem Fleisch oder anderen Dingen, die in der Wirtschaft nicht stimmen. Angebot und Nachfrage ist halt kein Naturgesetz, sondern ein mathematischer Effekt, den gewisse Kreise einfach gut auszunutzen vermögen.
Das Problem an dem ganzen ist, dass der Markt bei Dingen, die etwas komplizierter werden, gar nicht mehr funktioniert.

Ein Beispiel davon sind Mobiltelefone!
Bei PC-Hardware ist es hier nicht anders...

Und da muss man dann ganz hart sagen, dass z.T. nicht vorhandenes Wissen durch Glauben ersetzt wird...
Und dann glaubt man halt einfach, dass das eigene Zeugs bzw von dem Hersteller das tollste und beste auf der Welt ist - wenn jemand anderer Meinung ist, dann muss der bekehrt oder beleidigt werden, weil kann/darf ja nicht sein, dass er den eigenen "Gott" beleidigt...

Das ist das eigentliche Problem, meiner Meinung nach....
Und auch etwas, was die 'Fachpresse' mal etwas angehen sollte bzw müsste...

Aber schon zu Hochzeiten des K8 hast du ja auch schon gemerkt, dass trotzdem Intel gekauft wurde, von Endusern, die halbwegs informiert waren!
Obwohl sie damals das deutlich schlechtere Produkt gekauft haben...

Und heute bei Grafikkarten ist das (leider) nicht anders...
Ich habe ja auch etwas Kontakt zu einigen weniger gut informierten Leuten und da ist es leider so, dass grundsätzlich die 'Tschiforze' gekauft wird, was anderes gibt es für die nicht...

Verstehen kann ich das überhaupt nicht...
zumal bei mir damals jede Geforce aus dem Rechner geflogen ist, weil mir irgendwas von denen tierisch aufn Sack ging. Meistens der tolle TV Out der nVidia Karten bis GF4 Ti. Wobei die 128MiB GF4 TI4200 durchaus recht lang bei mir gehalten hat - für eine nV Karte...

Korrekt. Aber warum hat AMD nicht einfach eine ähnlich effiziente Lösung auf den Markt gebracht?
Warum ist die Effizienz auf einmal wichtig, wenn AMD etwas schlechter dasteht?!
Verstehe nicht, dass man sich binnen weniger Wochen so sehr um 180° drehen kann...
Zu Fermi Zeiten war das seltsamerweise relativ egal. Und auch im Idle gab es kaum einen Unterschied...

Zumal es hier auch noch um ein Hobby geht, was viele gerne vergessen...

Aber hier fängst du wieder mit dem schlecht reden von AMD an...

Und jetzt schaue bitte mal, wo die 7970 heute steht.
Und wo die ach so tolle GTX 680 steht, von der Performance her...

Das ist kein Vergleich mehr, da die GTX 680 sich zum Teil mit der HD7870 rumschlägt und z.T. sehr weit von der 7970 weg bleibt...


Fakt ist, dass AMD einem GM104 nichts entgegensetzen konnte und folglich Marktanteile einbüssen musste.
Fakt ist, dass die ganzen nVidia Fans die AMD Karten schlecht geredet haben und jeden Vorteil der AMD Karte versucht haben zu negieren...
Insbesondere die +1GiB VRAM wurden von den ganzen nV Fans versucht weg zu reden...

Und jetzt schaue mal, wo die 7970 jetzt steht...
Dass die ganzen nV Fans kein Gewissen haben, ist ja nichts neues...
Entsprechend wird auch kaum jemand zugeben, dass er damals die (langfristig) deutlich schlechtere Wahl empfohlen hat. Aber genau das ist hier passiert...

Um meine Behauptungen hier noch zu belegen, hier ein Link (http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/) zu einem Gameworks Titel.
Und da ist sogar die GTX 770 unter eine R9-270X Karte - uups...

Die R9-280X (=7970GHz) liegt mal eben 36% (avg fps) vor der 770!!
Wie erklärst du uns diesen Zustand jetzt?!

Das Gelaber von "eingebautem Verfallsdatum" und "mit DX12 wird alles besser" ist doch reine Schönrederei der Wettbewerbsunfähigkeit von AMDs Grafikartensparte gegen Ende des 28nm-Prozesses.
Und dass die AMD Karten so unglaublich viel verbrauchen und man 'nen eigenes Atomkraftwerk für die Karten braucht, ist auch Schönrederei der nVidia Fans gewesen. Ebenso die Aussage, dass man die +1GiB RAM gar nicht brauchen würde, das wäre ja egal und überhaupt kommen so schnell ja eh keine Spiele, die das ausnutzen würden.

Und was du hier machst, ist auch nur wieder auf AMD rumzukloppen...
Und dabei die ganzen aktuellen Fakten ignorierst...

Denn Fakt ist, dass nVidia mit den GK104 Karten ganz ganz weit weg von den Tahitis ist, in neusten Benches...

Grestorn
2015-09-26, 23:13:02
Lustig, wie immer wieder das baldige Versagen der 970 herbeigeredet wird, nachdem sie leider weiterhin tadellose Leistungen zeigt. Wirkt irgendwie ziemlich verzweifelt.

Botcruscher
2015-09-26, 23:31:45
Welche tadellose Leistung? Die letzte davon war Batman.

tm0975
2015-09-26, 23:38:04
Korrekt. Aber warum hat AMD nicht einfach eine ähnlich effiziente Lösung auf den Markt gebracht? Fakt ist, dass AMD einem GM104 nichts entgegensetzen konnte und folglich Marktanteile einbüssen musste. Das Gelaber von "eingebautem Verfallsdatum" und "mit DX12 wird alles besser" ist doch reine Schönrederei der Wettbewerbsunfähigkeit von AMDs Grafikartensparte gegen Ende des 28nm-Prozesses.

Bleibt zu hoffen, dass es unter 14nm besser wird.

die dx 12 benchs sprechen eine eindeutige sprache. zudem sind fury und die 380 sehr gute karten. und die Effizienz einer nano schafft kein gm irgendwas. mal abgesehen vom der kompakten Bauweise. m$ war zu langsam mit dx12. ein bisschen verwunderlich ist, dass amd es mit dx11 nicht geschafft hat, die Architektur besser auszulasten.

dargo
2015-09-26, 23:56:02
Lustig, wie immer wieder das baldige Versagen der 970 herbeigeredet wird, nachdem sie leider weiterhin tadellose Leistungen zeigt. Wirkt irgendwie ziemlich verzweifelt.
[Trollmodus On]

Du meinst diese tadellosen Leistungen?
http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-3-Spiel-55478/Specials/BO3-Beta-Benchmarks-Windows-10-1169217/
http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/

[Trollmodus Off]

StefanV
2015-09-27, 00:04:49
Lustig, wie immer wieder das baldige Versagen der 970 herbeigeredet wird, nachdem sie leider weiterhin tadellose Leistungen zeigt. Wirkt irgendwie ziemlich verzweifelt.
Du meinst die genialen Benchmarks, wo sich die GTX 970 mit der Radeon R9-280X rumschlagen muss und die 290 in weiter ferne liegt?

Tschuldigung, aber die ~350€, die eine GTX 970 JETZT noch kostet, um dann ~15% flotter als 'ne 280X zu sein, sind irgendwie ziemlich erbärmlich, findest du nicht auch?
Spätestens das wäre dann der Zeitpunkt, an dem ich Enrage gehen würde, wenn ich mir eine 970 gekauft hätte...

Timbaloo
2015-09-27, 00:22:07
Denn Fakt ist, dass nVidia mit den GK104 Karten ganz ganz weit weg von den Tahitis ist, in neusten Benches...
Na zum Glück habe ich auch von GM104 geredet womit dein kompletter "Beitrag" irrelevant ist.

Kleiner Tipp: Ohne Schaum vor dem Mund liest es sich besser.

Nakai
2015-09-27, 00:39:48
Reinher von den Specs ist ein GM204 einem Tonga & Tahiti sehr ähnlich.
NV ist aber hierbei trotzdem einen Schritt vorraus. Maxwell hat SingleCycle F16-TMUs und eine höhere TMU-Bandbreite (wie schon hier erwähnt wurde von Gipsel). GM204 hat mehr Cache und ist energieffizienter. Unter Compute ist GM204 einer Tahiti kaum überlegen, je nach Anwendungsfall. Selbstverständlich gibt es Unterschiede.

GCN ist generell Compute-stark, wenn jetzt mehr Compute in die Spiele kommt, wird GCN dementsprechend "besser" dastehen. Dank AsyncCompute und NVs möglichem Problemen diesbezüglich, könnte Maxwell+Pre bei DX12 an andere Grenzen kommen.

aufkrawall
2015-09-27, 00:51:21
Unter Compute ist GM204 einer Tahiti kaum überlegen, je nach Anwendungsfall.
Sorry, aber das ist grotesk falsch. GM204 ist häufig mehr als doppelt so schnell als Tahiti:
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/24
Wo gibts das umgekehrt?

Nakai
2015-09-27, 01:50:56
Sorry, aber das ist grotesk falsch. GM204 ist häufig mehr als doppelt so schnell als Tahiti:
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/24
Wo gibts das umgekehrt?

Der erste Graph in deinem Link wär gelich so ein Fall.
Muss es umgekehrt sein, damit du widerlegt wirst? :)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/

Ich sehe in den Benches oftmals keine richtige Skalierung. Ergo nichtssagend für die Compute-Leistung. Darf ich auch Benches posten? :)
Welche AMD eine besseren Licht darstelllen?

http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/6/

Bei Musemage ist ein teilaktivierter Tonga einfach mal 30% schneller als GM204. Und bei vielen anderen gibts auch Vergleichbarkeiten zwischen Tonga und GM204. Die SPs sind drauf und sind nicht nur zur Zierde da. Die kann man ansprechen, also muss ich davon ausgehen, dass irgendwelche umliegenden Parameter für die miese Performance zuständig sind.
Womöglich benutzten die eine Blockgröße von 32.;D

€:
Tonga vs GTX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=26375344&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+%28TM%29+R9+380+Series&D2=NVIDIA+GeForce+GTX+980
Tahiti XT vs TX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=22357886&os1=OS+X&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+980&D2=AMD+ASUS+R9+280X+Series

Wo ist dein GM204 so viel stärker?

€2: Ahja in Video Composition ist Tonga PRO doppelt so schnell wie ein GM204 Full. Ist es jetzt QED?
Compute-mäßig ist GCN einfach abartig nett.

Hübie
2015-09-27, 03:44:50
Ach kommt schon. In diesem Segment solche Kinderbenchmarks heranzuziehen ist billig. Das sind Gamerkarten. Wer damit Arbeitet kauft Quadro oder Wxxxx. Und da ist es - das kann hier kaum einer abstreiten - davon abhängig was angewandt wird.
Jemand der seit Jahren mit Solidworks arbeitet wird nicht wegen einer Quadro zum Inventor wechseln, sondern weiter eine FirePro kaufen. Genau so läuft es da nun mal. Wenn der IT-ler eine Affinität hat kommt einfach das reingekloppt was ihm gefällt oder was der Nutzer will.
Nicht was Luxmark und Co ausspucken. Beide Architekturen können stärken ausspielen wenn man die Ressource richtig einsetzt.

Obwohl man bei AMD afaik eher die Möglichkeit hat eine Radeon als FirePro einzusetzen. Da fehlt mir jedoch die genaue Info.

fondness
2015-09-27, 11:04:38
Ach kommt schon. In diesem Segment solche Kinderbenchmarks heranzuziehen ist billig. Das sind Gamerkarten. Wer damit Arbeitet kauft Quadro oder Wxxxx. Und da ist es - das kann hier kaum einer abstreiten - davon abhängig was angewandt wird.
Jemand der seit Jahren mit Solidworks arbeitet wird nicht wegen einer Quadro zum Inventor wechseln, sondern weiter eine FirePro kaufen. Genau so läuft es da nun mal. Wenn der IT-ler eine Affinität hat kommt einfach das reingekloppt was ihm gefällt oder was der Nutzer will.
Nicht was Luxmark und Co ausspucken. Beide Architekturen können stärken ausspielen wenn man die Ressource richtig einsetzt.

Obwohl man bei AMD afaik eher die Möglichkeit hat eine Radeon als FirePro einzusetzen. Da fehlt mir jedoch die genaue Info.

Es geht um Compute, nicht um CAD. Der ALU-Durchsatz ist auch bei Teslas oder FirePRO-Karten nicht höher wie bei den Desktop-Modellen und der Treiber spielt für die reine ALU-Leistung kaum eine Rolle. Aber natürlich sind solche Benchamrks mit sehr viel Vorsicht zu genießen, solange man nicht weiß was da wirklich germacht wird.

Hübie
2015-09-27, 13:38:38
Natürlich. Gerade bei nVidia ist vieles durch Treiber / BIOS und ein paar Cent-Bauteilen abgegrenzt. Und CAD ist rein zufällig auch viel compute wenn mans denn nutzt.
Ich arbeite mit dem Autodesk Inventor und molt addon. Das fordert schon was.

-/\-CruNcher-/\-
2015-09-27, 13:51:07
Der erste Graph in deinem Link wär gelich so ein Fall.
Muss es umgekehrt sein, damit du widerlegt wirst? :)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/

Ich sehe in den Benches oftmals keine richtige Skalierung. Ergo nichtssagend für die Compute-Leistung. Darf ich auch Benches posten? :)
Welche AMD eine besseren Licht darstelllen?

http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/6/

Bei Musemage ist ein teilaktivierter Tonga einfach mal 30% schneller als GM204. Und bei vielen anderen gibts auch Vergleichbarkeiten zwischen Tonga und GM204. Die SPs sind drauf und sind nicht nur zur Zierde da. Die kann man ansprechen, also muss ich davon ausgehen, dass irgendwelche umliegenden Parameter für die miese Performance zuständig sind.
Womöglich benutzten die eine Blockgröße von 32.;D

€:
Tonga vs GTX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=26375344&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+%28TM%29+R9+380+Series&D2=NVIDIA+GeForce+GTX+980
Tahiti XT vs TX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=22357886&os1=OS+X&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+980&D2=AMD+ASUS+R9+280X+Series

Wo ist dein GM204 so viel stärker?

€2: Ahja in Video Composition ist Tonga PRO doppelt so schnell wie ein GM204 Full. Ist es jetzt QED?
Compute-mäßig ist GCN einfach abartig nett.

Der test würde nur relevanz haben wenn du optimierte Maxwell V2 CUDA Kernels gegen AMD optimierte OpenCL Kernels testest ;)
So kannst du nur eine ungefähre Prediction erwarten aber kein Real Life Scenario ;)
Du solltest selbst wissen das für Nvidia OpenCL so gut wie nicht existent ist und sie ihre Hardware auf CUDA optimieren.

Daher kann so ein test mit einem OpenCL Kernel nur eine Prediction darstellen mehr aber auch nicht.

Niemand würde wirklich einen OpenCL Kernel nutzen wenn er absolute peak Performance aus Maxwell V2 holen will ;)

Nakai
2015-09-27, 14:39:43
Der test würde nur relevanz haben wenn du optimierte Maxwell V2 CUDA Kernels gegen AMD optimierte OpenCL Kernels testest ;)
So kannst du nur eine ungefähre Prediction erwarten aber kein Real Life Scenario ;)
Du solltest selbst wissen das für Nvidia OpenCL so gut wie nicht existent ist und sie ihre Hardware auf CUDA optimieren.

Daher kann so ein test mit einem OpenCL Kernel nur eine Prediction darstellen mehr aber auch nicht.

Niemand würde wirklich einen OpenCL Kernel nutzen wenn er absolute peak Performance aus Maxwell V2 holen will ;)

Ich habe mit Cuda und auch OpenCL schon gearbeitet. Eine Software für Gehirnsegmentierung auf GPGPU portiert, Training und Ausführung künstlicher neuronaler Netze mittels OpenCL realisiert und derzeit mache ich etwas aus Spaß. Ich habe mit mehreren Chips zu tun gehabt, um die Softwares dementsprechend anzupassen: GK110, GK106, GF114, GF116, GF110, GM107(Mac), Capeverde, Tahiti, Oland, Intel Iris Pro, Intel HD4000
Und ich kann dir sagen, der Teufel steckt natürlich im Detail.

NV realisiert OpenCL mittels CUDA. NV unterstützt endlich auch OpenCL 1.2.
Nvidia ist unter OpenCL gelegentlich langsamer, ja. Der Betrag liegt eher bis zu 20%, aber das hängt vom Usecase ab. Es gibt auch Fälle in denen NV deutlich besser ist. Wenn ein Kernel ein Haufen Register benötigt ist AMD meistens von Vorteil. GCN hat eine große Registerfile. GCN erlaubt eine LocalSize von Max 256, NV bis zu 1024. Da kann man bei NV schon ein paar nettere Sachen machen(Reduction). NV hat einen größeren Cache, man sollte Caching Effekte nicht unterschätzen.
Am Ende muss man sowieso jeweils für beide anpassen und das für jeglichen Kernel. Das bekommt man auch nur mit Profilen raus. Ich würde aber niemals sagen, dass AMD generell unter Compute besser ist. Vieles wird durch die Umgebung bestimmt, also Software, Toolkits, Treiber. Da ist NV tendenziell besser, vor allem mit CUDA. Mit OpenCL ist es bei NV ein Graus.
Intel ist mit OpenCL auch sehr stark geworden. Die Iris Pro ist jeglichen LowCost-GPUs meistens überlegen.

Ich muss auch sagen, den ganzen synthetischen Rotz kann man eh in der Pfeife rauchen. Mich würde es nicht wundern, wenn da erheblich gepfuscht wurde und nur fixe Settings auf jegliche GPUs eingestellt wurden. Profilen und profieln und nochmal profilen.

€:
Ach kommt schon. In diesem Segment solche Kinderbenchmarks heranzuziehen ist billig. Das sind Gamerkarten. Wer damit Arbeitet kauft Quadro oder Wxxxx. Und da ist es - das kann hier kaum einer abstreiten - davon abhängig was angewandt wird.
Jemand der seit Jahren mit Solidworks arbeitet wird nicht wegen einer Quadro zum Inventor wechseln, sondern weiter eine FirePro kaufen. Genau so läuft es da nun mal. Wenn der IT-ler eine Affinität hat kommt einfach das reingekloppt was ihm gefällt oder was der Nutzer will.
Nicht was Luxmark und Co ausspucken. Beide Architekturen können stärken ausspielen wenn man die Ressource richtig einsetzt.

Das liegt aber nicht primär an der Hardware, natürlich eher an der Software. Also Toolkits, SDKs, etc.
Wenn es eine gemeinsame IDE geben würde, um auf GPGPU zu debuggen, und zwar auf jegliche Architektur, wäre nett.
Das ist auch der Grund wieso CUDA so nett ist: Die Software-Umgebung ist einfach unfassbar nett. Einbindung mittels MPI, Libs für Neuronale Netze, etc.

Schaffe89
2015-09-27, 15:35:25
Du meinst die genialen Benchmarks, wo sich die GTX 970 mit der Radeon R9-280X rumschlagen muss und die 290 in weiter ferne liegt?

Tschuldigung, aber die ~350€, die eine GTX 970 JETZT noch kostet, um dann ~15% flotter als 'ne 280X zu sein, sind irgendwie ziemlich erbärmlich, findest du nicht auch?
Spätestens das wäre dann der Zeitpunkt, an dem ich Enrage gehen würde, wenn ich mir eine 970 gekauft hätte...

Vorher hat eben der AMD Treiber etwas limitiert.
Ich schätze die real zu erreichende Leistung in etwa so ein:

r9 380x = GTX 970
r9 390 = GTX 980
R9 390x = GX 980 + 10%
??Fury = GTX 980 Ti??
??Fury X = GTX 980 Ti + 10%??

Allerdings wird es bei den Fury Karten wohl aufgrund des Frontends da ne Sperre geben, ich denke nicht dass die noch in der Form an Leistung zulegen werden wie Hawai.
Hawai könnte früher oder später auch auf GTX 980 Ti Niveau liegen, jedenfalls wenn AMD alle Pferdefüße unter Directx12 behebt.

samm
2015-09-27, 16:23:09
Diese Zahlen halte ich für unrealistisch.

captain_drink
2015-09-27, 16:29:51
Zeit für die Märchenstunde. Warum Pitcairn nicht auf TX-Niveau?

StefanV
2015-09-27, 16:50:41
Weil Pitcairn z.T. 'nur' mit der GK104 mithält und DAS wirklich unrealistisch wäre.

Megatron
2015-09-27, 17:59:18
Nimmt man die Benchmarks zu Fable Legends (http://www.3dcenter.org/news/fable-legends-benchmarks-directx-12-koennte-tatsaechlich-zugunsten-von-amd-laufen) her, so ist die Einschätzung zwar recht optimistisch aber es geht zumindest deutlich in die Richtung - und da gab es schon ganz andere Märchenerzähler hier im Forum ;)

Am Ende wird es aber die Zeit zeigen, wo wir wirklich rauskommen.

dildo4u
2015-09-27, 18:04:26
Niemand kauft standard Maxwell Karten daher sind die Zahlen höhsten's theoretisch.Am schlechten OC Verhalten hat sich nicht viel geändert mit der 390 bzw Fury Serie.

captain_drink
2015-09-27, 18:12:15
Zumal die Zahlen, wie von Leo dargestellt, zwischen den verschiedenen Seiten massiv schwanken -- zumindest, was die Ergebnisse von NV angeht.

Um daraus großspurige Schlüsse zu ziehen, muss man schon einen grain of bias hinzunehmen. Selbst dann hat es im hiesigen Thread allerdings nichts verloren.

eratte
2015-09-27, 18:19:15
Niemand kauft standard Maxwell Karten

Jaja, komisch ich habe schon alleine 2 davon (GTX980 und 780) aber Hauptsache mal eine Behauptung in den Raum geknallt. Wenn ich so an Bilder von Rechner im Netz denke dürften das gar nicht so wenige sein.

PS.: auch wenn die 780 keine Maxwell ist.

Hübie
2015-09-27, 19:15:52
Niemand kauft standard Maxwell Karten daher sind die Zahlen höhsten's theoretisch.

Woher nimmst du diese Illusion? :confused::| Das ist Quark mit Zwiebeln was du redest.
Werte zu interpretieren ist nicht jedermanns Sache. Was wir sehen ist: AMD holt durch D3D12 auf. nVidia zeigt allgemein ein homogenes Performancebild unter D3D11 + 12. Nach wie vor können sich beide Seiten entspannt zurück lehnen und genießen was da kommt, weil es in jedem Fall eine Win-Win-Situation ist.

@Nakai: Amen. Das Softwareargument hatte ich mir aufgespart. Das was du erlebst, habe ich in unzähligen Gesprächen gehört. Wobei es manche Nerds gab die stur AMD wollten um in einer komplizierten unbequemen Umgebung zeigen wollten dass die es schaffen =) Da streite man auch nicht oder so, denn letzendlich ist es deren Arbeit, nicht meine. Professoren sind da besonders stur.

dargo
2015-09-27, 19:20:20
Niemand kauft standard Maxwell Karten...
Der dildo wieder. :facepalm:

Zwei Beispiele reichen schon.
http://www.mindfactory.de/product_info.php/6144MB-Asus-GeForce-GTX-980-Ti-Aktiv-PCIe-3-0-x16--Retail-_1004669.html
http://www.mindfactory.de/product_info.php/6144MB-Palit-GeForce-GTX-980-Ti-Aktiv-PCIe-3-0-x16--Retail-_1004633.html

-/\-CruNcher-/\-
2015-09-27, 20:04:00
Woher nimmst du diese Illusion? :confused::| Das ist Quark mit Zwiebeln was du redest.
Werte zu interpretieren ist nicht jedermanns Sache. Was wir sehen ist: AMD holt durch D3D12 auf. nVidia zeigt allgemein ein homogenes Performancebild unter D3D11 + 12. Nach wie vor können sich beide Seiten entspannt zurück lehnen und genießen was da kommt, weil es in jedem Fall eine Win-Win-Situation ist.

@Nakai: Amen. Das Softwareargument hatte ich mir aufgespart. Das was du erlebst, habe ich in unzähligen Gesprächen gehört. Wobei es manche Nerds gab die stur AMD wollten um in einer komplizierten unbequemen Umgebung zeigen wollten dass die es schaffen =) Da streite man auch nicht oder so, denn letzendlich ist es deren Arbeit, nicht meine. Professoren sind da besonders stur.

Hauptsächlich hat AMD in ihrer Balance durch HBM aufgeholt momentan es zeichnen sich aber mit Carrizo einige veränderungen ab die quasi schon das bestehen gegen Pascal sichern werden ;)

Die extreme Parallelisierbarkeit eines AMD Systems kann Nvidia so nicht liefern und mit Intel Tunen wie AMD es in der Lage sein wird unter Win 10 und Vulkan.

HSA wird anfangen erhebliche früchte zu tragen wie schon in den Konsolen das ist auch gut so haben die resourcen die dort investiert wurden AMD ja fast ans Limit ihrer Existenz gebracht ;)

Ein bischen change zur richtigen Zeit ist immer gut ;)

Aber Nvidia hat immernoch ihre ARM effiizienz und das mit Vulkan wird saugut ;)

6oehNXjLtgQ

Screemer
2015-09-27, 22:49:06
Warum zum geier postest du heute dauernd irgendwelche uralten Videos? Was soll das mit vulcan zu tun haben. Am Ende des ersten venches sieht man ganz klar OpenGL es. Dein zusammenhangloses buzzwordbingo ist in etwa genau so nervig wie deine zwinkersmileys nach jedem Satz. Kannst du dir den mal sparen? 😴

Nakai
2015-09-29, 01:19:25
Sorry, aber das ist grotesk falsch. GM204 ist häufig mehr als doppelt so schnell als Tahiti:
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/24
Wo gibts das umgekehrt?

Der erste Graph in deinem Link wär gelich so ein Fall.
Muss es umgekehrt sein, damit du widerlegt wirst? :)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/

Ich sehe in den Benches oftmals keine richtige Skalierung. Ergo nichtssagend für die Compute-Leistung. Darf ich auch Benches posten? :)
Welche AMD eine besseren Licht darstelllen?

http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/6/

Bei Musemage ist ein teilaktivierter Tonga einfach mal 30% schneller als GM204. Und bei vielen anderen gibts auch Vergleichbarkeiten zwischen Tonga und GM204. Die SPs sind drauf und sind nicht nur zur Zierde da. Die kann man ansprechen, also muss ich davon ausgehen, dass irgendwelche umliegenden Parameter für die miese Performance zuständig sind.
Womöglich benutzten die eine Blockgröße von 32.;D

€:
Tonga vs GTX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=26375344&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+%28TM%29+R9+380+Series&D2=NVIDIA+GeForce+GTX+980
Tahiti XT vs TX 980
https://compubench.com/compare.jsp?benchmark=compu20&did1=22357886&os1=OS+X&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+980&D2=AMD+ASUS+R9+280X+Series

Wo ist dein GM204 so viel stärker?

€2: Ahja in Video Composition ist Tonga PRO doppelt so schnell wie ein GM204 Full. Ist es jetzt QED?
Compute-mäßig ist GCN einfach abartig nett.

So mal Klarstellung hierzu.

https://compubench.com/compare.jsp?https://compubench.com/compare.jsp?benchmark=compu20&did1=22357886&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+980&did2=20755672&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=AMD+Radeon+R9+280x

Hier ist mir ein grober Fehler unterlaufen. Die Vergleichseite nimmt immer bei der zweiten Ausfall teilweise OSX als OS. Das ist mist. Unter Windows sind die Werte ähnlich, wie bei deinen verlinkten Benches.

Also sry.:)

Dennoch ist meine persönliche Erfahrung einfach anders. Bei neuronalen Netzen stieg die Performance mit mehreren Kernel-Launches um etwa 10%. Andere Messungen zeigten das eine HD7750 (512SPs) eine ähnliche Performance wie eine C2075(GF110) hatte. Ich bin da sehr unschlüssig. Aber mit simplen Mitteln(Anpassung von Localsizes, Register-Usage, etc...) kann man die Performance schon gut einstellen. Manche Architekturen skalieren anders. Kernel Größe produziert oft andere Resutate. Profilen ist A und O.

Skysnake
2015-09-29, 12:16:43
Oder eben verstehen, wo die grundlegenden Probleme überhaupt liegen. ;)

Meist läuft es ja "einfach" auf Datenreuse/Caching und eben Branching raus. Die Kunst liegt eben darin, das "geschickt" zu implementieren, um möglichst viel Performance raus zu holen. Leider ist ja insbesondere bei nVidia die Doku einfach nur grottig schlecht, und man weiß eigentlich gar nicht, was die Hardware wirklich im Detail macht um die Aufgabe abzuarbeiten, aber gut, so kann man natürlich die Eigenentwicklungen auch in einem guten Licht dastehen lassen...

Ist eh so eine Krankheit von nVidia. Wenn man auch nur irgend etwas machen will, ist man auf deren Wohlwollen angewiesen, und dann stellen Sie sich erstmal vorne hin und heimsen alle Errungenschaften ein, als hätten Sie alles allein gemacht...

R.I.P.
2015-09-30, 15:09:51
Das was Nvidia mit der 980er in Notebooks kann, kann AMD schon lange :D (von 3dcenter News)
http://www.computerbase.de/2015-09/amd-embedded-grafikkarten-neue-modelle-mit-voller-tonga-gpu-bei-95-watt/

dildo4u
2015-09-30, 15:13:14
Das was Nvidia mit der 980er in Notebooks kann, kann AMD schon lange :D
http://www.computerbase.de/2015-09/amd-embedded-grafikkarten-neue-modelle-mit-voller-tonga-gpu-bei-95-watt/
Tonga @95 Watt ist ein Witz gegen die 980,wird sich vermutlich eher im Bereich einer 960 bewegen.

Effe
2015-09-30, 15:18:20
Dafür ist NV dann nur 3x so teuer.

Nightspider
2015-09-30, 15:19:17
Wann kommt denn endlich Dual-Fiji?

Auf CB war vorgestern eine News das sogar ein Dual GM200 kommt.

Hübie
2015-09-30, 15:28:51
Nur mal zur Info: nVidia hat seit Äonen von JEDER Generation seit der 7000er-Serie eine Dual-Karte. Wenn nicht am Markt, dann im Labor ;) Das geht in der Entwicklung schon einher. Ist der Chip fertig wird daran gearbeitet.
Als die ersten Kepler ins ORNL gebracht wurden hatte man schon erste Validationboards der Titan Z (wobei damals der Name noch nicht fest stand). Also alles wenig überraschend.

fondness
2015-09-30, 15:31:18
Von jeder GPU kam noch eine Dual-Karte auf den Markt, von daher ist das eine nona-Asusage.

Hübie
2015-09-30, 15:33:46
Ich musste gerade überlegen ob von der 8000er-Serie eine kam. ;) Ich hatte eine Zeit lang Einblicke in deren "Arbeitswelt".

Edit: 400er...

Thunder99
2015-09-30, 16:01:06
Ich musste gerade überlegen ob von der 8000er-Serie eine kam. ;) Ich hatte eine Zeit lang Einblicke in deren "Arbeitswelt".

Edit: 400er...
2x G80 auf einer Platine gab es nicht zu kaufen. Kam dann ja erst in Form des G92

Fiji Dual wird kommen wenn es genügend Chips gibt. Außerdem können sie wenn nvidia vor legt noch etwas Feintuning betreiben und als erster aus dem Vergleich gehen (in welcher Disziplin bleibt abzuwarten)

maximus_hertus
2015-09-30, 16:04:14
Von jeder GPU kam noch eine Dual-Karte auf den Markt, von daher ist das eine nona-Asusage.

Nicht ganz: 8800 GTX Gen => keine Dual-GPU (erst die 9800 GX2), GTX-400 auch keine Dual-GPU.

R.I.P.
2015-09-30, 16:13:02
Tonga @95 Watt ist ein Witz gegen die 980,wird sich vermutlich eher im Bereich einer 960 bewegen.

Tja, halt 150-160W vs. 95W :tongue:

Loeschzwerg
2015-09-30, 16:16:43
Nicht ganz: 8800 GTX Gen => keine Dual-GPU (erst die 9800 GX2), GTX-400 auch keine Dual-GPU.

Von Dual-GF100 gab es Prototypen. Dual-GF104 gab es bei NV ebenfalls und auf den Markt gekommen ist letztendlich die EVGA 2Win :)

Kartenlehrling
2015-09-30, 16:28:09
Beide Dual egal ob AMD oder Nvidia werden als Aufhänger VR, G-sync/Freesync und 4k mit geteile framerendering bringen.
Erst jetzt mit DX12 ist es auch wirklich machbar und Sinnvoll.
Mit Civ:BE addon 08.Okt. kommt auch eine neue version von SFR(split-frame rendering).

tm0975
2015-10-07, 20:28:34
http://wccftech.com/star-wars-battlefront-benchmarked/

Nicht schlecht! Und das noch ohne dx 12.

M4xw0lf
2015-10-07, 20:42:38
http://wccftech.com/star-wars-battlefront-benchmarked/

Nicht schlecht! Und das noch ohne dx 12.
y u link wtf-tech, wo die einfach nur die guru3d-Benchmarks geklaut haben? :|

Wiseman
2015-10-08, 14:07:13
http://wccftech.com/star-wars-battlefront-benchmarked/

Nicht schlecht! Und das noch ohne dx 12.

http://www.guru3d.com/articles_pages/star_wars_battlefront_beta_vga_graphics_performance_benchmarks,6.html

Läuft wirklich gut mit Radeons. Da spiel ich mit meiner Fury mit.

Loeschzwerg
2015-10-08, 15:46:22
Wirf Fury X / Fury in die Tonne, die Nano macht hier eindeutig das Rennen :) Hätte AMD der Karte nur eine etwas leisere Spannungswandlung spendiert ;(

horn 12
2015-10-08, 16:07:57
Echt sooo schlimm die Nano´s
Da ist deine Fury so gut wie lautlos beim Zocken, Idlen?

Loeschzwerg
2015-10-08, 16:14:01
Mich nervt es :( Meine Fury ist dagegen eigentlich unhörbar, im geschlossenen Gehäuse. Mit dem Ohr direkt daneben hört man aber auch hier ein Zirpen.

Ich habe leider keine Kamera mit gutem Mikrofon, sonst würde ich mal eine Aufnahme machen.

iuno
2015-10-08, 18:49:56
http://www.guru3d.com/articles_pages/star_wars_battlefront_beta_vga_graphics_performance_benchmarks,6.html

Läuft wirklich gut mit Radeons. Da spiel ich mit meiner Fury mit.
Fiji sieht aber mMn auch hier wieder zu schwach aus ggü. Hawaii.
Fury X = Hawaii+17%
980Ti = 980+28%
Wirf Fury X / Fury in die Tonne, die Nano macht hier eindeutig das Rennen
Steht doch nicht besser da als sonst oder irre ich mich?

Loeschzwerg
2015-10-08, 20:04:41
Besser als sonst nicht, bestätigt es aber wieder.

Nightspider
2015-10-31, 04:43:57
Nach einem Monat wieder die Frage: Wo bleibt die Dual-Fiji?

Wartet AMD bis die ersten kleinen Mengen an HBM2 vom Band fallen oder wie? ^^

Hübie
2015-10-31, 11:18:23
Wohl nicht. Eher Schwierigkeiten mit Mengen und vielleicht noch Treiber. Sind nur meine Vermutungen aufgrund von Beobachtung. ;)
So ein Ding zusammen zu schustern ist sicher eine Herausforderung. Vor allem das Kuhldesign dürfte interessant werden.

dargo
2015-10-31, 11:26:05
Kühler dürfte ähnlich dem hier ausfallen.
http://geizhals.de/sapphire-radeon-r9-295x2-21234-00-40g-a1099983.html?hloc=at&hloc=de

Da das PCB einiges größer ausfällt könnte man wieder die Spawas durch einen großen Lüfter kühlen lassen. Bei der AIO hätte man dann etwas mehr Luft. Wobei ich die ~350W nicht gerade als problematisch ansehe.

Edit:
Hier sieht man ganz gut die beiden PWM-Lüfteranschlüsse.
http://images.anandtech.com/doci/9385/DualFiji2.jpg

Einen für die AIO, der andere fürs PCB bzw. Spawas.

AintCoolName
2015-10-31, 11:56:01
Nach einem Monat wieder die Frage: Wo bleibt die Dual-Fiji?

Wartet AMD bis die ersten kleinen Mengen an HBM2 vom Band fallen oder wie? ^^

Gerüchte sagen im November kommt der Omega 2 vielleicht kommt das zusammen.

StefanV
2015-10-31, 12:49:10
Nach einem Monat wieder die Frage: Wo bleibt die Dual-Fiji?

Wartet AMD bis die ersten kleinen Mengen an HBM2 vom Band fallen oder wie? ^^
Ev. hat man den auch aufgrund der nur 4GiB VRAM des Teils erst einmal auf Eis gelegt und bringt das erst mit 'V2'...

Menace
2015-10-31, 13:55:38
Wären es bei Fiji x 2 nicht auch 4 GB x 2?

Kartenlehrling
2015-10-31, 14:06:19
Fiji x2 (4gb x 2)

Das wird ja nur bei den neuen DX12 funktionieren die auch Multi-gpu unterstützen.
Das neue Batman unterstützt ja nichtmal SLI, geschweige moderne Multi-GPU.
Die jetztigen Test nehmen immer noch DX9, DX11 Spiele in ihrem Testparcour die von Multi-GPU nie was gehört haben.

Locuza
2015-10-31, 15:03:31
grabhopser hat bei PCGH ein Teaser-Bericht von Chipworks über Fiji gepostet:
(http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/412302-radeon-r9-380x-powercolor-bestaetigt-4-gibyte-256-bit-10.html#post7803212)

https://www.chipworks.com/competitive-technical-intelligence/overview/technology-reports/recent-reports/amd-fury-x-hynix-high

Zu finden ist darin auch ein die-shot von Fiji, leider nur in sehr geringer Auflösung für den Teaser, aber gut genug, um zu sehen wie Fiji aufgebaut ist und natürlich wie viel das HBM-Interface an Platz verbraucht:

http://abload.de/img/fijidieshotocsu5.jpg

Menace
2015-10-31, 15:26:46
Fiji x2 (4gb x 2)

Das wird ja nur bei den neuen DX12 funktionieren die auch Multi-gpu unterstützen.
Das neue Batman unterstützt ja nichtmal SLI, geschweige moderne Multi-GPU.
Die jetztigen Test nehmen immer noch DX9, DX11 Spiele in ihrem Testparcour die von Multi-GPU nie was gehört haben.

Aber hier war ja auch die Sprache davon, ob es für die Zukunft gerüstet sei. DX12 halte ich jetzt eher für die Zukunft als DX11. ;)

y33H@
2015-10-31, 18:05:21
http://storage.pardot.com/4202/166346/Product_Brief___AMD_Fury_X_with_Hynix_HBM.pdf

Kartenlehrling
2015-10-31, 18:14:19
Hehe,
die abgerissen Kondensatoren sind aber nicht lustig.

Gipsel
2015-10-31, 20:06:38
Hehe,
die abgerissen Kondensatoren sind aber nicht lustig.Die haben sich offensichtlich nicht viel Mühe gegeben, das Package beschädigungsfrei von der Karte zu bekommen. Aber für die anschließenden Röntgen-Aufnahmen, Die-Shots und Schnittaufnahmen mit einem Elektronemikroskop wurde das Teil anschließend sowieso zerstört. ;)

Nightspider
2015-11-01, 05:12:45
Mal eine Frage an die Profis:

Es gab doch diesen Trick womit man auch 4K VSR auf Hawaii aktivieren konnte, obwohl offiziell nur 1800p.

Fiji kann offiziell 4K und ich frage gerade ob man es wohl auch mit einem Trick auf 5K,6K oder 8K als VSR Auflösung schafft?
Hat da jemand etwas gelesen?

BiG OnE
2015-11-01, 09:06:44
Und Du möchtest Dir das ganze als eine Art Diashow ansehen? Selbst High End Karten sind heutzutage mit 4K absolut ausgelastet, für noch mehr ist da einfach keine Luft.

Nightspider
2015-11-01, 09:14:05
Ich würde alte Games gerne in 5K zocken (habe 1440p Monitor) und für Screenshots in einen 8K Modus.

iuno
2015-11-01, 10:48:03
Mir ist kein "Trick" bekannt, allerdings macht die vce in Hawaii gar keine höheren Auflösungen mit. Es wird also eher ein selbstgebauter tweak sein, der "vsr" über die Recheneinheiten realisiert, möglicherweise in schlechterer Qualität und mit mehr Latenz...

Gipsel
2015-11-01, 10:59:15
Mir ist kein "Trick" bekannt, allerdings macht die vce in Hawaii gar keine höheren Auflösungen mit. Es wird also eher ein selbstgebauter tweak sein, der "vsr" über die Recheneinheiten realisiert, möglicherweise in schlechterer Qualität und mit mehr Latenz...
Die VCE hat mit VSR nichts zu tun. Das wird eher von der ScanOut-/Display-Engine gehandhabt, die das on-the-fly auf die Ausgabeauflösung runterskaliert. Dabei hat man dann mit gewissen Einschränkungen zu leben. Aber tatsächlich könnte man das mit einem shaderbasierten Ansatz umgehen (kostet Performance, Qualität könnte sogar besser sein; je nachdem wieviel Performance da opfern würde, könnte man ja beliebige Algorithmen [also auch sehr hochwertige] implementieren). Aber keine Ahnung, ob da irgendwer was gebastelt hat, was allgemein funktioniert.

Thunder99
2015-11-01, 17:57:28
Wenn dann müsste es doch mit GeDoSaTo gehen?

Nightspider
2015-11-01, 18:02:26
Die VCE hat mit VSR nichts zu tun. Das wird eher von der ScanOut-/Display-Engine gehandhabt, die das on-the-fly auf die Ausgabeauflösung runterskaliert. Dabei hat man dann mit gewissen Einschränkungen zu leben. Aber tatsächlich könnte man das mit einem shaderbasierten Ansatz umgehen (kostet Performance, Qualität könnte sogar besser sein; je nachdem wieviel Performance da opfern würde, könnte man ja beliebige Algorithmen [also auch sehr hochwertige] implementieren). Aber keine Ahnung, ob da irgendwer was gebastelt hat, was allgemein funktioniert.

Das hatten hier ja viele ja eigentlich schon für VSR Phase 2 erwartet aber AMD hat wahrscheinlich keine Zeit/Geld sowas umzusetzen was mehr als schade ist.

y33H@
2015-11-01, 18:46:53
Selbst mit Fiji tut in 1440p "nur" 32x18.

Nightspider
2015-11-01, 18:59:32
Achso? So ein Schwachsinn. AMD soll mal Gas geben. -.-

y33H@
2015-11-01, 20:47:25
Auf einem 1440p-Display bissi blöd ... mit einem 1080p-Monitor aber tut's :usad:

http://abload.de/thumb/shootergame_2015_11_0b7s2x.jpg (http://abload.de/image.php?img=shootergame_2015_11_0b7s2x.jpg)

Nightspider
2015-11-01, 20:52:01
Bei Nvidia geht sogar 5K und mit Tool noch viel höher wenn ich richtig informiert bin.
Beim Kumpel mit Titan X und 4K Monitor geht ja auch locker 8K.

In Star Citizen schafft den sein Titan X SLI sogar noch 40fps in 5K und 20fps in 8K. ^^

Nur 1800p bei einer modernen Fury anzubieten ist echt peinlich.

samm
2015-11-01, 22:06:50
Mit Tools kann auch AMD höher, bloss nicht mit eingebautem VSR.

Selbst mit Fiji tut in 1440p "nur" 32x18.Kein Problem hier mit Fury auf 2160p @1440p.

[edit]Nein, zu geil xD Gerade nochmal für einen Beweis-Screenshot ein Spiel gestartet. 4k ist aktivierbar und funktioniert ja erfahrungsgemäss auch, spiele einige weniger anspruchsvolle Games in der Auflösung. Aber: Es wird evt. auf Full HD downgesampled. Vermutung stammt daher, dass ich am Monitor statt "Full"-Stretchmodus den 1:1-Modus aktivert habe, und siehe da, das Bild ist klein und zentriert.

y33H@
2015-11-01, 23:18:29
1440p auf 2160p geht laut AMD und mir (offiziell) nicht ;-) habe die Nano drin ...

53809

MechWOLLIer
2015-11-02, 00:23:19
Hier geht 2160p@1440p einwandfrei - auch auf der Nano:D
Ist wohl nen Glücksspiel.

Kartenlehrling
2015-11-02, 01:47:01
Geht sogar freesync bis 60Hz,
Desktop ist aber fruchbar unscharf in Spiele fällt es nicht so sehr auf.


http://www.computerbase.de/forum/attachment.php?attachmentid=523156&d=1446425165

OC_Burner
2015-11-04, 21:06:20
Hehe,
die abgerissen Kondensatoren sind aber nicht lustig.

So sehen meine Prozessoren auch des öfteren aus wenn sie für Die-Shots mit sichtbaren Halbleiterstrukturen vorbereitet werden. Allerdings erst nachdem die Kerne vom Trägermaterial abgelöst werden.:freak: Sieht recht eintönig aus der Die-Shot, ist dieser eine Röngtenaufnahme (ja, lesen muss man können)

Hübie
2015-11-05, 00:07:52
So sehen meine Prozessoren auch des öfteren aus wenn sie für Die-Shots mit sichtbaren Halbleiterstrukturen vorbereitet werden. Allerdings erst nachdem die Kerne vom Trägermaterial abgelöst werden.:freak: Sieht recht eintönig aus der Die-Shot, ist dieser eine Röngtenaufnahme (ja, lesen muss man können)

:eek: Da sehen ja einige verdammt gut aus. :up: Womit ätzt du?

Sry4OT!

OC_Burner
2015-11-05, 09:37:24
:eek: Da sehen ja einige verdammt gut aus. :up: Womit ätzt du?

Sry4OT!

Thx, aber um Gottes willen, auf keinen Fall sind die CPUs geätzt. Die nötigen Chemikalien sind hochgefährlich, insbesondere ohne Werkstatt/Labor. Die sind alle geschliffen mit handelsüblichen Papierbögen zum schleifen aus dem Baumarkt oder Minidremel mit Siliziumkarbidaufsatz. Zurzeit probiere ich diverese Lappingfilme aus, welche erheblich genaueres Arbeiten ermöglichen. Der Fiji-Chip mit seinem HBM-Speicher wäre mal eine interessante Herausforderung.

Skysnake
2015-11-05, 21:38:40
Welche DIE-Shots?

@Chemie:
Ist doch "nur" Flusssäure die man da nimmt :ulol5:

Screemer
2015-11-05, 21:41:40
In seiner SIG ist ein link zu seinen fotos. Da sind die die shots neben anderen sehr goilen macros. Habs auch erst nicht gecheckt.

Skysnake
2015-11-06, 21:21:51
ah ok, jetzt habe ich die auch gefunden, hatte mir die Flickr nicht angeschaut.

BiG OnE
2015-11-06, 22:51:36
Beim Kumpel mit Titan X und 4K Monitor geht ja auch locker 8K.
Weißt Du mit welchen Tool er das macht? Ich kann bei 4K und SLI kein DSR aktivieren.

Hübie
2015-11-07, 02:01:53
Thx, aber um Gottes willen, auf keinen Fall sind die CPUs geätzt. Die nötigen Chemikalien sind hochgefährlich, insbesondere ohne Werkstatt/Labor. Die sind alle geschliffen mit handelsüblichen Papierbögen zum schleifen aus dem Baumarkt oder Minidremel mit Siliziumkarbidaufsatz. Zurzeit probiere ich diverese Lappingfilme aus, welche erheblich genaueres Arbeiten ermöglichen. Der Fiji-Chip mit seinem HBM-Speicher wäre mal eine interessante Herausforderung.

Ehrlich gesagt fände ich Tonga spannender um endlich mal klarzustellen ob da nun 6 MC-Cluster drin sind oder doch nur 4 ;)

Locuza
2015-11-07, 02:09:23
6.

Unicous
2015-11-07, 02:11:56
Ehrlich gesagt fände ich Tonga spannender um endlich mal klarzustellen ob da nun 6 MC-Cluster drin sind oder doch nur 4 ;)

Was gibt's denn da zu rätseln?

http://i.imgur.com/0SAkBLn.png

Locuza
2015-11-07, 02:15:51
Hübie hat persönliche Gründe, nicht an den die-shot im Pressedeck zu glauben.
Damit steht er sogar nicht alleine dar.

Ich weiß auch nicht was es dort zu bezweifeln gibt, dass Ding hat 6 MCs, fertig, aus.

Unicous
2015-11-07, 02:18:24
Persönliche Gründe?:confused:

Locuza
2015-11-07, 02:21:26
An der Stelle ist es nur eine Spekulation von mir.
Irgendetwas mit, ich mag die 4 mehr als die 6, obwohl das Bild 6 zeigt.
Entsprechend gibt es nur eine Möglichkeit, dass Bild ist nicht echt.

Hübie
2015-11-07, 02:53:47
Das denke ich auch. Wenn man mal hinter die Kulissen geschaut hat wird man erstaunt sein wie viele Chips es inhouse gibt und wie viele davon den Markt erreichen. nVidia hatte z.B. ja lange Zeit vor Veröffentlichung Fermi schon auf 28 nm geshrinkt. Da gab es sicher auch etliche Konfigurationen.

Das gleiche gilt für PCBs. Also mich überzeugt der Shot einfach nicht.

Locuza
2015-11-07, 03:20:05
Und wie viele Testvehicle haben es in der Vergangenheit in ein offizielles Pressedeck geschafft, als die-shot, nachdem es schon seit Monaten genau das benannte Produkt als Massenprodukt auf den Markt gab?

Also ich finde Zweifel an der Stelle sehr unsinnig.
Irrationales festhalten.

Botcruscher
2015-11-07, 12:11:38
Tonga widerspricht einfach der Logik. Irgendwas ist bei dem Chip total schief gelaufen. Die zwei Einheiten oben sehen einfach anders aus. Keine Ahnung was AMD in dem CHIP versteckt hat.
Warum hätte AMD den Chip mit 6 oder gar 12GB planen sollen und wozu war die Bandbreite gedacht?

Locuza
2015-11-07, 13:01:26
Das sind die gleichen Interface-Bausteine, nur anders angeordnet.
Das sieht bei Tahiti, Pitcairn und Cape-Verde genau so aus:

http://www.3dcenter.org/dateien/abbildungen/AMD-Southern-Islands-Die-Shots.jpg

Tonga widerspricht vielen Dingen, aber nicht das irgendetwas am Chip nicht stimmt, sondern irgendetwas stimmt bei AMDs "Gedankengängen" und "Produktstrategie" nicht.

Blediator16
2015-11-07, 13:19:09
http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

Angeblich soll es damit etwas zutun haben.

Gipsel
2015-11-07, 14:01:58
http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

Angeblich soll es damit etwas zutun haben.
Das Speicherinterface?
Eher nicht.

iuno
2015-11-07, 15:43:53
http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

Angeblich soll es damit etwas zutun haben.
Nein. Es kann sein bzw. Ist wahrscheinlich, dass für die Virtualisierungsfeatures einige Transistoren mehr her mussten, wie komplex das aber genau ist, weiß man aber nicht.
Das hat zumindest als Erklärungsversuch für den Zuwachs ggü. Tahiti hergehalten.
Wie gipsel schon sagt hat das aber nichts mit dem teil de aktivierten si zu tun

Skysnake
2015-11-07, 17:47:30
Tonga widerspricht einfach der Logik. Irgendwas ist bei dem Chip total schief gelaufen. Die zwei Einheiten oben sehen einfach anders aus. Keine Ahnung was AMD in dem CHIP versteckt hat.
Warum hätte AMD den Chip mit 6 oder gar 12GB planen sollen und wozu war die Bandbreite gedacht?
Das hatte ich schonmal auf PCGH und meines Wissens nach auch hier ausführlich erklärt.

Das ist einfach ein Zwang bei den nodes <32nm die Double-Patterning anwenden. Du kannst die IP-Blöcke nicht mehr einfach um 90° drehen! Das würde dann zu 99,999..% den Designrules nicht mehr entsprechen. daher unterteilt man den großen IP-Block in mehrere kleine IP-Blöcke und dreht die eben NICHT! mehr, sondern ändert "einfach" nur noch die Anordnung dieser.

Das führt dann eben dazu, dass die Sachen anders aussehen, eben weil Sie auch anders sind, aber nicht aus Jucks und Dollerei, sondern gezwungener maßen.

AffenJack
2015-11-07, 17:53:31
Erst die Prozesse <28nm haben Double patterning. Ich weiß nicht wie das sonst bei den Design Rules ist, nur an DP liegt es nicht

Skysnake
2015-11-07, 21:13:50
Ich wusste nicht mehr genau, ab welchem node es ist, aber auch schon davor darfst du nicht mehr einfach die Sachen drehen.

Hübie
2015-11-07, 22:26:11
Erst die Prozesse <28nm haben Double patterning. Ich weiß nicht wie das sonst bei den Design Rules ist, nur an DP liegt es nicht

Hab 20 nm im Kopf.

Edit: Ähm. Ja kleiner, 28 ist ja 20 Nanometer :D Möööp.

HOT
2015-11-09, 11:23:40
Tonga wird soviel mehr Transistoren brauchen, weil er das deutlich komplexere 4-fache Frontend hat, so einfach wird das sein. Er ist halt wie Hawaii, nur mit 2 Speicherinterfaces weniger und einigen CUs weniger. Vermutlich ist das Frontend auch noch mal größer als das von Hawaii. Tonga ist wie Fiji mit der Hälfte der CUs.

Unicous
2015-11-16, 23:21:43
Könnte sein, dass am 20. die Fiji "Gemini" vorgestellt wird.


【schedule】

17: 00 ~ 18: 00: Star Wars: Battlefront demo trial play
18:00 to 19:00: Introduction of AMD Radeon Software and graphics card new product
19:00 to 20:00: by partner companies session (ASUS, and plans such as LG)


http://www.4gamer.net/games/022/G002212/20151116056/

bzw.

https://translate.google.com/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F022%2FG002212%2F20151116056%2F

y33H@
2015-11-16, 23:27:55
Nope.

horn 12
2015-11-16, 23:31:39
Jetzt geht es wohl Schlag auf Schlag bei AMD!
Bravo AMD und die Innovation war und ist immer noch die Stärke und DIE Herausragung bei AMD selbst.
Crimson Treiber, Optimierung der Fury Serie, Baldige Dual Fiji Karte alias Fury X2 (Gemini- Zwilling) HBM Vorreiter, Virtual Reality, "Eigene" Cuda Implementierung ... ....
AMD will wohl langsam in Aller Munde sein.... ----> Pünktlich zum Weihnachstgeschäft.

Hoffe dass dies nun mal die erhofften Früchte bringt und NV zwingt mal zu reagieren und sich nicht monatelang auszuruhen denn die Zeit wird NV mal davonlaufen wenn sie nicht auf die Vorderfüße kommen.

Wird wohl R9 380X Karte sein welche vorgestellt wird.

Unicous
2015-11-16, 23:32:10
Ja, ich bin auch ein Idiot.:facepalm: Wird eher die 380x sein.:redface:


(Für mich war die 380X schon "released":freak:)

Nakai
2015-11-16, 23:46:02
Tonga wird soviel mehr Transistoren brauchen, weil er das deutlich komplexere 4-fache Frontend hat, so einfach wird das sein. Er ist halt wie Hawaii, nur mit 2 Speicherinterfaces weniger und einigen CUs weniger. Vermutlich ist das Frontend auch noch mal größer als das von Hawaii. Tonga ist wie Fiji mit der Hälfte der CUs.

Das Frontend wurde ziemlich aufgewertet, auch für HSA. Das wird ordentlich gekostet haben.

Rampage 2
2015-11-17, 01:11:43
Ja, ich bin auch ein Idiot.:facepalm: Wird eher die 380x sein.:redface:


(Für mich war die 380X schon "released":freak:)

Sollte das NDA nicht schon am 15. November fallen!?

R2

Hübie
2015-11-17, 01:36:28
Donnerstag. 19.11.2015. Wird eh zum Gähnen, behaupte ich einfach mal.

OBrian
2015-11-17, 03:31:36
sowieso, man muß die unabhängigen Testsergebnisse abwarten, ob die Karte gut oder nicht so gut wird (angesichts der bisher gesehenen großen Kühler befürchte ich, die Effizienz wird nicht so großartig). Aber spannend geht natürlich anders.

w0mbat
2015-11-18, 19:23:12
229$ Retail-Preis: http://wccftech.com/amd-radeon-r9-380x-official-performance-price-specifications/

Kommt morgen Nachmittag bei uns an (NDA läuft 9AM EST aus).

Hübie
2015-11-18, 20:11:04
Wenn das stimmt dann gute Nacht. Doppelt soviel ALUs, Bandbreite und 70 Watt mehr PT um dass bissl Mehrleistung auf den Tisch zu legen? Das hoffe ich mal nicht.
Dann bleibt nur noch: Effizienz ade und Takt rauf prügeln. Von wegen R9 390 in Reichweite. Gähn. Na gut ich warte aber für ein abschließendes Bild auf morgen. ;)

Der Preis ist allerdings recht attraktiv, wenn es zu dem Kurs auch ordentliche customs gibt.

M4xw0lf
2015-11-18, 20:17:37
Wenn das stimmt dann gute Nacht. Doppelt soviel ALUs, Bandbreite und 70 Watt mehr PT um dass bissl Mehrleistung auf den Tisch zu legen? Das hoffe ich mal nicht.
Dann bleibt nur noch: Effizienz ade und Takt rauf prügeln. Von wegen R9 390 in Reichweite. Gähn. Na gut ich warte aber für ein abschließendes Bild auf morgen. ;)

Der Preis ist allerdings recht attraktiv, wenn es zu dem Kurs auch ordentliche customs gibt.
Was AMD da wieder bencht :confused: Bei den meisten Techseiten liegt in den genannten Spielen bereits die 380 ohne X vor der 960. :freak:

Kartenlehrling
2015-11-18, 20:52:08
also leicht stärker als eine R9280x + 1gb mehr speicher.

fondness
2015-11-19, 03:13:25
Selbe TDP wie 380, also 190W:
http://videocardz.com/57760/amd-launches-radeon-r9-380x

http://s3.postimg.org/70olnnt6r/AMD_Radeon_R9_380_X_4_900x384.jpg (http://postimage.org/)

Hübie
2015-11-19, 03:44:36
Klingt sehr restriktiv. Konservativer Takt könnte Potenzial bedeuten. Mal sehen.

fondness
2015-11-19, 04:13:39
Sapphire taktet ihre 380X Nitro jedenfalls mit 1040/1500 Mhz und damit doch spürbar höher.

Hübie
2015-11-19, 04:22:37
Na ja. 100 MHz. Mal sehen was geht wenn das PT offen ist. Kann man bei Radeons eigentlich das BIOS flashen? :|

fondness
2015-11-19, 04:29:39
PT kann man bei AMD um bis zu 50% anheben oder senken ganz einfach über den offiziellen Treiber. :)

-/\-CruNcher-/\-
2015-11-19, 05:00:05
Die einzigste Karte ausserhalb des extremen Fiji Preisbereichs die GCN 1.2 supported sollte man nicht vergessen und bei 190W vs 175W garnicht so schlecht aufgestellt gegen die GTX 970 Balanced OCs.

MSI hält sich anscheinend wieder erstmal raus ;)

Eine schöne GCN 1.2 vs Maxwell v2 Code vergleichskarte auf den selben Power output wie die GTX 970 OCs gebracht sogar nahezu perfekt :D

vor allem im vergleich mti der Fiji Nano zusammen :)

Hübie
2015-11-19, 05:03:54
PT kann man bei AMD um bis zu 50% anheben oder senken ganz einfach über den offiziellen Treiber. :)

Coole Sache. :up: Dann bin ich mal gespannt was das Potenzial betrifft. Hoffentlich geben sich die Tester mal Mühe :freak:

-/\-CruNcher-/\-
2015-11-19, 05:19:02
Ohhh Igor wird das und wie er das wird ;)

iuno
2015-11-19, 08:28:08
PT kann man bei AMD um bis zu 50% anheben oder senken ganz einfach über den offiziellen Treiber. :)
Naja nicht wirklich. +50 PT bedeuten nicht 50% mehr Leistung. Aus 200 Watt werden also nicht 300. Oder hat sich das inzwischen geändert?

Thunder99
2015-11-19, 10:48:25
Na ja. 100 MHz. Mal sehen was geht wenn das PT offen ist. Kann man bei Radeons eigentlich das BIOS flashen? :|

Nein, leider nicht mehr außer du kannst die Signatur wiederherstellen :freak:

Kartenlehrling
2015-11-19, 10:56:02
Das brauch man doch nur fürs Uefibios,
wenn man auf 5sec schnellers Booten verzichten kann sollte es doch auch soo gehen oder nicht?

iuno
2015-11-19, 11:46:25
Glaube ich nicht, denn das Problem gibt es schon länger, die Hawaii Karten unterstützen aber zum Teil nicht mal EFI.
Andere Frage gehen furys überhaupt im legacy mode?

Thunder99
2015-11-19, 12:45:49
Nein, AMD hat es komplett gesperrt soweit ich weiß

Triskaine
2015-11-19, 12:53:03
Für Hawaii-Karten gibt es seit einer Weile einen BIOS-Editor und eine menge Anleitungen. Funktioniert sowohl für UEFI als auch für Legacy-BIOS. Ich habe z.B. aus meiner R290 eine "R390" gemacht. Wer mehr wissen will kann sich hier (http://www.overclock.net/t/1561372/hawaii-bios-editing-290-290x-295x2-390-390x) und hier (http://www.overclock.net/t/1564219/r9-390x-bios-for-r9-290-290x-now-with-stock-and-modded-voltage-tables) einlesen.

iuno
2015-11-19, 18:23:54
Gut zu wissen, danke.
Naja, "seit einer Weile"... Hawaii ist ueber 2 Jahre am Markt und bios modding funktioniert offenbar seit wenigen Monaten.
Gerade gesehen, man kann seiner Karte wohl uefi 'beibringen'. Das ganze klingt doch interessant, werde ich mir bei gelegenheit mal anschauen.

Leonidas
2015-11-20, 03:05:41
Die entscheidende, verbleibende Spekulation dieses Threads dürfte damit wohl lauten:

Schafft dieser Thread noch eine Million Hits? Derzeit sind es 975.850.

Ähh, eigentlich natürlich:
- Was wird mit der Radeon R9 Fury X2?
- Kommt eventuell noch eine Radeon R9 385X (Tonga) oder eine Radeon R9 385 (Hawaii) als Lückenfüller?

OBrian
2015-11-20, 05:39:02
hängt von der Anzahl und dem Startzeitpunkt der 14/16nm-Generation ab. Eine 385 halte ich aber für unwahrscheinlich. Ich denke eher, daß Tonga in die 400er Serie übernommen wird, wo dann die ersten neuen Chips drin sind. Aber Namen sind eh Schall und Rauch.

mczak
2015-11-20, 15:46:58
Denke auch nicht dass da noch was kommt zwischen R9 380X und R9 390, ich sehe nicht wieso. Die Lücke ist jetzt auch nicht wirklich sehr gross (so etwa 35-40%?), nicht vergleichbar mit dem Riesenloch zwischen GTX 960 und GTX 970...
Ein weiter abgespeckter Hawaii wäre wohl nicht sehr kosteneffizient, eine 384bit Version von Tonga würde da schon mehr Sinn ergeben (dann wohl mit 6GB Speicher) aber der Unterschied zur 380X wäre wohl meist nicht sehr gross.

Agent117
2015-11-20, 16:12:25
Man müsste Tonga schon mit 1100Mhz takten damit sich die 384Bit auch richtig lohnen und das macht der Chip nicht mit ohne dass die Leistungsaufnahme durch die Decke geht. Selbst Tahiti war da wohl etwas taktfreudiger.

Tonga war was man im Vorfeld zum 285 launch gehört hat mal als Tahiti Ersatz mit Pitcairn Verbrauch gedacht. Es wurde dann ein Tahiti Ersatz mit Tahiti Verbrauch.
Irgendwas ist da schiefgelaufen; wer weiß was? Vlt wie bei GF100 das Backend?

reaperrr
2015-11-20, 18:33:31
Man müsste Tonga schon mit 1100Mhz takten damit sich die 384Bit auch richtig lohnen und das macht der Chip nicht mit ohne dass die Leistungsaufnahme durch die Decke geht. Selbst Tahiti war da wohl etwas taktfreudiger.
In CoD:BO III, das eigentlich extrem hungrig nach Speichermenge ist, verliert die 380X trotzdem relativ klar gegen die 280X, allein wegen Speicherbandbreite. Also zumindest in manchen Spielen würde es sich selbst mit dem lahmen Referenztakt lohnen. Für OC-Modelle mit 1000-1050 MHz erst recht.
Zum Thema Verbrauch, einfach Power-Target bei 220W abriegeln, dann läge halt nicht immer der volle Chip-Takt an, aber der Verbrauch bliebe noch etwas unter Tahiti. 1050 MHz Maximal-Takt wären so auf jeden Fall umsetzbar gewesen.


Tonga war was man im Vorfeld zum 285 launch gehört hat mal als Tahiti Ersatz mit Pitcairn Verbrauch gedacht. Es wurde dann ein Tahiti Ersatz mit Tahiti Verbrauch.
Irgendwas ist da schiefgelaufen; wer weiß was? Vlt wie bei GF100 das Backend?
Der Chip schleppt, zumindest für's Gaming-Segment, einfach zu viel Ballast mit sich herum der Platz, Transistoren und Strom verbraucht, aber zu wenig bis garnichts für die Spieleleistung bringt.

Um mal die Unterschiede zu Tahiti hervorzuheben:

- verdoppelte ShaderEngines -> verbessert sicherlich die Auslastung/"IPC" etwas, aber benötigt eben auch doppelt so viel Platz und Transistoren und erhöht den Stromverbrauch dieses Teils der GPU (und durch die bessere Auslastung indirekt auch der CUs! Die 5870 war damals nicht grundlos etwas langsamer, aber eben auch sparsamer pro Takt und taktbarer, als man erwartet hätte, das war einfach auch eine Auslastungsgeschichte).
- verdoppelte Primitive-Pipelines & Tesselation-Einheiten -> bringt logischerweise nur in Spielen mit ziemlich hoher Polygonzahl bzw. Tesselation-Leveln was, macht den Chip aber ebenfalls größer und stromhungriger (unabhängig vom Spiel).
- größerer Tesselation Perimeter Cache -> keine Ahnung wie viel größer, kostet aber auf jeden Fall zusätzlichen Platz und Strom und bringt nur bei Tesselation was.
- verdoppelter L2 Cache -> hilft zwar ein wenig bei hohen Tesselation-Leveln und fängt zusammen mit DCC die geringere Bandbreite etwas auf, benötigt aber eben auch doppelt so viel Platz und damit Strom wie bei Tahiti. Und bevor jetzt jemand darauf verweist, dass ja 512KB deaktiviert sind: richtig, nur wenn ich den Die-Shot richtig lese, ist der L2 auf zwei Cache-Einheiten, an die je 3x256KB gekoppelt sind, verteilt, während Tahiti wohl nur eine hatte. Bei den Tongas ist dann zwar je 1x256KB pro L2-Einheit deaktiviert, aber die Kontroll-Logik dürfte voll aktiv sein und somit auch fast voll Strom verbrauchen, so dass der Verbrauch eben nicht nur 2/3 eines doppelten Tahiti-L2 entspricht.
- flächenoptimiertes SI -> braucht zwar weniger Platz pro 128 bit, es kann aber durchaus sein, dass Tahitis SI zwar größer ist, aber für Speicher-Taktraten von ~5.5-6GHz etwas weniger Strom braucht, weil es eben taktfreundlicher ist. Kann also sein, dass AMD nicht nur flächenmäßig, sondern auch vom Verbrauch her bei Tonga mit einem doppelten Bonaire-SI unterm Strich besser gefahren wäre (und von der Bandbreite bei 256-bit natürlich auch, weil dann 6.5-7GHz Speichertakt möglich gewesen wären, wovon zumindest die 380X profitiert hätte).
- 128 bit ungenutztes SI -> sind allein ca. 27-28 mm² ungenutzte Fläche, und ob die in Sachen Leakage/Verbrauch wirklich zu 100% deaktiviert/ge-power-gated/"totgelasert" sind und nichts verbrauchen, oder nur per Bios/ROM deaktiviert sind und trotzdem etwas zum Verbrauch beitragen, wissen wir auch nicht.
- Delta Color Compression -> soll zwar kaum Platz benötigen, aber auch das nimmt erstmal einen Tick mehr Transistoren und damit Strom in Anspruch, und hilft nur in Titeln mit genug Bandbreiten-Anforderungen.
- Hardware-DX12, FP16-Unterstützung und andere CU-Änderungen -> GCN1.2-CUs scheinen trotz 1:16 DP eher etwas größer und stromhungriger zu sein als selbst Tahitis 1:4-DP-CUs, von Pitcairns CUs ganz zu schweigen.
- Im "Uncore"-Bereich sitzen gegenüber Tahiti ein größerer UVD-Block, größerer VCE-Block, die TrueAudio DSPs, 6 zusätzliche ACEs (und wahrscheinlich auch noch größere, da ab GCN1.1 bis zu 8 Queues unterstützt werden), und der Display-Controller düfte u.a. durch FreeSync-Unterstützung auch etwas gewachsen sein.

Insgesamt quetscht Tonga halt trotz 1:16-DP mal eben satte ~700 Mio. Transistoren mehr in die gleiche Fläche, wobei diese höhere Dichte übrigens auch einer der Gründe für die miese Taktbarkeit sein könnte, evtl. hat der Chip einfach auch etwas mehr mit Leakage/Hotspots zu kämpfen als Tahiti und GM204.

Troyan
2015-11-20, 19:09:29
Tongas Problem ist, dass sich an der Leistung pro Fläche nichts geändert hat. Man braucht für die selbe Leistung, die selbe Anzahl an Einheiten. Das Grundgerüst ist schon erheblich transistorenaufwendig. Auch kann AMD garnicht auf die Vorteile der Verbesserungen bauen. Mehr Geometrieanforderungen in Spielen kommt ebenfalls nVidia zu gute. Ergo bleibt man bei ineffizienten, bandbreitenabhängigen Techniken (Offchip, Cache-lastig), wo sich kaum etwas getan hat und Tahiti dank 384bit sowieso sehr gut darsteht.

All das, was du aufzählst, hat nVidia mit Maxwell v2 auch gegenüber Kepler getan. Der Unterschied ist, dass sie nun weniger Transistoren für die selbe Leistung benötigen und den Chip erheblich höher takten können.

Thunder99
2015-11-20, 20:01:57
Für Hawaii-Karten gibt es seit einer Weile einen BIOS-Editor und eine menge Anleitungen. Funktioniert sowohl für UEFI als auch für Legacy-BIOS. Ich habe z.B. aus meiner R290 eine "R390" gemacht. Wer mehr wissen will kann sich hier (http://www.overclock.net/t/1561372/hawaii-bios-editing-290-290x-295x2-390-390x) und hier (http://www.overclock.net/t/1564219/r9-390x-bios-for-r9-290-290x-now-with-stock-and-modded-voltage-tables) einlesen.
Ok, das ist mir neu :D, danke für die Info und Berichtigung :)

Schätze das es höchstens noch die Fury X2 gibt.

Kartenlehrling
2015-11-25, 16:24:15
http://www.computerbase.de/2015-11/club-3d-aktive-displayport-adapter-fuer-uhd-at-60-hz-ueber-hdmi-2.0/
Aktive DisplayPort-Adapter für UHD@60 Hz über HDMI 2.0
Der Hersteller spricht dabei vom „ersten richtigen aktiven (mini)DisplayPort 1.2 auf HDMI 2.0 4K UHD Adapter“.
Laut Hersteller unterstützen die Adapter nicht nur die für „4K@60Hz“ nötige Datenrate sondern auch „HDCP 2.2, 24bit Color und 4:4:4 Color Sampling“.

Kartenlehrling
2015-11-26, 17:48:07
irgendwie schon wieder Peinlich ....
AMD schaft es immer wieder jede Pfütze zu finden, im wahrsten Sinne des Wortes.
@Johan Andersson / Dice
Dat feeling when your just arrived closed liquid cooling pre-release GPU turns out to not be so closed after all
https://twitter.com/repi/status/669829650634440704

Unicous
2015-11-26, 17:52:56
Dein Ernst?

Er hat mit Sicherheit ein Engineering-Sample bekommen. Und da war irgendetwas nicht dicht oder beschädigt.

Shit happens.


Woher wissen wir Übrigens, dass es eine AMD-GPU ist? Woher weiß PCGH schon wieder mit Sicherheit, dass es eine Dual-Fiji ist?

Ich kann daraus nichts lesen. Außer, dass die LQS einer nicht näher benannten Grafikkarte defekt ist. Oder vllt. auch unsachgemäß behandelt. Oder beim Transport beschädigt. Oder, oder, oder.

Kartenlehrling
2015-11-26, 17:53:59
Wirklich glaubst du an was anders?

Unicous
2015-11-26, 18:02:22
Man kann daraus nichts ablesen. Sofort auf Dual-Fiji zu schließen halte ich für vermessen und seitens PCGH als reines click-baiting.

y33H@
2015-11-26, 18:20:46
Hinter den Kulissen ist mehr Information vorhanden.

Unicous
2015-11-26, 18:25:16
Hinter den Kulissen ist mehr Information vorhanden.

Das ist schön, dennoch sollte man damit kein click-baiting betreiben. Eine NDA ist eine NDA ist eine NDA.

Mit öffentlich nicht verfügbaren Informationen Spekulation zu betreiben ist nicht die feine Art.

Kartenlehrling
2015-11-26, 18:39:23
Nach einer R380x Präsentation und einer Radeon Crimson Veröffentlichung wo VR + Multi-GPU (crossfire) fehlt bzw. noch im alten CCC verpackt ist schreit es doch nach einer AMD Dual Präsentation.
Und das sie kommt wissen wir ja seit mitte Juni 2015, zwei wochen nach der R9380x passt doch gut für die Presse.

Hübie
2015-11-26, 19:29:26
Och mensch Leute. Als ob Unicous erst seit heute hier angemeldet ist :rolleyes: Man muss die Leute nehmen wie sie sind.

Die Wahrscheinlichkeit dass es sich um eine dual-Fiji handelt ist extrem hoch.
Seit wann leakt unser AlphaTier denn für nVidia oder seit wann haben Intel oder Power VR dedizierte Grakas mit liquid cooling? :|
Was genau sagt AMD mitte des Jahres zum Launch einer VR-Karte? Was haben wir für einen Zeitraum? Ooooops... alles passt, aber man kann unbestätigte Fakten aka Gerüchte auch völlig ignorieren und einem theoretischem Modell zuführen um seine Zeit etwas zu vergeuden oder einfach etwas zu posten. ;D

Ich bin für ein virtuelles Wettsystem im Forum, wo man dann um Bier wettet. Nicht Biertrinken sind kategorisch ausgeschlossen weil se nur mimimi machen würden X-D SCNR

dildo4u
2015-11-26, 19:36:39
AMD wird Dice puschen DX12 Support vor dem Dual Fiji Launch zu bringen die Karte wird mit dem AMD DX11 Treiber massiv abkacken.Hier ist z.b eine 7990 dabei scaling ist fast nicht vorhanden.

http://www.tomshardware.de/star-wars-battlefront-grafikkarten-benchmark-hardware-anforderungen,testberichte-241982-2.html

Nightspider
2015-11-26, 19:40:24
Ist doch wurscht ob da nun die Wakü defekt war. Dafür kann AMD ja nichts.

AMD wird Dice puschen DX12 Support vor dem Dual Fiji Launch zu bringen die Karte wird mit dem AMD DX11 Treiber massiv abkacken.Hier ist z.b eine 7990 dabei scaling ist fast nicht vorhanden.

http://www.tomshardware.de/star-wars-battlefront-grafikkarten-benchmark-hardware-anforderungen,testberichte-241982-2.html

Der Test ist bestimmt noch ohne Crimson Treiber oder? Mit diesem dürften wieder einige AMD Karten vor manch anderer Nvidia Karte liegen.

Kartenlehrling
2015-11-26, 19:57:07
AMD wird Dice puschen DX12 Support vor dem Dual Fiji Launch zu bringen die Karte wird mit dem AMD DX11 Treiber massiv abkacken.Hier ist z.b eine 7990 dabei scaling ist fast nicht vorhanden.

Was uns jedoch sehr negativ aufgefallen ist, war der Umstand, dass SLI bzw. Crossfire zum Zeitpunkt dieses Tests faktisch nicht unterstützt werden.
Mit ein klein wenig Trickserei gelang es uns zwar, dem Spiel jeweils das Profil von Battlefield 4 unterzuschieben,
was bei den beiden Dual-GPU-Larten im Testfeld zumindest einen leichten Hauch von AFR erzeugte - aber wirklich brauchbar war jedoch auch dies nicht.

Das wird seinen Grund haben und ich kann ihn dir sagen,
weil ....Star Wars: Battlefront kein AFR unterstütz sonderen neue Multi-GPU mit allen vorzügen, wie Split Frame Rendering,
Combined Memory Pools und gemischte GPU (AMD +Nvidia) und das alles mit Freesync !!!

Unicous
2015-11-26, 19:59:41
@Hübie

Ich zitiere mal die Überschrift des PCGH-Artikels:

Radeon R9 Fury X2/Gemini: DICE teasert Dual-GPU-Flaggschiff

Noch nicht mal ein obligatorisches Fragezeichen wird eingefügt.

ES MUSS Gemini sein. Im Artikel selbst wird dann nur noch rumgeschwafelt, auf WTF-Tech Niveau, denn die relevanten Informationen, pre-release GPU und defekte LQS, werden schon im Teaser verpulvert.

Warum, wieso, weshalb es Gemini sein muss wird nicht erläutert, außer dass es auch schon mal andere Hinweise in den letzten Wochen gab.

Natürlich ist die Wahrscheinlichkeit hoch. Aber das aus einem Kühllösungsrohrschachbild zu schließen ist nichts weiter als Kaffeesatzlesen.