PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

HarryHirsch
2015-03-19, 20:50:57
In f@h sieht GCN ganz schlecht gegen Maxwell aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10547741&postcount=126

du vergisst bei diesen vergleichen immer wieder das nv die cpu zu 100% auslastet.
bei amd taktet sie nicht einmal hoch.

Sunrise
2015-03-19, 20:51:55
Es müssen nicht alle Spezial-Features zum Launch funktionieren, Video oder AA-Features werden oft erst nachgeliefert. Nicht toll, aber üblich und kein Grund die Karte nicht zu kaufen.
Der Mac-Ableger von Fiji muss wohl kaum zeitgleich mit der PC Gaming Karte veröffentlicht werden.
Was üblich ist interessiert mich persönlich eben nicht. Denn wenn ich viel Geld für das Produkt ausgebe und dann merke ich, dass vieles nur versprochen aber nicht gehalten wird, dann wechsel ich sehr schnell die Lager. Ein Hersteller, der mit Video-Features wirbt, sollte diese auch entsprechend bei der Vorstellung liefern können. Ich rede jetzt auch nicht von irgendwelchen Verschlimmbesserungstechniken, sondern von der Encoder und Decoder-HW, die sollte vollumfänglich funktionieren. Das ist für mich sehr wichtig. Das ist immer eine relativ dünne Schiene, die man bei High-End nicht fahren sollte. Mir gehts hier auch speziell um Fiji bzw. High-End-Produkte, für die ein Hersteller auch die entsprechenden Preise abruft.

Irgendwelche Fehler gibt es immer, aber ganze Features garnicht zu liefern, das stößt bei einem hohen Preis bei mir sehr schnell sauer auf.

Software ist nie fertig :tongue: Ich entwickle ab und zu selbst welche :D
Und gerade weil du das weißt, kannst du sicher auch nachvollziehen, dass die Welt eben nicht stillsteht, und sich aktuell sehr viel bewegt. Feature-complete sollte einfach dein Standard sein und Video-HW ist mit ein Grund, warum ich Big Maxwell nicht kaufen würde, nicht für alles Geld der Welt. Ich mache eben auch deutlich mehr mit meinem PC als nur hin und wieder mal mit Freunden zu spielen.

aufkrawall
2015-03-19, 20:58:23
du vergisst bei diesen vergleichen immer wieder das nv die cpu zu 100% auslastet.
bei amd taktet sie nicht einmal hoch.
Es sind 100% für einen CPU-Thread, also bei einem i7 12,5%.
Abgesehen davon muss man auch bei Radeons einen Thread für den GPU-Job reservieren, da sonst dessen Performance leidet.
Außerdem bedarf das noch mal einer Betrachtung unter Linux und hat sowieso nichts mit der GPU-Leistung an sich zu tun.

HarryHirsch
2015-03-19, 21:42:29
rechnest du ht als echten kern oder redest du vom 5960x?
woher kommen die 180watt mit denen du da rechnest? auf geizhals ist selbst die k|ngp|n edition von evga mit 165watt angegeben (:freak:)
ohne strommessgerät ist der vergleich mmn irgendwie sinnlos.

M4xw0lf
2015-03-19, 22:04:40
Wie bekommt man eigentlich so tiefgreifendes Detailwissen und -verständnis über GPUs wie Gipsel, wenn man nicht gerade hardware engineer bei einem der Großen Drei ist?
Ich kann jedes mal nur staunen :umassa:

aufkrawall
2015-03-19, 22:09:01
rechnest du ht als echten kern oder redest du vom 5960x?
woher kommen die 180watt mit denen du da rechnest? auf geizhals ist selbst die k|ngp|n edition von evga mit 165watt angegeben (:freak:)
ohne strommessgerät ist der vergleich mmn irgendwie sinnlos.
Es gibt keine "echten Kerne". Mit HTT sieht das OS die Anzahl der physikalischen Kerne x2 und ansonsten nichts.
Bei vier Threads wären dann 25% ausgelastet und bei 8 eben 12,5. Mit HTT sinkt in dem Fall sicher der Stromverbrauch. Bei AMD sinds auch 1-3%.

Abgesehen davon lässt sich das Powertarget aus dem Bios auslesen und die prozentuale Ausreizung dessen zeigt der Treiber an. Das ist nicht so genau, dass der Takt genau zur Einhaltung des Targets abgesenkt werden kann. Für Aussagen über den Durchschnittsverbrauch über Zeiträume, die nicht < wenige Sekunden sind, taugt es aber durchaus.
Edit: Seh ich ja auch an der Kühlung. Kann Zeta 9201 problemlos mit 650rpm bei 65°C kühlen bei bis zu 380k ppd.

HarryHirsch
2015-03-19, 22:25:12
egal wie du es drehst mit einer nv braucht die cpu mehr saft. sie taktet immer hoch -> vcore immer oben -> höherer verbrauch, schwankt vermutlich je nach board (qualität der spawas, config möglichkeiten der spawas)

mczak
2015-03-19, 22:44:02
Das sagt Dir aber längst nicht Alles. Zum Beispiel stehen Maxwells TMUs die doppelte Bandbreite zur Verfügung und sind demzufolge beim Arbeiten mit FP16-Texturen glatt doppelt so schnell wie die gleiche Anzahl GCN-TMUs. Und FP16 ist schon relativ wichtig.

Das liegt aber nicht nur an der Bandbreite, AMD spart sich doch auch etwas Aufwand bei der Filterung.
Ausserdem, wenn ich mich richtig erinnere lag das Problem bei den nicht so effizienten TMUs bei Kepler doch daran dass bei einem "klassichen" Multi-TMU Test gar nicht genug Werte interpoliert werden konnten (also theoretisch ginge das gerade noch die SFUs kriegen genau so viele Werte hin wie für eine 2D-Textur benötigt werden, aber vielleicht wurden da die SFUs auch noch für was anderes gebraucht).
Aber nvidia hatte klar zu viele TMUs bei Kepler (was ja bei gk2xx schon korrigiert wurde), das zu Korrigieren hat allein sicher schon etwas Effizienz gebracht (zumindest was den Flächenbedarf betrifft). Dass da jetzt auch Single-Channel FP32 in einem Takt geht halte ich eher für eine Detailverbesserung (wenn man 1/4 4xFP32 Geschwindigkeit hinkriegt müsste bei "schlauer" Verdrahtung ja eben auch 1xFP32 bei voller Geschwindigkeit gehen). Aber da man bei Kepler eh schon mehr als genug TMUs hatte lohnte es sich wohl nicht da zu investieren.
Ich frage mich allerdings auch ob AMD nicht doch irgendwann die TMUs auf Fullspeed-FP16 aufrüsten möchte. Ist ja ziemlich lustig AMD hat Fullspeed-FP16 Blend und Halfspeed-FP16 Texturing während es bei Nvidia genau umgekehrt ist :-).

aufkrawall
2015-03-19, 22:48:30
egal wie du es drehst mit einer nv braucht die cpu mehr saft. sie taktet immer hoch -> vcore immer oben -> höherer verbrauch, schwankt vermutlich je nach board (qualität der spawas, config möglichkeiten der spawas)
Unter Windows ist das so, hab ich das bestritten?
Um so schlimmer, dass die 980 insgesamt trotzdem noch effizienter ist. :uroll:
Ob unter Linux auch unnötig verbraten wird, weißt du also gar nicht (entnehme ich mal deinen Äußerungen).

Ändert aber auch nichts daran, dass man auch auf Radeons einen Thread freihalten muss, wenn man noch CPU-Folding macht, um den GPU-Job nicht auszubremsen. Da wird dann der Energieverbrauchsunterschied bei der CPU deutlich geringer sein.
Wer ernsthaft das Projekt unterstützen will, lässt auch CPU-WUs laufen. Immerhin unterstützen die mitunter ganz andere Projekte.

Für ein ernsthaftes kleines GPU Folding-Rig kann man einen i3 mit HTT nehmen und steckt dann 960s mit 200k ppd dazu.
Da sehen die Radeons einfach nur schrecklich gegen aus, was ppd/€ und ppd/W angeht.

Hübie
2015-03-19, 23:20:44
Tut mir leid wir waren zu spät da.
http://abload.de/img/dsc_0149ckawq.jpg (http://abload.de/image.php?img=dsc_0149ckawq.jpg)

Die haben sich alle schon besoffen X-D Dafür hab ich ne Menge anderer interessanter Infos. Passt nur nicht hier her ;)

Davon abgesehen waren keine Ingeneure o.ä. kompetente Personen vor Ort. War mehr Marketing blah blah mit Videos zu freesync :rolleyes:
Die Gerüchte kommen von zwei Vendors vor Ort wo heise mal eben hinhuschte und nachgebohrt hat. Die wissen bekanntermaßen auch nur soviel wie denen gesagt wird. Preise sind jedoch realistisch.
Also nix neues zu HBM.

Gipsel
2015-03-19, 23:57:08
Das liegt aber nicht nur an der Bandbreite, AMD spart sich doch auch etwas Aufwand bei der Filterung.Was meinst Du denn damit genau? Die TMUs liefern praktisch die gleichen Ergebnisse wie bei nV. Und die Rate ist bei 4x8Bit und 4xFP16-Texturen schlicht exakt auf dem Level, was man einfach mit den 64Byte/Takt L1-Bandbreite hinbekommen kann (4 bilinear gefilterte Texel pro Takt bei 32bit Formaten, 2 bilinear gefilterte Texel bei 4xFP16 oder bis zu 4x16Byte ungefiltert gelesen [unabhängig vom Format]). Wozu sollte man mehr Hardware in den Filtern verbauen, wenn man sowieso nicht mehr Daten aus den Caches bekommt? Diese Abwägung ist eventuell ein Überbleibsel aus VLIW-Tagen, als die L1-Caches noch unkomprimierte Texturen gehalten haben (wurden beim Laden aus dem L2 dekomprimiert).

Heute könnte man sicherlich so eine Art kleinen unkomprimierten L0 höherer Bandbreite direkt in bzw. sehr nah an den TMUs einbauen, um z.B. Werte wiederzubenutzen, die auch von benachbarten Pixeln gelesen werden (spart vermutlich sogar etwas Strom). Vermutlich gibt es sogar schon einen Puffer in der Art (zur on-the-fly-Dekompression von Texturen), man nutzt es nur noch nicht mit mehr Filtereinheiten aus. Also da besteht durchaus Ausbaupotential, selbst wenn man die nominelle L1-Bandbreite bei 64Byte/Takt beläßt.

|MatMan|
2015-03-20, 00:22:34
Oh nein, das hätten alle Gamer auf lange Sicht bereut - das würde bedeuten: kein Push für low-level APIs, kein Druck für DX12 oder Vulkan.
Windows 10 (und damit DX12) kommt wegen Mantle nicht früher. Ich bezweifle auch, dass DX12 wegen Mantle die Verbesserungen bei der CPU-Effizienz bringt - das wäre sicherlich ohnehin gekommen (ist aber nur eine Spekulation). Für uns Gamer ist der entstandene Druck durch Mantle natürlich toll. AMD hat es leider offensichtlich nicht geholfen mehr Karten zu verkaufen, daher müssen sie sich schon fragen, ob sie die Resourcen für Mantle übrig haben oder lieber in die scheinbar hinkende sonstige Treiberentwicklung stecken.

@Sunrise: Deine Anforderungen an die Video-HW sind aber schon etwas speziell ;) Bei einer Gaming-GPU ist vielen der Video-Decoder sicherlich nicht ganz so wichtig. Ich drück dir die Daumen, dass Fiji alle Features hat, die du willst :)

Nakai
2015-03-20, 00:43:08
Heute könnte man sicherlich so eine Art kleinen unkomprimierten L0 höherer Bandbreite direkt in bzw. sehr nah an den TMUs einbauen, um z.B. Werte wiederzubenutzen, die auch von benachbarten Pixeln gelesen werden (spart vermutlich sogar etwas Strom). Vermutlich gibt es sogar schon einen Puffer in der Art (zur on-the-fly-Dekompression von Texturen), man nutzt es nur noch nicht mit mehr Filtereinheiten aus. Also da besteht durchaus Ausbaupotential, selbst wenn man die nominelle L1-Bandbreite bei 64Byte/Takt beläßt.

Cool, kannst du auch irgendwie abschätzen, wie sehr soetwas das Design aufblähen würde?

Ebenso das hier:

Aber um mal wieder etwas auf das Thema zurückzukommen, bei GCN liegen die Bottlenecks woanders. Die GCN-CUs sind von Anfang an viel stärker darauf ausgelegt gewesen, bei arithmetischen Geschichten kaum irgendwann mal Stalls zu produzieren (da ist nV mit Maxwell jetzt auch ungefähr hingekommen). Aber die ALUs sind halt im Vergleich zu Maxwell nur mit der Hälfte der Bandbreite (pro ALU, GCN hat nur die Hälfte an L1-Bandbreite pro TMU) an die L1-Caches angebunden. Datenzugriffe sind auf GCN also "teurer" (und nein, Speicherbandbreite hilft da nicht wirklich, hier geht es um die Bandbreite aus den L1-Caches). Die Frontend-Geschichten kommen dann noch hinzu. Mal sehen, ob bzw. wieviel Fiji da gegenüber Hawaii und Tonga drauflegt.

Gut, dass es nicht an der Auslastung der SPs liegt. Die meisten GPGPU-Benches und Software(auch direkt erfahren) zeigen ja, dass GCN einen guten Durchsatz hat. Solche architekturellen Änderungen sollten sich dann an der Effizienz niederschlagen?

mczak
2015-03-20, 00:50:45
Was meinst Du denn damit genau? Die TMUs liefern praktisch die gleichen Ergebnisse wie bei nV. Und die Rate ist bei 4x8Bit und 4xFP16-Texturen schlicht exakt auf dem Level, was man einfach mit den 64Byte/Takt L1-Bandbreite hinbekommen kann (4 bilinear gefilterte Texel pro Takt bei 32bit Formaten, 2 bilinear gefilterte Texel bei 4xFP16 oder bis zu 4x16Byte ungefiltert gelesen [unabhängig vom Format]). Wozu sollte man mehr Hardware in den Filtern verbauen, wenn man sowieso nicht mehr Daten aus den Caches bekommt? Diese Abwägung ist eventuell ein Überbleibsel aus VLIW-Tagen, als die L1-Caches noch unkomprimierte Texturen gehalten haben (wurden beim Laden aus dem L2 dekomprimiert).

Ich widerspreche nicht, klang nur so dass die Radeons eben auf Halfspeed-FP16 begrenzt sind weil der L1-Cache nicht mehr Bandbreite hergibt. Man kann das auch anders sehen, die Filterhardware kann eben mit dieser Genauigkeit bloss halbe Geschwindigkeit und die Caches wurden entsprechend designt. Macht am Ende keinen Unterschied.
Und du hast Recht selbst ein ziemlich minimal kleiner L0-Cache müsste eigentlich typischerweise genug sein um das Bandbreitenproblem zu lösen.

Agent117
2015-03-20, 01:43:31
Gut, dass es nicht an der Auslastung der SPs liegt.

So würde ich das nicht formulieren. Es liegt wohl schon an deren Auslastung, jedoch nicht an den SPs.
Ich vermute da eher den Command Processor und auch den Treiber als Ursache einer schlechteren Auslastung gerade bei Spielen.
In den CUs scheint ja alles ganz gut ausbalanciert zu sein, das haben die Experten hier ja schon mehrfach dargelegt und auch auf Unterschiede zu Kepler verwiesen.

Vom Command Procesor habe ich leider noch weniger Ahnung als vom Rest, vlt blickt da ja einer der Experten hier durch.

robbitop
2015-03-20, 08:43:28
Das sagt Dir aber längst nicht Alles. Zum Beispiel stehen Maxwells TMUs die doppelte Bandbreite zur Verfügung und sind demzufolge beim Arbeiten mit FP16-Texturen glatt doppelt so schnell wie die gleiche Anzahl GCN-TMUs. Und FP16 ist schon relativ wichtig.

Kommen FP16 Texturen eigentlich schon massiv zum Einsatz? Vor ein paar Jahren war das IIRC noch die Ausnahme.


Und bei Compute-Sachen findet man die eher gar nicht (normalerweise kein Texturing, weniger gleichzeitig laufende Shadertypen, deren Arbeit man geschickt verteilen muß und die Daten bei Abhängigkeiten zwischen denen routen muß), auch wenn man da bei bestimmten Sachen immer auf spezielle Stärken und Schwächen der jeweiligen Architekturen stoßen kann. Es liegt also offenbar nicht an den ALUs.

Ich kann mir vorstellen, dass viele Computeanwendungsfälle es ggf. einfacher haben, näher an den theoretischen Maximaldurchsatz zu kommen. (besser sortierter, parallelisierter Code?)

Was ich sagen will - es könnte auch an der Verteil- und Kontrollogik liegen. Da hatte Maxwell IIRC auch aufgerüstet.

Sunrise
2015-03-20, 09:39:56
@Sunrise: Deine Anforderungen an die Video-HW sind aber schon etwas speziell ;) Bei einer Gaming-GPU ist vielen der Video-Decoder sicherlich nicht ganz so wichtig. Ich drück dir die Daumen, dass Fiji alle Features hat, die du willst :)
Es wäre zumindest ein Punkt für Fiji. GM206 hat das Ding eben auch schon drin (ebenso wie X1) und der macht H.265/HEVC mit allen Features (inkl. Main10) bis ca. 120Mbps mit. Wenn du mit hohen Einstellungen encodierst und das dekodieren willst, dann frisst das auf der CPU einfach abartig viel Saft aktuell (wenn es überhaupt in Echtzeit dekodierbar ist) und man möchte ja evtl. noch nebenher etwas machen können. Ich helfe nebenher auch einem Entwickler beim Debugging, da ist so ne HW-Einheit auch vorteilhafter (weil die normalerweise voll der Spec folgen).

Nebenbei kannst du damit ja zukünftig auch Spiele encodieren, wenn es dann unterstützt wird. Es gibt für mich einfach mehr als nur die Balkenlänge, Geschwindigkeit ist toll, aber die möchte ich mir weder mit Bildqualität noch mit irgendwelchen fehlenden Features erkaufen müssen. Nur für Spiele gebe ich keine 1000 EUR und mehr aus.

Die G-Sync/FreeSync-Situation geht mir allerdings aktuell auf die Nüsse, da werde ich noch abwarten. Das will wohl überlegt sein.

Knuddelbearli
2015-03-20, 16:35:21
Laut AMD liegt sie doch unter der 295X2 wie soll sie da schneller als Titan X sein? 980 + 50% liegt im Bereich der 295X2.

http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/

und jetzt wo man auf dem Boden der Tatsachen zurück ist?

Sorry bin noch am nachlesen

basix
2015-03-20, 17:52:40
und jetzt wo man auf dem Boden der Tatsachen zurück ist?

Sorry bin noch am nachlesen

Wenn Fiji 5% langsamer als die 295X wird haben wir in etwa Gleichstand:
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/

In dem Link sieht man auch, dass die 290X @ 1000 MHz ziemlich genau 2/3 der Performance einer 295X erbringt. 4096 / 2816 = 1.45, d.h. wenn man die Leistung auf den Boden bringt, sollte man im Schnitt schon das Niveau der 295X / Titan X erreichen. Alles andere würde mich ziemlich enttäuschen.

Und dann gibt es da noch die ominösen Treiberanpassungen ;D Mehr nimmt man immer gerne ;)

Knuddelbearli
2015-03-20, 18:17:04
Was denkt ihr - wieviel "Technologievorsprung" hat AMD mit HBM vor Nvidia?

Nvidia wird ja bekannterweise erst mit Pascal HBM einführen.

Wird AMD über die nächsten Jahre einen gewissen (Erfahrungs)Vorsprung haben?
bzw. Kann Nvidia diesen "Vorsprung" einfach so mit der nächsten Gen. wieder wegmachen?

gar keinen da jede Verbesserung auch NV bekommen wird.

basix
2015-03-20, 18:30:06
gar keinen da jede Verbesserung auch NV bekommen wird.

Naja, Erfahrung und "Verbesserungen" im eigenen Verständnis mit der Materie wird einem nicht geschenkt ;) Allzu gross sollte der Vorsprung von AMD aber nicht werden, Nvidia wird sicherlich jetzt schon mit HBM experimentieren. Sie benutzen es einfach nicht für eine Grossserie.

von Richthofen
2015-03-20, 20:02:39
Wenn Fiji 5% langsamer als die 295X wird haben wir in etwa Gleichstand:
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/


Da im CB-Test teils uralte Treiber zum Einsatz kommen, bietet es sich höchstens an Vergleiche innerhalb der Radeons oder GeForce' anzustellen.

http://www.computerbase.de/2014-08/grafikkarten-testverfahren/

rentex
2015-03-21, 07:09:50
Denke auch, das Nvidia ebenso weit ist wie AMD. Nur AMD wagt sich jetzt schon, mit einer frühen und speziellen (8GB) Version von HBM auf den Markt ( Nach dem Motto: Es ist möglich und wir brauchen es JETZT!). Nvidia möchte nichts überstürzen und HBM2 mit den neuen Fertigungsverfahren bringen. Was nach meinem Verständniss eine "sauberere" Lösung wäre. Fiji wird einen Vorgeschmack geben was zu erwarten ist, aber noch in 28nm.
Ich sehe für 2016 folgendes: HBM2(Pascal, R400?) fängt sich langsam zu etablieren an. Die neuen Fertigungsverfahren sind eingeführt. Dazu noch im CPU Bereich Intel Skylake (DDR4) und AMD ZEN...da braut sich was zusamnen und es ist verdammt spannend!!!
Zum Thema CB Tests: Ich kann mir nicht vorstellen, das sie sämtlichen Grakas zu jedem neuen Test mit neuem Treiber installieren...das wäre ein exorbitanter Aufwand. Anderseits wäre es nur richtig, um den aktuellen Stand abzubilden!

hasebaer
2015-03-21, 09:12:05
Da im CB-Test teils uralte Treiber zum Einsatz kommen,

CB hat maximal sechs Monate alte Treiber und wie CB selber zeigt, ändert sich in diesem Zeitraum nicht wirklich was.

http://www.computerbase.de/2014-11/grafikkartentreiber-im-test/2/

fondness
2015-03-21, 09:14:46
CB hat maximal sechs Monate alte Treiber und wie CB selber zeigt, ändert sich in diesem Zeitraum nicht wirklich was.

http://www.computerbase.de/2014-11/grafikkartentreiber-im-test/2/

Der AMD-Treiber ist 9 Monate alt und gerade der Cat OMEGA brachte druchaus teils deutliche Leistungssteigerungen.

Dawn on Titan
2015-03-21, 10:04:18
Fiji WCE ist schneller als die 295X.

rentex
2015-03-21, 10:13:28
Aha, woher die Info....

M4xw0lf
2015-03-21, 11:43:40
Das ist einfach - eine 295X existiert nicht. :ucatch:

hasebaer
2015-03-21, 11:45:11
Der AMD-Treiber ist 9 Monate alt und gerade der Cat OMEGA brachte druchaus teils deutliche Leistungssteigerungen.


Ja der Omega kam halt erst am 9. Dez.14' raus.
Ich seh grad das CB doch nicht, wie ich im Hinterkopf hatte, regelmässig alle sechs Monate ihren Parkour erneuern, was erstmal scheiße ist.
Das letzte große Update ist tatsächlich von anfang August 2014, ein Update ist überfällig nach 7,5 Monaten.

Aber auf der anderen Seite kam von AMD seit dem 14.12 auch nix mehr, ausser dem 15.3 beta Treiber von gestern.

Wenn man das weiterspinnt, wartet Wolfgang vielleicht nur auf AMD das die mal in die Puschen kommen und einen WHQL Treiber veröffentlichen, damit der nächste Parkour auch wieder für 6+ X Monate aussagekräftig bleibt.

fondness
2015-03-21, 13:45:31
Aber auf der anderen Seite kam von AMD seit dem 14.12 auch nix mehr, ausser dem 15.3 beta Treiber von gestern.

Wenn man das weiterspinnt, wartet Wolfgang vielleicht nur auf AMD das die mal in die Puschen kommen und einen WHQL Treiber veröffentlichen, damit der nächste Parkour auch wieder für 6+ X Monate aussagekräftig bleibt.

Wenn man einen aktuellen Treiber für Tests will braucht man bei AMD nur nachfragen, in der Regel bekommt man dann auch inoffizielle Treiber die nicht immer veröffentlicht werden.

Und das irgendjemand auf einen neuen AMD-Treiber für Tests wartet halte ich doch ein bisschen sehr weit hergeholt. Jedenfalls ist der Vergleich TITAN X mit aktuellsten Treibern vs. den AMD Karten mit 9 Monate alten Treibern alles andere als fair.

Blediator16
2015-03-21, 13:53:45
Wenn man einen aktuellen Treiber für Tests will braucht man bei AMD nur nachfragen, in der Regel bekommt man dann auch inoffizielle Treiber die nicht immer veröffentlicht werden.

Und das irgendjemand auf einen neuen AMD-Treiber für Tests wartet halte ich doch ein bisschen sehr weit hergeholt. Jedenfalls ist der Vergleich TITAN X mit aktuellsten Treibern vs. den AMD Karten mit 9 Monate alten Treibern alles andere als fair.

Wenn sie, ausnahmsweise mal, wirklich so lange für einen neuen perf. Treiber brauchen, dann selbst schuld.

MechWOLLIer
2015-03-21, 14:26:18
Wenn man einen aktuellen Treiber für Tests will braucht man bei AMD nur nachfragen, in der Regel bekommt man dann auch inoffizielle Treiber die nicht immer veröffentlicht werden.

Öööhhh, kurz und knapp: Nein.
Aber schön wärs...

Der Grund für die Verzögerung sind einfach zweierlei:
s standen immer wieder andere Projekte an, und: Es hat ziemlich lange dauert, den neuen Testparcours auszuarbeiten. Das ging echt nicht von heute auf morgen.

fondness
2015-03-21, 14:29:14
Öööhhh, kurz und knapp: Nein.
Aber schön wärs...


Nein ist definitiv falsch. Das es nicht immer möglich ist und natürlich gerade zeitlich passen muss ist klar. Viele Seiten testeten gegen die TITAN X zB bereits mit einem 15.3.1 BETA von AMD.

MechWOLLIer
2015-03-21, 15:02:28
Nein ist definitiv falsch. Das es nicht immer möglich ist und natürlich gerade zeitlich passen muss ist klar. Viele Seiten testeten gegen die TITAN X zB bereits mit einem 15.3.1 BETA von AMD.
Und nochmal: Nein.
Glaubst du mir jetzt nicht?^^

Warum die Presse (und wir auch) zu dem Zeitpunkt den Cat 15.3.1 hatten lag ausschließlich an FreeSync. Ich habe Wochenlang nach Treibern gefragt, da kam einfach nix.

Hübie
2015-03-21, 15:09:36
Und ändert sich irgendwas? Vermutlich nicht, oder? Ich rede vom ranking der Gesamtperformance. Wenn eine GTX 770 eine R9 290 schlägt kann sich wohl jeder halbwegs bei klarem Verstand befindliche Mensch denken dass da nur in eine Richtung entwickelt wurde *hust*
Versteh also nicht warum du darauf so herum reitest. Kannst dich ja freiwillig und ehrenamtlich bei Wolle & Co beteiligen. Wie aufwändig dass alles letztlich is wird von vielen sowieso unterschätzt.

Kriton
2015-03-21, 15:50:09
Wenn eine GTX 770 eine R9 290 schlägt kann sich wohl jeder halbwegs bei klarem Verstand befindliche informierte Mensch denken dass da nur in eine Richtung entwickelt wurde *hust*

Fixed it for you. Nicht jeder beschäftigt sich so intensiv mit Grafikkarten wie unser Forum.

Ailuros
2015-03-21, 16:57:32
Wer von Euch glaubt dass die Treiber-geschichte an die Luft gekommen waere wenn ich nichts hier erwaehnt haette darf mal den feuchten Finger in die Luft strecken um die Windgeschwindigkeit zu testen. Das heisst immer noch nicht dass sie stimmen muss, AMD kann Geruechte jederzeit bestreiten obwohl es keinen Sinn macht. Es ist nur stets eine unendliche Freude die diversen Abschreiber mit runtergezogenen Hosen zu bewundern....

Bei launch Treibern geht es uebrigens immer und NUR um die hoechst-moegliche Stabilitaet und ueber Leistungs-Optimierungen sorgen IHVs normalerweise spaeter, und wer's auf Anhieb kapiert schoen und gut :rolleyes:

AnarchX
2015-03-21, 17:28:44
16 CU 920MHz - 256-Bit 2GB: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598c8f7c8f7c884bb84a49b90aff1cef1cef1cef1ceeed1eed1eec8af92 bf8ea8dae7d6f099a495b3dbe6d3f58db081a7c2a79aaa8cffc2fa&l=en

Bandbreitenwerte liegen auf Tonga Niveau, also wohl Color Compression.

Eventuell die R9 370?

Knuddelbearli
2015-03-21, 17:40:43
Und ändert sich irgendwas? Vermutlich nicht, oder? Ich rede vom ranking der Gesamtperformance. Wenn eine GTX 770 eine R9 290 schlägt kann sich wohl jeder halbwegs bei klarem Verstand befindliche Mensch denken dass da nur in eine Richtung entwickelt wurde *hust*
Versteh also nicht warum du darauf so herum reitest. Kannst dich ja freiwillig und ehrenamtlich bei Wolle & Co beteiligen. Wie aufwändig dass alles letztlich is wird von vielen sowieso unterschätzt.

Ht4U als 1 Mann Tester schafft es :P

Unicous
2015-03-21, 17:43:19
@AnarchX

Curaçao (Pro)@TongaIP?

M4xw0lf
2015-03-21, 17:45:35
Scheint dann wohl weiterhin Pitcairn/Curacao Pro zu sein. CUs, SI, Takt - passt alles.

Unicous
2015-03-21, 17:48:48
Diesen Eintrag gibt es auch noch:

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdf4d2b3d2efdceedeefdde9cfbd80b096f396ab9bbdcef3cb&l=en

M4xw0lf
2015-03-21, 17:57:12
Sieht aus wie Tahiti Pro mit etwas mehr Takt als die R9 280 bisher hatte.

Unicous
2015-03-21, 17:59:11
... on Steroids.


972MHz.

edit: Ey, nicht editieren.

Im Endeffekt kann es auch wirklich nur eine übertaktete Tahiti Pro sein. Wer weiß.

M4xw0lf
2015-03-21, 17:59:57
Habs noch hinzugebastelt, ja.
Das Lineup unter Fiji wird offenbar wirklich trostlos.

HOT
2015-03-21, 18:00:30
16 CU 920MHz - 256-Bit 2GB: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598c8f7c8f7c884bb84a49b90aff1cef1cef1cef1ceeed1eed1eec8af92 bf8ea8dae7d6f099a495b3dbe6d3f58db081a7c2a79aaa8cffc2fa&l=en

Bandbreitenwerte liegen auf Tonga Niveau, also wohl Color Compression.

Eventuell die R9 370?
Sieht bei dem Takt stark nach Salvage aus. Vollausbau 20 CUs? Dürfte dann wohl Trinidad sein.

AnarchX
2015-03-21, 18:08:23
| 16CUs 256-Bit 370? | 7850

Internal Memory Bandwidth | 123.90GB/s | 115.33GB/s |
Upload Bandwidth | 11.16GB/s | 5.78GB/s |
Download Bandwidth | 11.69GB/s | 5.54GB |
Single-float GP Compute | 2460.63Mpix/s | 2091.74Mpix/s |
Double-float GP Compute | 205.49Mpix/s | 172.10Mpix/s |
Quad-float GP Compute | 12.12Mpix/s | |


Schnellvergleich mit: http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e3d6e4d3e2c4b68bbb9df89da090b6c5f8c0&l=en

HOT
2015-03-21, 18:43:26
Damit dürfte klar sein, dass das Teil mal nix mit Pitcairn am Hut hat.

M4xw0lf
2015-03-21, 18:45:23
Was sind denn Up- und Download Bandwidth? Alle anderen Werte lassen sich wohl durch Taktunterschiede erklären.

HOT
2015-03-21, 18:48:02
Ähm ... 920 zu 900MHz? Ernsthaft?

mironicus
2015-03-21, 18:48:33
Wäre nicht schlecht, wenn es eine kleinere Karte gäbe mit den neuen Features der Fiji.

M4xw0lf
2015-03-21, 18:54:33
Ah, ich hatte um die 800 im Kopf für die 7850.
Dann steigt die Hoffnung auf ein bisschen was neues neben Fiji wieder.

AnarchX
2015-03-21, 19:15:57
Was sind denn Up- und Download Bandwidth? Alle anderen Werte lassen sich wohl durch Taktunterschiede erklären.

Scheint wohl nur PCIe zu sein. Generell ist die SiSoft Suite eh etwas gewöhnungbedürftig.

Grundsätzlich bleibt festzuhalten, dass die Karte einen auffälligen Bandbreitenwert hat und die anderen in gewissen Rahmen zu den R9 370 Spekulationen passen. Mehr kann man da wohl erstmal nicht herausziehen.

Ähm ... 920 zu 900MHz? Ernsthaft?
Bei der R9 370 wurde doch niedrige 110-130W spekuliert.

Käsetoast
2015-03-21, 19:20:26
Dann steigt die Hoffnung auf ein bisschen was neues neben Fiji wieder.
Ganz ehrlich? Alles andere empfände ich auch als herbe Enttäuschung - der Release von Pitcairn ist ja nun etwa drei Jahre her. Generell kam bei AMD ja nur wenig Neues, weswegen es so langsam Zeit wird dem ganzen Lineup einen Facelift mit der neuesten Technologie zu verpassen - gerade jetzt wo leider kein besserer Fertigungsprozess in Reichweite zu sein scheint (20nm GPUs bleiben ja wohl nur Wunschdenken)...

M4xw0lf
2015-03-21, 19:47:20
Scheint wohl nur PCIe zu sein.
Der Unterschied bei diesen Werten könnte also einfach nur PCIe 2.0 vs 3.0 oder x8 vs x16 bedeuten?
Bei der R9 370 wurde doch niedrige 110-130W spekuliert.
Mehr hatte die 7870 auch nicht, spricht also wiederum nicht gegen Pitcairn.

Unicous
2015-03-21, 20:06:54
SK hynix to mass-produce lower 20-nano class DRAM in second half: CEO (http://www.koreaherald.com/view.php?ud=20150320000835)

HBM Gen 2!? Samsung produziert ja schon Chips mit ihrem "20nm" Prozess und ich könnte mir vorstellen, dass sie den Prozess auch nutzen werden um DRAM Chips für HBM herzustellen. Dass sie in die HBM Produktion einsteigen wollen und werden hatte ja ein Repräsentant schon letztes Jahr bei einer Fachkonferenz (MemCon 2014) verlauten lassen.

HOT
2015-03-21, 20:22:46
7850 = 130W bei 860MHz (AMD selbst gibt fälschlicherweise 800MHz an)
265x = 150W bei 925MHz
7870 = 175W bei 1000MHz
270 = 150W bei 925MHz
270x = 180W bei 1050MHz

370 = 110-130W bei 920MHz
Der Chip ist schneller und beherrscht die Bandbreitekompression, ergo kann es kein Pitcairn sein, ganz einfach.

Edit: hier ist ne Tabelle:
http://www.tomshardware.de/amd-radeon-r7-265-grafikkarten-test-review,testberichte-241499.html
Auch bei Wiki kann man sich schlau machen die TDPs stimmen.
http://de.wikipedia.org/wiki/AMD-Radeon-R200-Serie
http://de.wikipedia.org/wiki/AMD-Radeon-HD-7000-Serie

dildo4u
2015-03-21, 20:26:27
7850 = 130W bei 860MHz
7870 = 175W
Hardtecs hat hier 127 für ne 7870,da kommt nur alter Schrott mit den Refreches.

http://ht4u.net/reviews/2014/msi_radeon_r9_270x_mini_itx_gaming/index14.php

Gipsel
2015-03-21, 20:55:58
SK hynix to mass-produce lower 20-nano class DRAM in second half: CEO (http://www.koreaherald.com/view.php?ud=20150320000835)

HBM Gen 2!? Samsung produziert ja schon Chips mit ihrem "20nm" Prozess und ich könnte mir vorstellen, dass sie den Prozess auch nutzen werden um DRAM Chips für HBM herzustellen. Dass sie in die HBM Produktion einsteigen wollen und werden hatte ja ein Repräsentant schon letztes Jahr bei einer Fachkonferenz (MemCon 2014) verlauten lassen.DRAM-Prozesse und die für Logik-Chips sind recht stark unterschiedlich. Liegt daran, daß man für DRAM gute Kondensatoren bauen muß. Der Samsung DRAM-Prozeß ist also nicht der 20nm Samsung-Logik-Prozeß. Und Hynix baut laut der Meldung DRAM bereits in 29nm und 25nm und will jetzt die 20nm-Produktion starten. Keiner würde so feine Abstufungen für Logikprozesse machen. DRAM-Produktion hat deutlich andere Anforderungen.

Unicous
2015-03-21, 21:01:20
Ich habe doch "20nm" extra in Anführungszeichen gesetzt. Was willst du mir sagen?

fondness
2015-03-21, 21:02:31
Hardtecs hat hier 127 für ne 7870,da kommt nur alter Schrott mit den Refreches.

http://ht4u.net/reviews/2014/msi_radeon_r9_270x_mini_itx_gaming/index14.php

LOL, alter Schrott. GM206 kam drei Jahre(!) später und hat ein größeres Die, ist keine 15% schneller und nicht mal so viel sparsamer. Pitcain ist nach wie vor der konkurrenzfähigste AMD-Chip überhaupt aus Perf/Watt bzw. Perf/mm² Sicht.

http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/

Die Frage ist höchstens warum AMD nicht zumindest eine solche Effizienz auch bei den anderen Chip zusammen bringt.

HOT
2015-03-21, 21:18:23
Diesen Eintrag gibt es auch noch:

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdf4d2b3d2efdceedeefdde9cfbd80b096f396ab9bbdcef3cb&l=en
sieht nach irgendeinem Tahiti als Profivariante aus. Ziemlich wenig SingleFloat.

Datarecovery09
2015-03-21, 21:38:20
Ich kann mir nicht vorstellen, dass AMD noch mal einen dieser alten Chips bringt, speziell nicht irgendwo in Richtung 200 Euro. Ich bin jetzt alles andere als ein Experte für Grafikkarten, aber das ergibt schon aus unternehmerischer Sicht nicht viel Sinn.

Hübie
2015-03-21, 23:31:48
LOL, alter Schrott. GM206 kam drei Jahre(!) später und hat ein größeres Die, ist keine 15% schneller und nicht mal so viel sparsamer. Pitcain ist nach wie vor der konkurrenzfähigste AMD-Chip überhaupt aus Perf/Watt bzw. Perf/mm² Sicht.

http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/

Die Frage ist höchstens warum AMD nicht zumindest eine solche Effizienz auch bei den anderen Chip zusammen bringt.

Was genau meinst du? Also 20% weniger Energiebedarf bei 15% mehr Leistung ist doch für drei Jahre Abstand gut. AMD wird sicher keine Pitcairns neu bringen. Sonst haben die wirklich was falsch gemacht.

Pentium M
2015-03-22, 00:28:14
Alter Wein in neuen Schläuchen.Von Nvidia abgekupfert .Von Meistern lernen heisst siegen lernen.(Pitcairn hatte doch DX 11.2. Damals hat das wahrscheinlich keinen interesiert aber Heute)

Hübie
2015-03-22, 01:40:41
Alter Wein ist was Gutes also weiß ich immer noch nicht was gemeint ist. Bitte mal ohne Poesie aufdrücken. Danke.

Pentium M
2015-03-22, 01:43:49
Die Klammern sagen es doch aus.

Hübie
2015-03-22, 01:45:28
Ja und? Henne-Ei-Problem. Können wir bis nächste Woche ausdiskutieren.

Pentium M
2015-03-22, 01:47:32
Na Klar Kepler DX 11.2.

Hübie
2015-03-22, 01:54:41
Kepler hat wie du weißt nicht das volle featureset. Vermisst hats kein Entwickler schätz ich. Und wenn war deren Aufschrei nicht laut genug um einen Mäusefurz zu übertönen.

Pentium M
2015-03-22, 01:57:34
Ich bezweifle das Maxwell das volle FeatureSet hat .Es wird langweilig.

Hübie
2015-03-22, 02:00:25
Dann recherchiere statt Einzeiler zu verfassen.

Skysnake
2015-03-22, 06:59:23
| 16CUs 256-Bit 370? | 7850

Internal Memory Bandwidth | 123.90GB/s | 115.33GB/s |
Upload Bandwidth | 11.16GB/s | 5.78GB/s |
Download Bandwidth | 11.69GB/s | 5.54GB |
Single-float GP Compute | 2460.63Mpix/s | 2091.74Mpix/s |
Double-float GP Compute | 205.49Mpix/s | 172.10Mpix/s |
Quad-float GP Compute | 12.12Mpix/s | |


Schnellvergleich mit: http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e3d6e4d3e2c4b68bbb9df89da090b6c5f8c0&l=en
Quad Percision in Hardware? :freak: WTF?

Also das ist mal ziemlich strange. Warum sollte man in ne GPU Quad-Percision unterstützen? Das ist doch wirklich SEHR selten im Einsatz.

Sehen wir hier die Auswirkungen von HSA? Insbesondere das man halt wirklich beliebigen Code hin und her schieben können will zwischen CPU und GPU?

Wenn ja, dann supi für Compute, aber gegen nVidia wirds im Gameing bereich damit bzgl Effizienz nicht einfacher.

Ich befürchte HSA könnte sich zu einem echten Stolperstein für AMD entwickeln, selbst wenn es vom Markt angenommen wird.

EDIT:
Die Werte sehen ja mal echt strange aus.

tm0975
2015-03-22, 08:18:40
Ich befürchte HSA könnte sich zu einem echten Stolperstein für AMD entwickeln, selbst wenn es vom Markt angenommen wird.

das scheint mir ein wiederspruch zu sein. AMDs stolpersteine waren grundsätzlich die dinge, die nicht vom markt angenommen wurden bzw dank intel nicht angenommen werden durften.

Skysnake
2015-03-22, 09:31:54
Was bringt dir, wenn HSA an sich angenommen wird, man dafür aber Aufgrund der Kompromisse bei reiner Grafik gegen nVidia nicht anstinken kann? Am Ende ist das erstmal ein Nullsummenspiel.

HOT
2015-03-22, 10:38:14
Was bringt dich auf so eine Schlussfolgerung? Und auch meine Hawaii wird von Sandra mit Quad-Precision gemessen. Sandra misst alle Formate.

Skysnake
2015-03-22, 12:43:06
GPUs können an sich kein Quad-Percision. Es muss also 1. in Software emuliert werden, was normal nicht untersatützt wird oder 2. man macht es auf der CPU, wobei das eigentlich nicht sein dürfte in diesem Fall.

Mit nVidia GPUs kannste kein Quad-Percision nutzen. Daher ist das schon etwas besonderes.

Ansonsten schau dir doch mal an, was AMD für einen Wert auf DP-Leistung legt, und auch bzgl HSA, ist das nicht umsonst. nViida kann da kompromissloser dran gehen. Die werden eh nicht HSA unterstützen bis auf weiteres.

Kriton
2015-03-22, 13:03:54
Das Lineup unter Fiji wird offenbar wirklich trostlos.

Na ja, in diesem Fall wäre auch Maxwell trostlos.
sagen wir mal es wird nicht so interessant wie Fiji (was ist eigentlich mit Bermuda?).

Quad Percision in Hardware? :freak: WTF?

Also das ist mal ziemlich strange. Warum sollte man in ne GPU Quad-Percision unterstützen? Das ist doch wirklich SEHR selten im Einsatz.

Sehen wir hier die Auswirkungen von HSA? Insbesondere das man halt wirklich beliebigen Code hin und her schieben können will zwischen CPU und GPU?

Wenn ja, dann supi für Compute, aber gegen nVidia wirds im Gameing bereich damit bzgl Effizienz nicht einfacher.

Ich befürchte HSA könnte sich zu einem echten Stolperstein für AMD entwickeln, selbst wenn es vom Markt angenommen wird.

EDIT:
Die Werte sehen ja mal echt strange aus.

Bei dem Einbruch glaube ich aber nicht, dass wir über (eine interessante Anzahl) zusätzliche(r) Transistoren sprechen. Du schreibst später ja selbst, dass es in SW emuliert werden muss. Wo ist dann also das Problem für AMD (abgesehen von den Entwicklungsressourcen für die SW)?

Pick
2015-03-22, 13:31:44
http://www.bitsandchips.it/english/52-english-news/5403-two-r7-3xx-will-sport-pitcairn-gpus-gcn-1-0

fondness
2015-03-22, 13:33:57
Der Cat 15.3 Beta verrät zahlreiche umgelabelte GPUs:

AMD665F.1 = “AMD Radeon R9 360″
AMD6610.2 = “AMD Radeon(TM) R7 350X”
AMD6610.3 = “AMD Radeon(TM) R5 340X”
AMD6611.10 = “AMD Radeon R7 340″
AMD665F.1 = “AMD Radeon R9 360″
AMD6660.1 = “AMD Radeon(TM) R5 M330″
AMD6660.2 = “AMD Radeon(TM) R5 M330″
AMD6660.3 = “AMD Radeon(TM) R5 M330″
AMD6778.8 = “AMD Radeon R5 310″
AMD6811.1 = “AMD Radeon R9 370″

AMD Radeon R9 370: Trinidad (Curacao/Pitcairn)
AMD Radeon R9 360: Tobago (Bonaire)
AMD Radeon R7 350X, R7 340 and R5 340X: Oland
AMD Radeon R5 310: Caicos

Offen ist noch die R9 380 Serie (Hawaii oder Tonga oder was neues?), R9 390 wird natürlich Fiji.
Entweder für Tonga oder für Hawaii ist jedenfalls kein Platz mehr...

http://forums.anandtech.com/showthread.php?t=2425450

Bei den mobilen GPUs sieht es wohl ähnlich aus:

AMD Radeon R9 M375X — Cape Verde XT — 640/40/16
AMD Radeon R9 M375 —- Cape Verde XT — 640/40/16
AMD Radeon R7 M370 —- Oland XT ———- 384/24/8
AMD Radeon R9 M360 —- Cape Verde XT — 640/40/16
AMD Radeon R7 M360 —- Topaz XT ———- 384/24/8
AMD Radeon R7 M350 —- Oland XT ———- 384/24/8
AMD Radeon R7 M340 —- Oland XT ———- 384/24/8
AMD Radeon R7 M340 —- Topaz XT ———- 384/24/8
AMD Radeon R5 M335 —- Oland XT ———- 384/24/8
AMD Radeon R5 M330 —- Oland XT ———- 384/24/8
AMD Radeon R5 M320 —- Oland XT ———- 384/24/8
AMD Radeon R5 M320 —- Oland PRO ——- 320/20/8
AMD Radeon R5 M315 —- Topaz ————– 384/24/8

http://videocardz.com/55289/amd-radeon-rx-300-series-rebrands-spotted-in-drivers

robbitop
2015-03-22, 13:42:02
Wenn R370 schon Pitcairn ist, bleibt ja nur noch Tonga oder Hawaii für R380. Von der Performance würde Hawaii am besten in die Lücke passen. Ich tippe aber auf Tonga @Steriods. 512 Bit 4xx sqmm ist wirklich etwas teuer. Andererseits würde Tonga selbst im Vollausbau mit höheren Taktraten gegen GM204 ziemlich schlecht darstehen.

Am sinnvollsten dafür wäre ein konsolidierter Hawaii -> 256 / 384 Bit SI + Delta Compression. Aber ich glaube nicht, dass AMD für 28 nm extra nochmal einen neuen Chip auflegt außer Fijii.

Skysnake
2015-03-22, 13:45:22
Bei dem Einbruch glaube ich aber nicht, dass wir über (eine interessante Anzahl) zusätzliche(r) Transistoren sprechen. Du schreibst später ja selbst, dass es in SW emuliert werden muss. Wo ist dann also das Problem für AMD (abgesehen von den Entwicklungsressourcen für die SW)?
Wenns rein SOftware ist, dann ist es dennoch was besonderes ;)

Ich meinte mit dem "Hindernis" aber auch eher ganz allgemein dGPUs von AMD die HSA unterstützen im Vergleich zu nVidia GPUs. Man sieht ja an GM200 sehr schön, das man ohne Kompromisse das Leistungspiel doch ziemlich weit treiben kann. Aber halt nur noch ne Gamer Karte ohne DP. Stell dir jetzt aber mal GM200 mit ner 1:4 oder gar 1:2 SP DP Ratio vor. GM200 wäre dann niemals so gut, wie er jetzt ist.

fondness
2015-03-22, 14:04:43
Wenn R370 schon Pitcairn ist, bleibt ja nur noch Tonga oder Hawaii für R380. Von der Performance würde Hawaii am besten in die Lücke passen. Ich tippe aber auf Tonga @Steriods. 512 Bit 4xx sqmm ist wirklich etwas teuer. Andererseits würde Tonga selbst im Vollausbau mit höheren Taktraten gegen GM204 ziemlich schlecht darstehen.

Am sinnvollsten dafür wäre ein konsolidierter Hawaii -> 256 / 384 Bit SI + Delta Compression. Aber ich glaube nicht, dass AMD für 28 nm extra nochmal einen neuen Chip auflegt außer Fijii.

Eine neue GPU aufzulegen kostet Millionen und viele Mannstunden. Das rentiert sich wohl nicht mehr bis 14nm, da nimmt man lieber die etwas höheren pro Stück Kosten des 512-bit SI mit.

Tonga wäre nur ein halber Fiji und IMO viel zu wenig als nächstes Modell. Der Chip war wohl ein reiner Testchip oder irgendwas spezielles für Apple, der schnell wieder verschwinden wird.

Unicous
2015-03-22, 14:15:47
Ich möchte gerne mal anmerken, dass von AMD offiziell die Aussage kommt, dass alle zukünftigen GPUs "Freesync" unterstützen werden. Ich hoffe mal, dass das keine Lüge war und sie zumindest den Displaycontroller angepasst haben (was auf jeden Fall Änderungen am Chip nach sich ziehen würde).:rolleyes:

iZZy18
2015-03-22, 14:40:32
@Unicous

das habe ich mir auch gedacht.
Nachdem in der Präsentation von FreeSync "alle zukünftigen GPUs unterstützen FreeSync" steht nehme ich an dass wir weniger rebrandings sehen (es sei denn das lässt sich anders realisieren ohne einen neuen Chip aufzulegen..)
Pitcairn nochmal zu sehen fände ich aber auch strategisch nicht sinnvoll, der ist wirklich schon zu alt und die Konkurrenz hat nicht geschlafen. Und Tonga bleibt mir immernoch ein großes Rätsel.

EDIT: mir leuchtet im moment grad garnicht ein warum diese Zeilen im Treiber bestätigen sollen, dass Pitcairn drinnen steckt?

Datarecovery09
2015-03-22, 14:41:29
Also... heise will von AMD erfahren haben, dass die R9 370 zwischen 270X und 285 liegen soll (leistungsmäßig, würde auch passen) und 200 Euro kosten soll. Jetzt heißt es auf einmal, dass das dann kein neuer Chip wäre, sondern nur ein aufgebohrter von vor... lange her. Wie bitteschön will AMD denn eine 7870 für 200 Euro verkaufen? Wie will AMD überhaupt noch eine 7870 verkaufen?
Ich bete fast schon dass da was anderes auf uns zukommt als nur eine enttäuschende Sammlung von Rebrands...

mksn7
2015-03-22, 14:45:48
CPUs können ja auch kein Quad Precision. Wird wohl was sein was die Sisoft Leute gebastelt haben.

2phil4u
2015-03-22, 14:55:20
Ich habe irgendwo was von 8 GB HBM gelesen.
Da ich in letzter Zeit nicht mehr immer auf dem neuesten Stand bin, verursacht durch diese zahlreichen Verzoegerungen und Enttaeuschungen weiss ich gar nicht, ob es überhaupt schon ein Produkt mit HBC gibt auf dem Markt.
Es würde mich also wundern, wenn ausgerechnet AMD auf einer Grafikkarte der erste waere, der diesen benutzt.
Wie ich schon sagte, Verzoegerungen, Verzoegerungen und keine Leistungssteigerungen mehr abseits von Grafikkarten, die mich nur noch halb interessieren.
Intel und seine 14 nm, wann sollte der rauskommen und was ist jetzt davon auf dem MArkt ?
Ein paar low performance chips, die zwar echt ein sehr gutes Perf/Watt Verhaeltniss haben, aber das wars dann auch.
14 nm wird jetzt für Handys genutzt (ein sehr rentabler Markt, hier wird soviel mehr Geld ausgegeben) aber ich warte jetzt seit einem Jahr oder so und nichts kam raus, ausser ein paar leicht verbesserten Grafikkarten.

Unicous
2015-03-22, 15:00:47
@2phil4u

Guck dir mal bitte an, welche GPU zuerst GDDR5-RAM genutzt hat. Dann google bitte mal nach Joe Macri. Und dann lies dir bitte mal einen Abriss zu der HBM Geschichte durch.

Der Rest deines Posts ist leider unzusammenhängendes OT-Geplapper.

Nakai
2015-03-22, 15:05:27
| 16CUs 256-Bit 370? | 7850

Internal Memory Bandwidth | 123.90GB/s | 115.33GB/s |
Upload Bandwidth | 11.16GB/s | 5.78GB/s |
Download Bandwidth | 11.69GB/s | 5.54GB |
Single-float GP Compute | 2460.63Mpix/s | 2091.74Mpix/s |
Double-float GP Compute | 205.49Mpix/s | 172.10Mpix/s |
Quad-float GP Compute | 12.12Mpix/s | |


Schnellvergleich mit: http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e3d6e4d3e2c4b68bbb9df89da090b6c5f8c0&l=en

Upload Bandwidth und Download Bandwidth ist doppelt so groß, wie bei Pitcairn? Wie geht das? Was ist das für ein Test?
Wenn das HSA-Spielereien sind, dann wird das kein Rebrand sein. So eine Diskrepanz kann ich mir schwer vorstellen.

M4xw0lf
2015-03-22, 15:16:20
PCIe-Bandbreite stand weiter vorne. Sagt wohl einfach gar nichts aus.

fondness
2015-03-22, 15:17:15
Ich möchte gerne mal anmerken, dass von AMD offiziell die Aussage kommt, dass alle zukünftigen GPUs "Freesync" unterstützen werden. Ich hoffe mal, dass das keine Lüge war und sie zumindest den Displaycontroller angepasst haben (was auf jeden Fall Änderungen am Chip nach sich ziehen würde).:rolleyes:

Eine umgelabelte Karte ist halt keinen zukünftigen Chip sondern einen alten. Nachdem die Treibereinträge eindeutig sind sehe ich wenig Spielraum für einen neuen Chip als R9 370. Die DeviceID passt genau zu Pitcain. Könnte natürlich trotzdem irgendwie extern gelöst werden, aber eher unwahrscheinlich.

Unicous
2015-03-22, 15:18:12
Extern?:confused: Da bin ich aber gespannt auf deine Lösung.

2phil4u
2015-03-22, 15:22:41
GDDR5 ist ja auch damals nur für Grafikkarten in Frage gekommen, HMC koennten aber viele Profiprodukte gut gebrauchen wie manycoresystem usw.
Ich bin ja mal gespannt, ob auf der Karte HBM ist, wenn sie bald rauskommt, ich weiss es nicht.

fondness
2015-03-22, 15:22:41
G80 hatte zB den Displaycontroller extern, wahrscheinlich ist das aber nicht wie ich auch geschrieben habe.

Unicous
2015-03-22, 15:42:33
GDDR5 ist ja auch damals nur für Grafikkarten in Frage gekommen, HMC koennten aber viele Profiprodukte gut gebrauchen wie manycoresystem usw.
Ich bin ja mal gespannt, ob auf der Karte HBM ist, wenn sie bald rauskommt, ich weiss es nicht.

HMC ungleich HBM.

Dass Fiji HBM als Hauptspeicher hat, ist zu 99% beschlossene Sache. dafür gab es viel zu viele konkrete Hinweise in den letzten Monaten (Sisoft Sandra Einträge z.B.). AMD, Sk hynix und andere Firmen arbeiten daran seit Jahren. Genau wie GDDR5 wurde es zu einer JEDEC-Spec (im Gegensatz zu HMC) und Nvidia wird HBM auch nutzen, wartet aber augenscheinlich darauf, dass die Hersteller Chips mit höherer Kapazität herstellen können. Es könnte aber auch sein, dass AMD einen Exklusiv-Vertrag mit Sk hynix hat und somit die ersten Chargen vor allen Anderen bekommt. Dass AMD gute Kontakte zu den Speicher-Herstellern pflegt zeigen auch vereinzelt Chips die auf Nvidia Karten zu finden sind?/waren und AMD-gebrandet sind.


@fondness

Siehste. Das glaubst du doch selber nicht. ;)

AnarchX
2015-03-22, 15:51:44
Hat man wohl ein paar indische Interns an einer A-Sync-Lösung für Pitcairn basteln lassen? :ugly:

Wenn Fiji wie spekuliert, das einzig neue Produkt ist, dann kann man nur hoffen dass er wirklich über GM200 liegt und gleichzeitig der HBM nicht die BOM explodieren lässt oder Lieferengpässe verursacht...

aufkrawall
2015-03-22, 16:03:02
Der dürfte nicht über GM200 liegen, "nur" über der Titan X.
Aber NV können natürlich auch eine WCE bringen, wenn sie wollten. Bessere Effizienz und mehr Performance als Fiji.

Kriton
2015-03-22, 16:07:21
Hat man wohl ein paar indische Interns an einer A-Sync-Lösung für Pitcairn basteln lassen? :ugly:

Wenn Fiji wie spekuliert, das einzig neue Produkt ist, dann kann man nur hoffen dass er wirklich über GM200 liegt und gleichzeitig der HBM nicht die BOM explodieren lässt oder Lieferengpässe verursacht...

Wenn es "nur" der Treiber ist, weswegen sich das Ganze verzögert, wie Ailuros angedeutet hat, dann werden sie wohl genug Chips auf Halde legen können, dass es nicht zu Engpässen kommt.

AnarchX
2015-03-22, 16:12:21
Der dürfte nicht über GM200 liegen, "nur" über der Titan X.
Aber NV können natürlich auch eine WCE bringen, wenn sie wollten. Bessere Effizienz und mehr Performance als Fiji.
Auf dem Papier hat Fiji 33% mehr Rohleistung pro Takt. Wobei natürlich die Frage bleibt, ob man in die Taktregionen von Maxwell vorstoßen kann.

Ein Killer-Feature wäre natürlich, wenn AMD schon den 16-Bit Split von Pascal mitbringt. Da könnte man in gewissen Shadern GM200 im Faktor 2+ übertreffen.

Wenn es "nur" der Treiber ist, weswegen sich das Ganze verzögert, wie Ailuros angedeutet hat, dann werden sie wohl genug Chips auf Halde legen können, dass es nicht zu Engpässen kommt.
Der TSMC-Die ist das eine, der Interposer und HBM der andere Faktor.

Knuddelbearli
2015-03-22, 16:21:32
Wie wird es mit HBM eigentlich, vermutlich, weitergehen? Wird 2016 in 14/16nm dann jeder Chip HBM bekommen oder weiter nur die Top Dogs?

AnarchX
2015-03-22, 16:31:56
Mit der 2nd Gen und den 8Gbit Chips in 4/8er facher Stappelung, bietet sich HBM umso mehr für den Einsatz auch in kleineren Karten an. High-End/Professional hat dann halt >>16GB. Ebenso sollte HBM in den kommenden 2 Jahren wohl auch vermehrt Einsatz in mobilen SoC-Plattformen haben, mit TFLOPs/ braucht man da auch mehr als nur 128-Bit DDRx.

Unicous
2015-03-22, 16:32:22
@Knuddelbearli

Natürlich nicht. HBM ist teuer und es muss erst einmal Zeit vergehen bis die Produktionskosten sich verringern. Allein die Sache mit dem Interposer ist schon ein Kostentreiber.

Außerdem bräuchte man mehr als zwei Hersteller. Aber das könnte am Ende eine Wunschvorstellung bleiben. Micron interessiert sich wohl auch nicht dafür und konzentriert sich ganz auf HMC.

HBM könnte aber durchaus in "HighEnd" APUs Einzug finden und dann im FirePro-Bereich verkauft werden und u.U. auch im Consumer-Bereich, siehe Intel Iris Pro.


@AnarchX

Die BOM steigt dann aber in ungeahnte Höhen und die Marge leidet. AMD kann sich das nicht leisten. Nvidia will sich das nicht leisten.

e: Im mobilen Bereich setzt man auf Wide I/O2.

Finde gerade keine bessere Version vom slide:

http://www.extremetech.com/wp-content/uploads/2015/01/Memory-Bandwidth.jpg

fondness
2015-03-22, 16:41:00
Der dürfte nicht über GM200 liegen, "nur" über der Titan X.
Aber NV können natürlich auch eine WCE bringen, wenn sie wollten. Bessere Effizienz und mehr Performance als Fiji.

Abwarten.

AnarchX
2015-03-22, 16:42:28
@Knuddelbearli

Natürlich nicht. HBM ist teuer und es muss erst einmal Zeit vergehen bis die Produktionskosten sich verringern. Allein die Sache mit dem Interposer ist schon ein Kostentreiber.

Außerdem bräuchte man mehr als zwei Hersteller. Aber das könnte am Ende eine Wunschvorstellung bleiben. Micron interessiert sich wohl auch nicht dafür und konzentriert sich ganz auf HMC.

HBM könnte aber durchaus in "HighEnd" APUs Einzug finden und dann im FirePro-Bereich verkauft werden und u.U. auch im Consumer-Bereich, siehe Intel Iris Pro.


@AnarchX

Die BOM steigt dann aber in ungeahnte Höhen und die Marge leidet. AMD kann sich das nicht leisten. Nvidia will sich das nicht leisten.

e: Im mobilen Bereich setzt man auf Wide I/O2.

Finde gerade keine bessere Version vom slide:

http://www.extremetech.com/wp-content/uploads/2015/01/Memory-Bandwidth.jpg


Natürlich Wide I/O, wobei das dem HBM nicht ganz unähnlich ist: http://www.extremetech.com/computing/197720-beyond-ddr4-understand-the-differences-between-wide-io-hbm-and-hybrid-memory-cube/2

Ein ~200mm² 16nm FinFet Die zusammen mit 4GiB 256GB/s HBM2 auf einem passende Interposer, wäre sicherlich keine verkehrte $299 Lösung für Anfang 2016. Und könnte sich preislich von Fiji ausgehend, durchaus rechnen.

Vielleicht setzt man bei Mobile Low-Cost (20-30W) vielleich gar auf Wide I/O.

aufkrawall
2015-03-22, 16:49:07
Abwarten.
Die AMD-Slides gelten doch weiterhin als relativ authentisch?
Da waren es 60% + gegenüber Hawaii in BF4. Das ist nicht so viel, in etwa Titan X-Level oder gar weniger.
Und jetzt stell dir mal eine WCE mit noch besserer Effizienz vor mit 290W TDP.
Wie sollte Fiji das schlagen können?

fondness
2015-03-22, 16:50:45
Die AMD-Slides gelten doch weiterhin als relativ authentisch?
Da waren es 60% + gegenüber Hawaii in BF4. Das ist nicht so viel, in etwa Titan X-Level oder gar weniger.
Und jetzt stell dir mal eine WCE mit noch besserer Effizienz vor mit 290W TDP.
Wie sollte Fiji das schlagen können?

Selbst wenn die Slides echt waren, wer sagt das der Slide die WCE gezeigt hat?

HOT
2015-03-22, 16:52:15
Was bezüglich der 370 noch weniger Sinn macht: die 270 ist Curacau im Vollausbau, die 370 jetzt plötzlich nicht mehr? Was soll das denn...

Unicous
2015-03-22, 16:52:21
@AnarchX

Natürlich sind sie sich ähnlich, aber dennoch so unterschiedlich, dass sie für verschiedene Bedürfnisse konzipiert wurden.

Bei Wide I/O (2) wird nämlich 3D Stacking sozusagen vorausgesetzt. Deswegen ist die Spec im Vergleich zu HBM halbiert (z.T. noch weniger) die Versorgungsspannung ist geringer, es gibt keinen Logic Die etc.

http://pc.watch.impress.co.jp/img/pcw/docs/646/233/04.jpg

Also alles auf geringe Leistungsaufnahme, Temperaturen und Kosten getrimmt.

3D Stacking ist nämlich eigentlich deutlich billiger als Interposer Stacking (nur eben auch noch schwieriger zu produzieren).

Duplex
2015-03-22, 16:53:29
40-50% mehr Performance als Hawaii sollte kein Problem sein für die 390x.
Mit 8GB HBM wird man bei 550-600$ Nvidia abziehen.

AnarchX
2015-03-22, 16:56:02
Das ist wenn dann Pitcairn 2.0, da wird sicher viel geredet, weil der Chip die gleiche Spec hat (20CUs, 256Bit). Aber Pitcairn kann kein Freesync und vieles andere nicht. Zudem ist es unmöglich, dass ein 16CU-Pitcairn mit max 130W über einer 270(X) angesiedelt sein soll.
Was noch weniger Sinn macht: die 270 ist Curacau im Vollausbau, die 370 jetzt plötzlich nicht mehr? Neeee....

Der Fund bei SiSoft hat erstmal nicht viel mit dem AMD Treibereintrag zu tun.

Und bei der 285 hat man auch schon gesehen, dass 285 nicht unbedingt >280X ist. Mit R9 370 ist das vielleicht ähnlich.

Schlussendlich könnte hier auch die Boardpartner Druck gemacht haben, dass man neue 300er Karten braucht und AMD musste halt liefern was verfügbar ist.

Duplex
2015-03-22, 16:57:57
Das umlabbeln bedeutet das eine bessere Architektur noch nicht fertig ist, der Top Dog kann wenigstens mit 4096 Shader & 8GB HBM gegenüber Hawaii glänzen.

Datarecovery09
2015-03-22, 17:00:54
Dann hätten sie's auch nicht delayen müssen sondern hätten gleich aus dem Quark kommen können. Wäre vielleicht auch besser gewesen.

HOT
2015-03-22, 17:01:19
Möglich. Von 370X und 360X ist ja nix zu sehen. Dann sind das quasi OEM 300-Chips.

mboeller
2015-03-22, 17:02:21
Ein Killer-Feature wäre natürlich, wenn AMD schon den 16-Bit Split von Pascal mitbringt. Da könnte man in gewissen Shadern GM200 im Faktor 2+ übertreffen.


Kann doch schon Tonga. Warum sollte also Fiji das nicht können?

Unicous
2015-03-22, 17:05:42
Das Umlabeln kann auch bedeuten, dass AMD Schindluder bei den OEM-Produkten treibt.

Die Einträge könnten auch für "3x0 OEM" stehen. Da sich AMD auch von APU-Seite kannibalisiert und man gerne Dual Graphics Zeugs verkauft, könnte man das mit Godavari weitertreiben. Aber das würde natürlich nur bis hoch zu 350 Sinn machen, bei Kaveri unterstützt hat man ja nur bis zur R7 250.

Duplex
2015-03-22, 17:09:38
Hätte AMD ein besseres GCN, z.b. 30% effizienter, dann würden die nichtmal 1 Modell umlabbeln.
Die 390x soll mit 4096 Shader 550-600 mm² ausfallen, alles andere ist fast nur umlabbeln.

HOT
2015-03-22, 17:10:04
Ich befürchte folgendes:

360 = Bonaire Pro
370 = Pitcairn Pro
370X = Tahiti Pro (würde zu Unicous Fund passen ein paar Seiten vorher)
380 = Tonga Pro (>=1050MHz mit Freesync)
380X = Hawaii Pro (mit Freesync)

und ab zur Computex gibts ne 400 Serie. Fiji wär dann ne 490(X).

Duplex
2015-03-22, 17:10:54
Vor 14nm kommt kein neues GCN, also sowas wie Maxwell mit 30-50% mehr Effizienz.

HOT
2015-03-22, 17:11:30
Ich denke doch, dass da was in 28nm noch kommt. Für die kleineren Serien ist 14nm schlicht zu teuer. Und ich denke auch, dass AMD den Wechsel zu GloFo wahr machen wird. Man braucht ja noch 28nm-GPUs bis 2018 hinein.

Duplex
2015-03-22, 17:12:17
Dann müsste aber schon die 390x viel effizienter pro Shader als Hawaii sein.

AnarchX
2015-03-22, 17:13:01
Kann doch schon Tonga. Warum sollte also Fiji das nicht können?
Tonga hatte durch nur ein dedizierten 16-Bit Modus zum Stromsparen, der Durchsatz bleibt bei dem von 32-Bit: http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/2

Pascal oder Tegra X1 16-Bit Ausführung bedeutet doppelter Durchsatz. Wenn es AMD mit Fiji könnte - 16 TFLOPs.

fondness
2015-03-22, 17:15:18
Kein PC-Spiel verwendet FP16 Instuctions.

Duplex
2015-03-22, 17:16:32
@hot
Spätestens 2016 kommt die R400 Serie komplett in 14 oder 16nm, 28nm hat dann ausgedient.

2016
16nm TSMC
14nm Samsung

AnarchX
2015-03-22, 17:16:50
Kein PC-Spiel verwendet FP16 Instuctions.

Da kann der Treiber nachhelfen, damit hat man ja bei beiden Herstellern seit über einem Jahrzehnt Erfahrung. ;D

Unicous
2015-03-22, 17:17:22
Ich finde es einfach nur geil wie manche Menschen ihre "Spekulationen" in Absoluten verbreiten. Keinerlei Eingrenzung, keine Relativierung.

Könnte, vielleicht, unter Umständen, etc. gibt es in ihrem Sprachgebrauch nicht.:conf:

HarryHirsch
2015-03-22, 17:19:26
wenn du dir den avatar ansiehst weißt du auch warum.

HOT
2015-03-22, 17:21:21
@hot
Spätestens 2016 kommt die R400 Serie komplett in 14 oder 16nm, 28nm hat dann ausgedient.

2016
16nm TSMC
14nm Samsung
Quatsch. Wenn sich ein Chip bis 300mm² (vielleicht sogar darüber) gut in 28nm machen lässt, wird man dabei bleiben. Ein Oland in 14nm wär totaler Unsinn, nur irre teuer und für den Einsatzzweck mit Kanonen auf Spatzen geschossen. Caicos ist noch 40nm, rat mal warum man den immernoch einsetzt.
FinFET und HBM kann man nur für die x90er und x80er-Varianten erwarten, alles andere bleibt 28nm mit GDDR5.

Nakai
2015-03-22, 17:27:40
Tonga hatte durch nur ein dedizierten 16-Bit Modus zum Stromsparen, der Durchsatz bleibt bei dem von 32-Bit: http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/2

Pascal oder Tegra X1 16-Bit Ausführung bedeutet doppelter Durchsatz. Wenn es AMD mit Fiji könnte - 16 TFLOPs.

Wenn Fiji GCN1.3 ist...ansonsten eher nicht.

Duplex
2015-03-22, 17:32:00
@hot
Für 14nm brauchste nichtmal HBM einsetzen.

HOT
2015-03-22, 17:33:04
@hot
Für 14nm brauchste nichtmal HBM einsetzen.
Hab ich auch nicht gemeint. Aber 14nm macht wie HBM den Chip teuer. Das lohnt nicht auf Karten die für 150€ weggehen.


Ich würd sagen, die Rx 300 Serie ist sowas ähnliches wie die HD8000 Serie. Die werden im April silent gelauncht und sind nur für OEMs, die echte neue Serie kommt dann mit neuen Chips im Sommer (inclusive Fiji mit 8GB).

Botcruscher
2015-03-22, 17:38:57
@hot
Spätestens 2016 kommt die R400 Serie komplett in 14 oder 16nm, 28nm hat dann ausgedient.

2016
16nm TSMC
14nm Samsung

Spätestens am 31. Dezember. Läuft ja wie üblich alles besser als erwartet.

mboeller
2015-03-22, 18:34:52
Tonga hatte durch nur ein dedizierten 16-Bit Modus zum Stromsparen, der Durchsatz bleibt bei dem von 32-Bit: http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/2

Pascal oder Tegra X1 16-Bit Ausführung bedeutet doppelter Durchsatz. Wenn es AMD mit Fiji könnte - 16 TFLOPs.

Danke!

Das hatte ich anders in Erinnerung.

y33H@
2015-03-22, 18:48:08
Kein PC-Spiel verwendet FP16 Instuctions.Vll Vorarbeit für Smartphone-/Tablet-GPUs, auch wenn mir Mediatek sagte, an der Zusammenarbeit sei nichts dran.

AnarchX
2015-03-22, 20:08:48
Laut VR-Zone ist die komplette 300er Serie auf Juni / Computex verschoben:
http://chinese.vr-zone.com/146560/amd-radeon-new-gpu-include-fiji-grenada-antigua-trinidad-and-tobago-for-computex-2015-03232015/
Tonga soll in Antigua umbenannt werden.

Dazu noch ein Abschnitt über die R9 390X mit 1,2x GTX 980 zum attraktiven Preis. :|

Unicous
2015-03-22, 20:12:36
Dann behaupte ich mal, dass das Zeugs über das wir die ganze Zeit reden nichts als OEM-Schrott ist. Macht auch Sinn, denn die typische Season für den OEM Quatsch ist Q1/Q2.

M4xw0lf
2015-03-22, 20:20:18
Dazu noch ein Abschnitt über die R9 390X mit 1,2x GTX 980 zum attraktiven Preis. :|
Da die 700$+ relativ sicher sind, ist das wohl Käse.

Unicous
2015-03-22, 20:24:45
TPU bzw. die GPU-Z Datenbank erzählt ja gerne Quark, aber es gibt bereits einen "R9 360 OEM" Eintrag und "Tobago Pro" als Chip-Name. Ein aufgeplusterter Bonaire.

http://www.techpowerup.com/gpudb/2661/radeon-r9-360-oem.html

Edit: Ich sehe gerade. Die Einträge wurde wohl alle gestern hinzugefügt.

M4xw0lf
2015-03-22, 20:26:43
Tobago XT ist dann Bonaire mit mehr Takt? Der Pro ist ja schon ein voller Bonaire mit 896 SPs.

maximus_hertus
2015-03-22, 20:46:15
R9 390X WCE, max Performance (> Titan X), 750-800$ (ca. 900 Euro)
R9 390X Luftkühlung, weniger Takt, relativ leise, "nur" 4GB, +20% 980, 500$ (ca. 550-600 Euro)

Macht das Sinn?

Hübie
2015-03-22, 20:47:58
Nä. 4GB macht keinen Sinn mehr X-D Du bist doch beim Käsekonig angestellt oder? Dann nerv doch die Reseller mal kräftig. Woher bezieht ihr das? Rotterdam? Okay darfst du eh nicht sagen.

Ich hab ja leider AMD verpasst. :(

R.I.P.
2015-03-22, 20:49:39
http://www.bitsandchips.it/9-hardware/5401-due-radeon-r7-3xx-avranno-una-gpu-gcn-1-0-probabilmente

Könnt ihr gerne translaten....bin gerade am Kotzen. Sollte das wirklich stimmen, dann wird Pitcairn zum 2. Mal ungelabelt....

Hübie
2015-03-22, 20:56:12
Wieso interessieren sich soviel Leute für solche Gurken? Man jede PS4 is da besser. Entweder Hawaii+ oder gar nicht :naughty:

Datarecovery09
2015-03-22, 21:22:25
Gibt halt Leute, die ganz gerne eine Grafikkarte für 200-250 Euro hätten. Arme Studenten wie mich zum Beispiel, die sich dieses Geld vom Brot und der Wurst absparen, sozusagen.^^
Da ist es eben ziemlich schlecht, wenn erst ewig lange nichts kommt und dann so etwas.
Ich würde mir sehr gerne eine Grafikkarte kaufen, wenn da eine in meinem Anforderungsprofil existieren würde: Leistungsmäßig irgendwo zwischen 280X und 290, halbwegs effizient und mit DX12-Unterstützung; das ganze bitte für <250 Euro.
Ich bin ziemlich sicher, dass ein voller Tonga-Chip aka 370X ziemlich genau das leisten könnte/würde - wenn es ihn denn geben würde. Momentan herrscht in genau diesem Bereich aber eine völlig sinnfreie Ebbe vor, speziell in Anbetracht der Spieletitel, die dieses Jahr herauskommen - GTA, Witcher 3... da überlegen unter Garantie viele mal wieder aufzurüsten. Umso blöder wenn keine entsprechende Ware am Markt ist.
Ich bin jetzt schon am überlegen, auf Ebay was Gebrauchtes zu schießen, obwohl ich das bei Hardware lieber vermeiden würde.

Godmode
2015-03-22, 21:33:24
Wieso interessieren sich soviel Leute für solche Gurken? Man jede PS4 is da besser. Entweder Hawaii+ oder gar nicht :naughty:

Weil leider nicht jeder den Luxus hat sich so teures Spielzeug kaufen zu können. Ich finde daher solche Sammelthreads immer etwas nervig, andererseits hätten wir sonst 4-5 Threads nur für eine Generation von GPUs.

R9 390X WCE, max Performance (> Titan X), 750-800$ (ca. 900 Euro)
R9 390X Luftkühlung, weniger Takt, relativ leise, "nur" 4GB, +20% 980, 500$ (ca. 550-600 Euro)

Macht das Sinn?

Interessant wird, ob die WCE auch noch soviel OCing Spielraum hat, wie der GM200? Ich kann das Ding überhaupt nicht einschätzen, aber die Wakü ist für mich erstmal ein positives Merkmal. Hier will geklotzt werden und nicht nur gekleckert, wie bei der Titan X. Ich hoffe sie klotzen richtig und lassen auch mehr als 300W Leistungsaufnahme zu.

Schnoesel
2015-03-22, 21:40:31
War nicht von 2 Versionen die Rede? Also im Bezug auf die Stromaufnahme 1x6 Pin/1x 8 Pin und 2x 8 Pin?!

Dann will ich auch hoffen sie klotzen richtig!

Godmode
2015-03-22, 21:43:28
War nicht von 2 Versionen die Rede? Also im Bezug auf die Stromaufnahme 1x6 Pin/1x 8 Pin und 2x 8 Pin?!

Dann will ich auch hoffen sie klotzen richtig!

2x8 Pin wäre schon cool. Andererseits sieht man bei der Titan X schon, dass auch mit 8+6-Pin über 300 Watt drinnen sind, ohne die PCIe Kabel zu verschmoren.

Knuddelbearli
2015-03-22, 21:49:09
na das sah man schon viel besser an der 295X2 ^^

HOT
2015-03-22, 23:37:38
TPU bzw. die GPU-Z Datenbank erzählt ja gerne Quark, aber es gibt bereits einen "R9 360 OEM" Eintrag und "Tobago Pro" als Chip-Name. Ein aufgeplusterter Bonaire.

http://www.techpowerup.com/gpudb/2661/radeon-r9-360-oem.html

Edit: Ich sehe gerade. Die Einträge wurde wohl alle gestern hinzugefügt.
Das würde auch gut passen. Wenn die komplette "echte" 300 Serie (die kann nach dem OEM-Krempel nicht mehr so heißen, das ist jetzt genauso verbrannt wie die Geforce 800-Serie, deshalb heißen die Dinger ja Geforce900) im Juni kommt, dann hätte man die ganzen TSMC-Chips trotzdem noch auf dem Markt, alle als Pro-Varianten. Die neue Retrail-Serie könnte dann tatsächlich komplett von GloFo kommen, das wär jedenfalls ein klasse Übergang. Auf jeden Fall sind die Codenamen jetzt alle bekannt (ich nenn die vorsorglich schon mal 400er):

R9 495X2 = Bermuda (PI)
R9 490(X) = Fiji 8GB (PI)
R9 480(X) = Grenada (Hawaii-Refresh) (CI)
R9 470(X) = Antigua (Tonga-Refresh) (PI)
R9 460(X) = Trinidad (Pitcairn-Refresh) (CI)
R7 450(X) = Tobago (Bonaire Refresh) (CI)
R7 440(X) = Samoa (Oland-Refresh) (PI)

PI = Pirate Islands
CI = Caribbean Islands

Wenn man die alle einfach nur umgelabelt hätte, wär die Serie schon längst draußen, dann gabe es keinen Grund mehr auf Juni zu warten, selbst wenn sich Fiji 8GB bis Juni verzögert (wegen der 8GB).

Datarecovery09
2015-03-22, 23:50:30
Wenn man die alle einfach nur umgelabelt hätte, wär die Serie schon längst draußen, dann gabe es keinen Grund mehr auf Juni zu warten, selbst wenn sich Fiji 8GB bis Juni verzögert (wegen der 8GB).

Dähä? Das wären dann also doch neue (refreshte) Chips (im Juni). Als 300er... oder 400er?
Ich blick nicht mehr durch.

Leonidas
2015-03-23, 04:49:08
Ich hoff(t)e immer noch drauf, daß AMD mit Trinidad mal was neues im Pitcairn-Segment bringt. Meinetwegen die 1280SE/256bit von Pitcairn, aber dafür GCN 1.2+ mit allem modernen Schnickschnack und vor allem verbesserter Fertigung, so daß die Powereffizienz ansteigt. AMD braucht mal wieder eine schlagkräftige und moderne Mainstream-Lösung.



Ich möchte gerne mal anmerken, dass von AMD offiziell die Aussage kommt, dass alle zukünftigen GPUs "Freesync" unterstützen werden.

Die Aussage zum FreeSync-Ankündigung war ja auch, daß es alle können. Später erst musste man eingesehen, daß es GCN 1.0 nur im Windows-Betrieb kann.

Ailuros
2015-03-23, 06:40:22
Laut VR-Zone ist die komplette 300er Serie auf Juni / Computex verschoben:
http://chinese.vr-zone.com/146560/amd-radeon-new-gpu-include-fiji-grenada-antigua-trinidad-and-tobago-for-computex-2015-03232015/
Tonga soll in Antigua umbenannt werden.

Dazu noch ein Abschnitt über die R9 390X mit 1,2x GTX 980 zum attraktiven Preis. :|

Das letzte ist aber nicht die WasserKlossetEdition :P

Da die 700$+ relativ sicher sind, ist das wohl Käse.

Hydraulik ist teuer :D

Dawn on Titan
2015-03-23, 06:54:54
Diese Gerüchte sind ziemlich unschön. Rebrands und ein Fiji, der wohl die Waü braucht um an GM200 zu kratzen. Und 20% schneller als GM204 mit HBM und größerem Chip ist finanziell auch ungeil. Da kann NV leider locker die TDP auf 225W setzen und ne GM204 mit 1280 Base + 1360 Boost + 8GB gegen setzen.

Hoffen wir, dass das NV FUD ist.

Skysnake
2015-03-23, 07:00:09
Nä. 4GB macht keinen Sinn mehr X-D Du bist doch beim Käsekonig angestellt oder? Dann nerv doch die Reseller mal kräftig. Woher bezieht ihr das? Rotterdam? Okay darfst du eh nicht sagen.

Ich hab ja leider AMD verpasst. :(
Ach mach dir nichts draus. Die erwischst man auch von Montag-Donnerstag fast nicht. Hatte selbt nur ma mit denen zu tun, als die Gerade bei nem Hersteller aus ner Besprechung raus sind, und mir dann vorgestellt wurden :freak:

Ansonsten auf Achse und in den Besprechungsräumen. Also ohne Termin kannste das total knicken. Bei nVidia genau das Gleiche. Sofern du halt nicht nur irgend nen blabla Scheis von ner Messehostess am Stand hören willst, die nen halben Tag ein gebrieft wurde. -.-

Ailuros
2015-03-23, 07:09:12
Diese Gerüchte sind ziemlich unschön. Rebrands und ein Fiji, der wohl die Waü braucht um an GM200 zu kratzen.

Bleibt abzusehen ob die Realitaet am Ende doch das 8.Wunder sein koennte. Irgendwo, irgendwann sollte es in allermans Schaedel passen muessen dass unter dem gleichen Prozess man hoechstens etwas groessere Packdichte haben kann aber keine pixie-dust Transistoren.

Und 20% schneller als GM204 mit HBM und größerem Chip ist finanziell auch ungeil. Da kann NV leider locker die TDP auf 225W setzen und ne GM204 mit 1280 Base + 1360 Boost + 8GB gegen setzen.

Den Gedanken hat NV sicher auch schon gemacht, denn es schwirrt schon im Hintergrund rum dass sie noch ueber eine schnellere 204 SKU nachdenken. Wenn es keinen GM200 salvage part geben sollte und NV kann das Zeug fuer Quadros verscherpeln geht es noch halbwegs, sonst ist es dann schon ziemlich absurd.

Hoffen wir, dass das NV FUD ist.

yeahrightsureok :rolleyes:

horn 12
2015-03-23, 07:27:12
Falls überhaupt, R9 390 also mit "mageren" GTX 980 plus 20% Mehrleistung
Dan lohnt es für wenige R9 290(X) 1100+ Mhz Besitzer die Karte zu wechseln,- und man sollte gar besser auf den Neuen Fertigungsprozess 2016 warten
Schneller und vielleicht! gar um Einiges Billiger.

Thomas Gräf
2015-03-23, 10:40:44
In diesem Leben wird nichts mehr billiger. Mit viel Glück könnte es aber mal wieder etwas preiswertes geben... ;)

Blediator16
2015-03-23, 11:14:31
So späte rebrands machen überhaupt keinen Sinn.

Dural
2015-03-23, 11:47:53
Ich sage es schon seit Wochen / Monate.

Gerade Tonga ist Technisch ja ziemlich Neu, diese GPU nicht weiter zu verwenden wäre Dumm.

Und vom "Wunder" Fiji sollte man sich langsam aber sicher auch verabschieden. Mit den realistischen 850MHz GPU Takt unter LuKü sind wir wenn alles gut geht rechnerisch 25% vor 290X, + Optimierungen in der Architektur ergibt XY ;)

Dawn on Titan
2015-03-23, 12:33:10
So späte rebrands machen überhaupt keinen Sinn.

Launchen sie die Rebrands vor dem neuen Chip, versaut das evtl. das Image der "neuen" Serie. Launchen sie diese zusammen überstrahlt der neue Chip evtl. die anderen. Wobei wahrscheinlich die Wahrheit in der Mitte liegt und die Rebrands sicher VSR und FreeSync können werden.

Arcanoxer
2015-03-23, 13:07:37
Wobei wahrscheinlich die Wahrheit in der Mitte liegt und die Rebrands sicher VSR und FreeSync können werden.Mit VSR und FreeSync werden sich sicherlich alle auf die "neuen" Karten stürzen. :freak:

derguru
2015-03-23, 13:17:02
Und vom "Wunder" Fiji sollte man sich langsam aber sicher auch verabschieden. Mit den realistischen 850MHz GPU Takt unter LuKü sind wir wenn alles gut geht rechnerisch 25% vor 290X, + Optimierungen in der Architektur ergibt XY ;)

amd würde niemals das doppelt verlangen für +25%, das ist nv sache.:biggrin:

HOT
2015-03-23, 13:30:34
Dähä? Das wären dann also doch neue (refreshte) Chips (im Juni). Als 300er... oder 400er?
Ich blick nicht mehr durch.
Wenn die jetzigen Rebrands 300 heißen, wird man diesen Namen nicht für die "echten" neuen Chips nehmen, das ist der Hintergrund der Annahme.


Mal ehrlich, wenn eine 370 eine 7850 mit etwas mehr Takt ist, dann ist das definitiv nicht die Serie, die mit Fiji zusammen kommt, das macht in keinster weise Sinn.
Mal logisch gedacht:

R9 270 > R9 370
Dann kloppen sich Tahiti, Tonga und Hawaii um die 380 oder was? Sry, ich würd die 300-Serie einfach als gestorben ansehen. Reine OEM-Scheisse, die mit den echten neuen Chips nichts am Hut haben.
Die 370 hat auch keinen Trindad, genausowenig wie die 360 einen Tobago hat. Das bleiben Curacau und Bonaire. Dass es diese Rebrands gibt ist mMn den OEMs geschuldet, die wenig Chancen für den Absatz der 200 Serie noch sehen - oder AMD schiebt das noch mal ein, weil man mehr Chips als geplant produzieren musste, die 260 und 270-Serien sind ja quasi leergelaufen, weis der Geier warum man das gemacht hat. Es gibt da nen Haufen plausibler Gründe. Das hat mMn nix mit dem im Sommer erscheinenden Lineup zu tun, zumal jetzt auch noch der Codename Antigua aufgetaucht ist, der ja auch noch irgendwo "untergracht" werden muss im Nummernschema. Es spricht einfach alles dagegen, dass die 300er Rebrands zusammen mit Fiji als Headliner erscheinen sollen, dann wären die Rebrands erheblich sinnvoller benannt gewesen.

Wenn "Trinidad" ein R7 360 wär, wär ich auch ins Grübeln gekommen aber so nicht, so ist für mich der Fall klar.

Ailuros
2015-03-23, 13:31:06
amd würde niemals das doppelt verlangen für +25%, das ist nv sache.:biggrin:

Dann war es wohl ein anderes AMD dass vor Jahren einen FX53 z.B. um fast einen Tausender verkaufte; wenn man weiss dass es sich auch in anstaendigen Mengen verkaufen wird dann macht es jeder IHV und jede Firma.

Godmode
2015-03-23, 13:34:16
Dann war es wohl ein anderes AMD dass vor Jahren einen FX53 z.B. um fast einen Tausender verkaufte; wenn man weiss dass es sich auch in anstaendigen Mengen verkaufen wird dann macht es jeder IHV und jede Firma.

Einige glauben immer noch, dass der Underdog zu den guten gehört. ^^
Hätte AMD Konkurrenzfähige CPUs, würden sie auch wieder 1000 Euro verlangen können.

derguru
2015-03-23, 13:38:17
bezogen auf gpus natürlich, sollte in dem thread klar sein.:wink:

+25% bei einer cpu wäre ja ein traum^^

Ailuros
2015-03-23, 13:48:47
bezogen auf gpus natürlich, sollte in dem thread klar sein.:wink:

+25% bei einer cpu wäre ja ein traum^^

Wann war es denn das letzte Mal dass AMD oder sogar ATI eine GPU hatte die sie in anstaendigen Mengen bei obszoenen Preisen haette verkaufen koennen? Wenn man nichts hat dass man marketing-technisch ausnutzen kann, wird man wohl nicht so bloed sein zu solchen Turnereien zu greifen um darauf am Ende sitzen zu bleiben.

Loeschzwerg
2015-03-23, 14:00:48
Wenn die jetzigen Rebrands 300 heißen, wird man diesen Namen nicht für die "echten" neuen Chips nehmen, das ist der Hintergrund der Annahme.


Mal ehrlich, wenn eine 370 eine 7850 mit etwas mehr Takt ist, dann ist das definitiv nicht die Serie, die mit Fiji zusammen kommt, das macht in keinster weise Sinn.


Also wenn Fiji nicht als 300er Serie kommt, was bedeutet dies dann für die Leak Folien?
http://www.3dcenter.org/news/amd-praesentation-zur-radeon-r9-390x-geleakt

w0mbat
2015-03-23, 14:19:52
Also wenn Fiji nicht als 300er Serie kommt, was bedeutet dies dann für die Leak Folien?
http://www.3dcenter.org/news/amd-praesentation-zur-radeon-r9-390x-geleakt

[x] Fake.

Dural
2015-03-23, 14:24:02
Die Folien wurden durch einen Grafikkarten Hersteller bestätigt, zudem die angaben in den Treiber sicher nicht "Fake" sind.


amd würde niemals das doppelt verlangen für +25%, das ist nv sache.:biggrin:

Ich sprach von der LuKü Version, und die wird Garantiert nicht 700.- + kosten.

Zudem 8GB HBM sicher auch nicht ganz billig sind, bis jetzt ist ja noch nicht sicher ob die Karte von Anfang an mit 8GB kommt. Eine 4GB mit LuKü sehe ich aktuell mehr bei 500-600.-

Käsetoast
2015-03-23, 14:31:56
Die Folien wurden durch einen Grafikkarten Hersteller bestätigt, zudem die angaben in den Treiber sicher nicht "Fake" sind.
Es bleibt halt der Strohhalm, dass die 300er Serie eine OEM-Serie wird. Im Hinblick auf den Abverkauf der restlichen Karten bzw. der "alten" Chips, die demnächst noch gefertigt werden (müssen), vielleicht auch keine schlechte Idee...

Loeschzwerg
2015-03-23, 14:40:14
Die Folien wurden durch einen Grafikkarten Hersteller bestätigt, zudem die angaben in den Treiber sicher nicht "Fake" sind.


Der Treiber sagt aber nix über Fiji.

Bezüglich den Folien will ich jetzt mal Golem glauben, aber je nachdem Wie man da nachgefragt hat, kann es da schnell zu einem Missverständnis kommen.

Ist ja auch egal. Folie und "OEM Rebrand only" passen nicht zusammen.

Blediator16
2015-03-23, 15:05:11
Rebrand kann sich AMD im wahrsten Sinne des Wortes überhaupt nicht leisten. Auch wenn der Top Dog schneller sein sollte, das wird bei dem einen mal absolut niemanden jucken. Gleichzeitig wird AMD in sämtlichen Foren in der Luft zerissen und dies wird dann nach "Außen" getragen.

w0mbat
2015-03-23, 15:06:28
Die Folien wurden durch einen Grafikkarten Hersteller bestätigt, zudem die angaben in den Treiber sicher nicht "Fake"

Die Folien sind ganz sicher fake. Ich hab mir das auch bestätigen lassen und zwar von deutlich besseren Quellen.

Was jetzt?

Sunrise
2015-03-23, 15:09:06
Mal eine Hochrechnung anhand der Werte bei Anandtech vom Titan X-Review, die auch mit recht aktuellen Treibern auf beiden Seiten getestet haben:

http://abload.de/img/imageqqslc.jpg

Und das ist konservativ gerechnet, bis Juni sollte sich da einiges tun.

Ich gehe da zwar nur rein von den TFLOPS aus, die Ergebnisse sind aber zumindest bei NV sehr exakt das, was Anandtech tatsächlich in Spielen gemessen hat.

M4xw0lf
2015-03-23, 15:18:06
Die Folien sind ganz sicher fake. Ich hab mir das auch bestätigen lassen und zwar von deutlich besseren Quellen.

Was jetzt?
Und hast du dann auch ein paar echte Infos?

Unicous
2015-03-23, 15:18:52
Die Folien sind ganz sicher fake. Ich hab mir das auch bestätigen lassen und zwar von deutlich besseren Quellen.

Was jetzt?

"Deutlich bessere Quellen".:rolleyes:

Generell sollte man alles und jeden anzweifeln, und wenn dir Onkel Fritz was vom großen weißen Hai in der Ostssee erzählt, muss das nicht unbedingt stimmen, auch wenn du ihm Glauben schenkst.

Und nur weil du vermeintlich bessere Quellen hast, musst du das jetzt nicht bei jedem zweiten Kommentar erwähnen.

Wenn die slides fake sind, hat man erstaunlich viel Arbeit investiert und iirc wäre das der erste Fall wo man zig Folien so professionell gefälscht hat. Alles möglich, aber genauso möglich ist auch, dass deine Quelle dir eine Kotstulle als Nutellabrot verkauft hat.

Am Ende ist deine Quelle noch horn28, oder gar horn 15?


Meine Quellen haben mir übrigens bestätigt, dass Wasser in der Tat sehr, sehr nass ist.

robbitop
2015-03-23, 15:20:25
Naja - die Frage ist, ob die Differenz an Ausführungseinheiten 1:1 durchschlägt. Das ist ja (insbesondere bei AMD) selten so. Wenn AMD auch das Front-End + ROPs + Caches mitskaliert, könnte das aber sein.

Im Endergebnis werden sich beide wohl in Benchmarks nicht viel nehmen. Klar - zaubern können beide nicht.
Die Frage ist dann nur noch, wieviel Leistungsaufnahme bei Fijii performancenormiert zu GM200 hat. Ich hoffe, dass man da auch in den 250 W Bereich kommt und auch gute Kühler parat hat. Ansonsten hat der Launch ggf. wieder ein ähnliches "Geschmäckle" wie das von Hawaii. (nicht gut für den Ruf und damit wieder schlechter im Verkauf)

Godmode
2015-03-23, 15:23:03
Naja - die Frage ist, ob die Differenz an Ausführungseinheiten 1:1 durchschlägt. Das ist ja (insbesondere bei AMD) selten so. Wenn AMD auch das Front-End + ROPs + Caches mitskaliert, könnte das aber sein.

Im Endergebnis werden sich beide wohl in Benchmarks nicht viel nehmen. Klar - zaubern können beide nicht.
Die Frage ist dann nur noch, wieviel Leistungsaufnahme bei Fijii performancenormiert zu GM200 hat. Ich hoffe, dass man da auch in den 250 W Bereich kommt und auch gute Kühler parat hat. Ansonsten hat der Launch ggf. wieder ein ähnliches "Geschmäckle" wie das von Hawaii. (nicht gut für den Ruf und damit wieder schlechter im Verkauf)

Ich könnte mir das ca. so vorstellen: Die normale 390X etwa auf Titan X Niveau. Die 390 WCE dann schneller als die Titan X. Wenn man die Titan X dann auch mit Wakü ausstattet, könnte wieder ein Gleichstand herrschen.

Dural
2015-03-23, 15:27:17
Quellen?

Heise / Grafikkarten Hersteller

oder

Forum User der schon mehrfach mit "verlässlichen" Info aufgefallen ist.


Die Wahl überlasse ich jedem selber ;)

Unicous
2015-03-23, 15:31:10
Das stimmt allerdings. w0mbat ist im Vergleich zu dir immer sehr positiv aufgefallen.

Marc Sauter(y33h@) von Golem hat sich das übrigens bestätigen lassen (bzw. steht es in einem von ihm geschriebenen Artikel), heise hat nur die Infos zu den Preisen rausgehauen.

Sunrise
2015-03-23, 15:35:37
Naja - die Frage ist, ob die Differenz an Ausführungseinheiten 1:1 durchschlägt.
Die Titan X liefert genau das, was man rein rechnerisch erwarten konnte, die gebildete Differenz von GM204 und GM200 entspricht fast exakt den Werten, die Anandtech tatsächlich beim Betrieb gemessen hat.

Wenn Fiji eine verbesserte 290X ist (Tonga+X) und du skalierst das nach oben und hast auch den Platz (HBM, Optimierungspotential, etc.), dann sollte das schon hinkommen.

Bandbreite ist auch mehr als genug da, stellt sich in der Tat NUR die Frage, nach dem Verbrauch. Und auch das ist kein Problem, wenn der Kühler passt.

robbitop
2015-03-23, 15:43:47
NVs Karten skalieren seit Fermi hervorragend mit Steigerung der Einheiten, weil pro GPC (?) auch immer das Front-End brav mitskaliert wird.

Die Frage ist eben, wie es bei Fijii sein wird. Selbst Hawaii skalierte außerhalb von 4K nicht ganz 1:1 zu Tahiti und zu Pitcairn und Cape Verde sowieso nicht. Pitcairn und Cape Verde waren ja pro Einheit wirklich gute GPUs.

Mandalore
2015-03-23, 15:53:39
Das stimmt allerdings. w0mbat ist im Vergleich zu dir immer sehr positiv aufgefallen.

Marc Sauter(y33h@) von Golem hat sich das übrigens bestätigen lassen (bzw. steht es in einem von ihm geschriebenen Artikel), heise hat nur die Infos zu den Preisen rausgehauen.


Meinst du mit bestätigen lassen die geleakten Folien?

Sunrise
2015-03-23, 15:56:06
Naja, dann hoffen wir mal, dass AMD da nicht an irgendwelchen Stellen gespart hat, denn Platz sollte ja da sein, zumindest zwischen 600mm² und 625mm² würde ich mal schätzen, da der Rest ja nicht gedoppelt werden muss.

mboeller
2015-03-23, 15:56:23
unter der Annahme das die Folien kein Fake sind:

4096/2816 = +45%

auf den Folien sind die Spiele in 4K aber +50% bis +65% schneller.

Und nun?

Unicous
2015-03-23, 15:57:19
@Mandalore

Ja.

Videocardz hat einige Folien einer Präsentation veröffentlicht, die für AMDs Board-Partner gedacht ist und Details über die kommende Radeon R9 390X auflistet. Wir haben uns die Echtheit des Dokuments von einer Quelle bestätigen lassen und können den Preis der Grafikkarte nennen: Dieser liegt bei über 700 US-Dollar, also unter den 1.000 US-Dollar, die Nvidia für die GTX Titan X aufruft.

http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.html

Arcanoxer
2015-03-23, 16:03:37
http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.htmlWann kommt die Karte frühestens auf den Markt, in 6 Monaten?
Bis dahin ist die TitanX mit sicherheit auch nicht mehr bei 1000USD.

maguumo
2015-03-23, 16:06:15
unter der Annahme das die Folien kein Fake sind:

4096/2816 = +45%

auf den Folien sind die Spiele in 4K aber +50% bis +65% schneller.

Und nun?
Wurde doch soweit ich weiß schon geschrieben. Bandbreite bis zum abwinken, aufgebohrtes Frontend könnten dafür sorgen das Fiji besser mit den zusätzlichen ALUs skaliert als Hawaii im Vergleich zu den kleineren Chips.

Dawn on Titan
2015-03-23, 16:07:22
Naja - die Frage ist, ob die Differenz an Ausführungseinheiten 1:1 durchschlägt. Das ist ja (insbesondere bei AMD) selten so. Wenn AMD auch das Front-End + ROPs + Caches mitskaliert, könnte das aber sein.

Im Endergebnis werden sich beide wohl in Benchmarks nicht viel nehmen. Klar - zaubern können beide nicht.
Die Frage ist dann nur noch, wieviel Leistungsaufnahme bei Fijii performancenormiert zu GM200 hat. Ich hoffe, dass man da auch in den 250 W Bereich kommt und auch gute Kühler parat hat. Ansonsten hat der Launch ggf. wieder ein ähnliches "Geschmäckle" wie das von Hawaii. (nicht gut für den Ruf und damit wieder schlechter im Verkauf)

Die Prämisse ist Quark, GM200 hat praktisch von allem 50% mehr als GM204 und beide gehören zu einer Architektur. Das ist bei Hawaii vs. Fiji nicht gegeben.

Unicous
2015-03-23, 16:07:55
@Arcanoxer

Dafür aber bei 1000 Euro.:rolleyes:

Es sind übrigens 24 Monate.:uclap:

Weißt du doch. AMD halt.

Sunrise
2015-03-23, 16:09:47
4096/2816 = +45%

auf den Folien sind die Spiele in 4K aber +50% bis +65% schneller.

Und nun?
Nur rein anhand der Ausführungseinheiten zu vergleichen, greift zu kurz, die TFLOPS sind IMHO schon aussagekräfter, weil auch der Takt mit eingerechnet ist.

Mal davon ab, dass du nicht weißt, wie gut die Treiber angepasst sind und du dann je nach GPU mal mehr mal weniger am theoretischen TFLOP-Wert hängst, der sowieso nur bei 100% identischer Ausgangslage und 100%iger Skalierung nach oben funktioniert.

Wenn Fiji da gut optimiert ist, sollten die Werte aber ungefähr hinkommen, man hat dort ja auch nur "geschätzt", allerdings mit deutlich mehr Daten die man zur Hand hatte.

robbitop
2015-03-23, 16:23:25
unter der Annahme das die Folien kein Fake sind:

4096/2816 = +45%

auf den Folien sind die Spiele in 4K aber +50% bis +65% schneller.

Und nun?
Auf den Folien ist es bestimmt die WCE - also höherer Takt.

Die Prämisse ist Quark, GM200 hat praktisch von allem 50% mehr als GM204 und beide gehören zu einer Architektur. Das ist bei Hawaii vs. Fiji nicht gegeben.
Naja. Bisher evolutioniert GCN doch eher sehr sehr sanft. Hier und da ein neues Feature - aber Performance pro Ausführungseinheit stieg (takt- und einheiten normiert - z.B. gemessen an Pitcairn) eigentlich nie signifikant seit GCN 1.0 (Pitcairn) -> GCN 1.2 (Tonga). Deutlich mehr als das würde ich erstmal nicht erwarten.

Tahiti -> Hawaii hatte man die µ-Arch ja auch erneuert und dennoch war die Skalierung nicht 1:1. Einfach weil offenbar man nicht alle Bottlenecks mitskalierte.



Am Ende entscheidet, ob die 1:1 Skalierung auch durchschlägt eh nicht ob die ALUs jetzt GCN 1.2 oder GCN 1.x sind. (es sei denn, man überarbeitet ähnlich viel wie bei Maxwell -> erwarte ich aber nicht. Ansonsten bräuchte man keine 4096 ALUs gegen GM200. Aber ich lasse mich gern überraschen.)
Eher entscheident ist, dass man alle Bottlenecks mitskaliert. Also 6-8x Frontend, ROPS >/= 96, Bandbreite (check!), Caches, Kontroll/Verteillogik (!!!) etc...

Nakai
2015-03-23, 16:36:09
Kommt drauf an, auf welche GCN IP Fiji basiert. Wenns Tonga IP ist, dann wird das eher nix. Ist Fiji GCN1.3, dann wird es interessant. Reinher von dem zeitlichen Abstand sollte Fiji eine neuere Iteration haben, was die Treiberprobleme erklären könnte.

mboeller
2015-03-23, 16:36:50
Auf den Folien ist es bestimmt die WCE - also höherer Takt.

auf der Benchmark-Folie steht aber nur 390X und nichts von WCE. Wie ich schon geschrieben habe "wenn die Folien kein Fake sind"... Und selbst AMD würde wohl kaum WCE auf der Folie vergessen, oder? Außer die 390X ist immer mit WCE

robbitop
2015-03-23, 16:45:37
Kommt drauf an, auf welche GCN IP Fiji basiert. Wenns Tonga IP ist, dann wird das eher nix. Ist Fiji GCN1.3, dann wird es interessant. Reinher von dem zeitlichen Abstand sollte Fiji eine neuere Iteration haben, was die Treiberprobleme erklären könnte.
Wer sagt, dass GCN 1.3 nennenswerte Fortschritte bringt? GCN 1.1 und 1.2 brachten zumindest was Leistung pro Ausführungseinheit angeht nicht signifikant mehr.

Ich denke mal, dass es dort ein größeres Tuning (ala Maxwell) erst in der kommenden 16 nm Generation kommt. (fettere, schnellere Caches, getunte Kontroll/Verteilerlogik, fettere TMU Bandbreite etc)

Aber wie gesagt: wenn's schon zi Fijii käme -> sehr geil :) (glaube ich aber nicht dran)

Unicous
2015-03-23, 16:50:06
Und selbst AMD würde wohl kaum WCE auf der Folie vergessen, oder?

Ja doch. Das traue ich AMD generell schon zu.:biggrin:

Man kann sich jedenfalls nicht sicher sein. Die Folien sind schon sehr gut "gemacht" und mit Informationen gespickt die sehr plausibel sind. Außerdem scheint das ganze abfotografiert zu sein. Also das wäre schon ganz schön clever alles. Und die meisten Faker sind nicht sehr clever und spielen lediglich mit den Erwartungen der Rezipienten. Die erste "geleakte" Folie hingegen scheint nicht abfotografiert zu sein, könnte also sehr leicht gefälscht worden sein.

Und natürlich sehen die Folien auch komisch aus, weil WhyCry der kleine Spinner in jedes Pixel ein Wasserzeichen mit Uhu reingeklebt hat.

Gipsel
2015-03-23, 16:55:44
NVs Karten skalieren seit Fermi hervorragend mit Steigerung der Einheiten, weil pro GPC (?) auch immer das Front-End brav mitskaliert wird.

Die Frage ist eben, wie es bei Fijii sein wird. Selbst Hawaii skalierte außerhalb von 4K nicht ganz 1:1 zu Tahiti und zu Pitcairn und Cape Verde sowieso nicht. Pitcairn und Cape Verde waren ja pro Einheit wirklich gute GPUs.Also ich habe eben mal in die Computerbase-Rating reingeschaut und die Skalierung zwischen Pitcairn und Hawaii ist doch sehr nahe an der zwischen GTX960 und GTX980. Die in etwa doppelte Leistung (ist im AMD-Fall nur etwa 80% mehr da geringerer Takt) wird in etwa zu zwei Dritteln in höhere Frameraten umgesetzt.
Bei AMD R9-270X vs. R9-290, Alles verdoppelt, R9-290 hat aber geringeren Takt, so daß nur ~80% mehr Rohleistung da ist:
0,67*0,8=0,54 => R9-290-Rating ist 1,54 mal so hoch bei CB

Bei nV GTX960 vs. GTX 980, Alles verdoppelt, GTX980-Referenz hat sogar 3% höheren Boost:
0,67*1,02=0,68 => CB mißt 1,68 mal so hohe Leistung

Also Klassenunterschiede dürften das nicht sein, selbst wenn das +- ein paar Prozent ist, wegen den unklaren realen Taktraten.

Edit: Das ist übrigens das 1080p-Rating. In höheren Auflösungen dürfte es tendenziell für Hawaii besser aussehen.

Timbaloo
2015-03-23, 16:57:16
(fettere, schnellere Caches, getunte Kontroll/Verteilerlogik, fettere TMU Bandbreite etc)
Das frage ich mich schon seit einer Weile: Lohnen sich arg fettere Caches mit HBM, also fetter Bandbreite, denn überhaupt oder steckt man die Resourcen nicht lieber in Shader/Gedöns?

Skysnake
2015-03-23, 17:10:00
Einige glauben immer noch, dass der Underdog zu den guten gehört. ^^
Hätte AMD Konkurrenzfähige CPUs und einen wesentlichen Marktanteil, würden sie auch wieder 1000 Euro verlangen können.
Fixed for you :cool:

So lange AMD nicht ordentliche Marktanteile hat, werden Sie keine Preise wie Intel oder nVidia verlangen, und für uns sozusagen die "Guten" sein. Sobald Sie mal >50% Marktanteil haben, wird sich das spätestens ändern.

Bei kleinen Stückzahlen ist es aber besser, an einer Karte lieber etwas weniger zu verdienen und dafür auch genug ab zu setzen. Damit sinken einfach die Stückfixkosten aus F&E, und die sind bei Microchips nicht wirklich klein...

HOT
2015-03-23, 17:10:41
Selbst wenn die Folien kein Fake sind (ich denke dass sie echt sind), kann AMD das doch so nennen, wie er dann im Sommer wirklich heißt ist doch wieder ne ganz andere Kiste. Das ist ein String... Wir reden hier zudem ja auch über die 4GB-Variante, die es offenbar nie auf den Markt schaffen wird.

robbitop
2015-03-23, 17:18:39
Das frage ich mich schon seit einer Weile: Lohnen sich arg fettere Caches mit HBM, also fetter Bandbreite, denn überhaupt oder steckt man die Resourcen nicht lieber in Shader/Gedöns?
Caches haben deutlich kürzere Latenzen. Mit externer Bandbreite läßt sich nicht alles erschlagen. Es gibt Dinge, die müssen im Cache passieren, sonst holst du dir lauter Stalls rein.

@Gipsel

Danke für die Recherche. :)
Sind Register (Menge) eigentlich ein Engpass für GCN im Moment (Alltagseinsatz in Spielen)?

Gipsel
2015-03-23, 17:27:56
Sind Register (Menge) eigentlich ein Engpass für GCN im Moment (Alltagseinsatz in Spielen)?Da GCN doppelt so viele Register pro ALU hat wie Maxwell, würde ich mal spontan mit einem Nein antworten.

HOT
2015-03-23, 17:39:54
Übrigens, was mir aufgefallen ist, ist auch die 350X deutlich langsamer als die 250X, der Unterschied ist krass. Denn eine 350X soll einen Oland als Basis haben, eine 250X jedoch ist ein CapVerde XT, also hat die 250X bestimmt 1/3 mehr Power als 350X.

Um das mal zu rekapitulieren:

350X Oland XT -> 250X CapVerde XT
360 Boniare Pro -> 260 Bonaire Pro (ich tippe auf weniger Takt als die 260er)
370 Curacau Pro -> 270 Curacau XT

Alle 3x0er sind langsamer als ihre 2x0er Pendants, sogar erheblich
250X zu 350X -> - 30%
260 zu 360 -> -? %
270 zu 370 -> -20%

Also wer jetzt noch glaubt, das wär die 300-Retrail-Serie dem ist echt nicht mehr zu helfen...
Zudem könnte auch 4GB Fiji als OEM-Chip sehr gut passen, also in die 3x0er-Serie, wenn die Retrail-Variante 8GB haben soll. Erfordert die HBM-Verdopplung nicht einen neuen Träger, Interposer und PCB? Das ist der Grund für die Verzögerung von Fiji mMn. Zudem denke ich, dass die Caribbean Islands (Trinidad, Tobago, Grenada und Antigua) erst nach dem Erscheinen des GM107 gestartet wurden und diese auch erst im Sommer wirklich fertig sind.

y33H@
2015-03-23, 18:24:28
Wieso soll die 370 langsamer sein als die 270? Beide wären ein Pitcairn/Curacao/Trinidad mit 1280 ALUs - der Takt steht ja nicht fest. 370X könnte Tonga Pro sein.

Raff
2015-03-23, 18:28:48
Hoffen wir einfach, dass das alles Unsinn ist und AMD doch einen Neuling bringt. Pitcairn ist ja ein schönes GPÜchen, aber der Bruch bei der Feature-Palette ist heftig. Das AMD-Marketing wird keinen Spaß haben, alles wasserdicht zu verpacken, die Presse wird mit Aufklärungsartikeln dauerspammen und die Nutzer werden trotzdem nicht alle durchsteigen.

MfG,
Raff

fondness
2015-03-23, 18:29:58
Was genau fehlt denn einem Pitcain außer FreeSync? TrueAudio ist wohl verschmerzbar, VSR dürfte kein Problem sein, die 270X soll es auch bekommen.

HOT
2015-03-23, 18:31:37
Wieso soll die 370 langsamer sein als die 270? Beide wären ein Pitcairn/Curacao/Trinidad mit 1280 ALUs - der Takt steht ja nicht fest. 370X könnte Tonga Pro sein.
Weil die 370 Pitcairn Pro mit 16CUs (nicht etwa 20) ist (jedenfalls nach dem Sandra-Benchmark).

y33H@
2015-03-23, 18:36:36
Wenn Sandra stimmt, ja. Aus den Treiber-Einträgen geht das nicht hervor.

Thunder99
2015-03-23, 18:42:48
wenn das so zutrifft ist das sehr schwach von AMD. Entweder sie wollen nicht oder können nicht aus Kostengründen mehrere Chips entwickeln...

HOT
2015-03-23, 18:45:20
Klar. Man macht eine neue Generation, die aus schwächeren Chips als die vorhergehende besteht weil man es nicht besser schafft :freak:

dildo4u
2015-03-23, 18:48:39
Es macht Sinn wenn sie niedrige TDP für das neue Modell wollen.

fondness
2015-03-23, 19:16:26
wenn das so zutrifft ist das sehr schwach von AMD. Entweder sie wollen nicht oder können nicht aus Kostengründen mehrere Chips entwickeln...

Das ist IMO die falsche Frage, die Frage ist was ein neuer Chip besser machen soll. Die neue Arch kommt erst 2016, ich sehe nicht was ein neuer Chip viel besser machen sollte wenn man sich Tonga ansieht. Nur wegen ein paar wenigen Features einen neuen Chip auflegen wäre ein ziemlicher Luxus, eine neue Fertigung gibt es auch noch nicht. Fiji profitiert von HBM, das ist aber bei den kleinen Chips wohl noch zu teuer.

HOT
2015-03-23, 19:21:43
Ich wüsste nicht, dass Arctic Islands ne neue Arch haben sollen, die haben ne neue Fertigung, aber von µArchitektur stand nirgendwo was. Ich denke, das ist auch nicht nötig.
Es macht aber Sinn noch mal neue effizientere 28nm Chips aufzulegen, weil man die brauchen wird, um das 14nm Portfolio nach unten hin abzurunden. Da kann man dann nicht immer noch mit Picairn weitermachen.

fondness
2015-03-23, 19:25:00
Ich sehe keinen wesentlich effizienteren GCN-Chip, ich sehe nicht mal einen Chip der an Pitcain in punkto Perf/Watt und Perf/mm² ran kommt.

Sunrise
2015-03-23, 19:36:50
Woher soll die deutlich bessere Effizienz bei den kleineren Chips auch kommen?

AMD kann oder muss mit Fiji obenrum alles abdecken, dann kommt evtl. nochmal halbwegs brauchbares, aus heutiger Sicht Mid-End, dann wirds aber sehr schnell dunkel.

Das was Fiji bringen wird lässt sich kaum bis ganz nach unten skalieren und selbst wenn, wird das vermutlich zu teuer und es wird auch keiner kaufen, weil man trotzdem stark hinter NV in punkto Effizienz zurückgefallen ist.

MadManniMan
2015-03-23, 19:46:55
NV wurde ja nicht müde, zu verlautbaren, dass Tegra ihnen geholfen habe, Maxwell effizienter zu machen - ist es so einfach? Fehlt AMD tatsächlich dieses Knowhow? Wenn ja, sollte bei Kontextgleichstand (selbe Fertigung, beider Hersteller mit HBM) NV immer die Nase vorn haben.

fondness
2015-03-23, 19:49:29
NV wurde ja nicht müde, zu verlautbaren, dass Tegra ihnen geholfen habe, Maxwell effizienter zu machen - ist es so einfach? Fehlt AMD tatsächlich dieses Knowhow? Wenn ja, sollte bei Kontextgleichstand (selbe Fertigung, beider Hersteller mit HBM) NV immer die Nase vorn haben.

So einfach ist es natürlich nicht. Arctic Islands ist weit mehr als ein Shrink. Es sind eben unterschiedliche Herangehensweise, AMD kann "dank" HBM noch eine Generation länger mit der "alten" Architektur auskommen, das heißt aber nicht das 2016 High-End bei AMD dann 500W schlucken wird. Pascal hingegen wird mehr oder weniger Maxwell in 14nm plus HBM was man zumindest aktuell so hört.

MadManniMan
2015-03-23, 19:53:03
Ich hoffe es doch sehr! Und natürlich wäre es albern, davon auszugehen, dass NVs Erkenntnisse AMD verborgen bleiben. Dennoch würde es mich nicht überraschen, wenn sich erst mittel- bis langfristig wieder was tut. Tonga ist nicht effizienter als seine Vorgänger.

iuno
2015-03-24, 00:29:16
Die erste "geleakte" Folie hingegen scheint nicht abfotografiert zu sein, könnte also sehr leicht gefälscht worden sein.
Nana es war aber in einer PDF verpackt, also ganz sicher glaubwürdig :freak: ;D

Tonga ist nicht effizienter als seine Vorgänger.
Stimmt doch überhaupt nicht. Klar war es kein riesiger Schritt aber Tonga PRO verbraucht doch deutlich weniger als Tahiti PRO, geschweige denn XT. Das wird wohl nicht ausschließlich am SI liegen

MadManniMan
2015-03-24, 00:38:48
Stimmt doch überhaupt nicht. Klar war es kein riesiger Schritt aber Tonga PRO verbraucht doch deutlich weniger als Tahiti PRO, geschweige denn XT. Das wird wohl nicht ausschließlich am SI liegen

:confused:

http://www.3dcenter.org/dateien/abbildungen/Grafikkarten-Performance-Spieleverbrauch-Index-Februar-2015.png

Effe
2015-03-24, 00:40:05
NV wurde ja nicht müde, zu verlautbaren, dass Tegra ihnen geholfen habe, Maxwell effizienter zu machen - ist es so einfach? Fehlt AMD tatsächlich dieses Knowhow?
Glaube ich nicht. AMD hat durch seine APUs wie Kaveri, Kabini bzw Beema genug Know-How, was Low Power angeht. Also daran darf es nun wirklich nicht liegen. Die Frage ist wie gut das skaliert nach oben.

Nakai
2015-03-24, 00:41:13
Mir kommen Erinnerungen zu einem Fake bzgl eine Dual Karte seitens AMD hoch. *würg* Da wurde dann auch der Präsentation-Datei "geleakt"...das waren noch Zeiten. Wenn Fake, dann Fiji wieder mit 4GB, wie in den geleakten Benches.

iuno
2015-03-24, 01:11:33
:confused:
Weiß nicht, woher die Daten aus dem Index stammen. Ich kenne die Tests von CB und Tomshardware, dort hat die 285 deutlich weniger gebraucht als die 280.

Mit 176 Watt liegt man beim Gaming mit dieser Board-Partner-Karte fast 40 Watt unter den Werten einer im Schnitt sogar langsameren R9 280 mit moderater Übertaktung ab Werk.
Bei CB dasselbe

MadManniMan
2015-03-24, 01:18:51
Weiß nicht, woher die Daten aus dem Index stammen. Ich kenne die Tests von CB und Tomshardware, dort hat die 285 deutlich weniger gebraucht als die 280.

Sorry, hab den Link vergessen (http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-februar-2015/grafikkarten-marktueberblick-februar-2015-seite-2) - bzw. war davon ausgegangen, dass man Leos Zusammenfassungen kennt ;)

Er aggregiert alle möglichen Tests. (http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-285) Ich weiß, dass da auch Ausreißer bei sind (so bekommt man standardmäßig bei den meisten 960ern einen größeren Stromhunger spendiert), aber generell passt das eigentlich.

Unicous
2015-03-24, 01:30:45
@MadManniMan und 3DCenter Zahlen


Ja, aber zwischen der niedrigsten (wie auch immer gemessenen) Leistungsaufnahme und der höchsten liegen ca. 55 Watt bei der R9 285.:wink:

Also nicht so einfach. Der Ausreißer nach oben bei PCGH zeigt auch, dass die 285 im Vergleich zum Test der 280! eine um 25 Watt höhere Leistungsaufnahme hat, während es beim Test von ht4u fast komplett andersherum ist. Da nimmt die 280 20 Watt mehr auf.

Irgendetwas stimmt also nicht bei Tonga, wie schon öfter festgestellt. Nach dem Launch hat sich auch keiner mehr für Tonga interessiert, afair. Deswegen weiß man nicht wie es jetzt um den Chip steht.

Einen kleinen oder größeren round-up gab es leider auch nicht.

Hübie
2015-03-24, 01:30:49
Schwankende Taktraten können auch nicht positiv auf Frametimes einwirken. Es sind halt Iterationen die stets einen Spagat machen. Variable blank Intervalle tragen dem Rechnung. Eine perfide Aussage wie deine, gedi, lass ich also so nicht gelten. Wer weiß was du so einstellst. Hast du beide Karten im gleichen System?

gedi
2015-03-24, 01:35:03
Schwankende Taktraten können auch nicht positiv auf Frametimes einwirken. Es sind halt Iterationen die stets einen Spagat machen. Variable blank Intervalle tragen dem Rechnung. Eine perfide Aussage wie deine, gedi, lass ich also so nicht gelten. Wer weiß was du so einstellst. Hast du beide Karten im gleichen System?
Ja - 4790 non k @ 4.3GHZ

Hübie
2015-03-24, 01:39:56
@MadManniMan und 3DCenter Zahlen


Ja, aber zwischen der niedrigsten (wie auch immer gemessenen) Leistungsaufnahme und der höchsten liegen ca. 55 Watt bei der R9 285.:wink:

Also nicht so einfach. Der Ausreißer nach oben bei PCGH zeigt auch, dass die 285 im Vergleich zum Test der 280! eine um 25 Watt höhere Leistungsaufnahme hat, während es beim Test von ht4u fast komplett andersherum ist. Da nimmt die 280 20 Watt mehr auf.

Irgendetwas stimmt also nicht bei Tonga, wie schon öfter festgestellt. Nach dem Launch hat sich auch keiner mehr für Tonga interessiert, afair. Deswegen weiß man nicht wie es jetzt um den Chip steht.

Einen kleinen oder größeren round-up gab es leider auch nicht.

Ich habe mal eben bei mindfactory geschaut. Tonga verkaufte sich da 285 mal. Such dir irgendeine GeForce-Serie heraus. Du wirst keine finden die so niedrige Verkaufszahlen aufweist. Das habe ich nicht nachgesehen, aber da geh ich einfach jede Wette ein.

uweskw
2015-03-24, 07:24:02
Wie ist das eigentlich?
Kann es sein, dass durch das breite SI der 390 eine AMD mit 4GB/2016 weiniger Bandbreiten limitiert ist als eine 8GB/512 X290?

Gibt es irgendwo Spiele/Settings in denen bei der X290 die 8BG schon einen echten FPS-Vorteil bieten? Bei Crysis 3 unter 4096x2160 mit 4xMSAA jedenfalls nicht lt. PCGH
http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/


edit:

lt. HT4u bringen die 4GB mehr Speicher bei der X290 gerademal 1-2% unter 4k
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index40.php

Da stellt sich doch die Frage ob 8GB bei der 390 notwendig sind?
Die 4GB sollten doch mit dem 2048er Speicherinterface NOCH weniger limitieren???


greetz
U.S.

Ailuros
2015-03-24, 09:06:09
Die frametimes auf der 8GB 290X sahen auf tests die ich gesehen hab um einiges besser aus im Vergleich zu 4GB 290X.

Welches 2048er SI genau und wieso hat es ueberhaupt die Bandbreite direkt etwas mit der Speichermenge zu tun? Wenn ich 500GB Bandbreite habe gegen 256GB, gehen mir dann 4GB framebuffer langsamer aus oder wie soll ich die "Logik" genau verstehen?

fondness
2015-03-24, 09:22:55
Ich habe mal eben bei mindfactory geschaut. Tonga verkaufte sich da 285 mal. Such dir irgendeine GeForce-Serie heraus. Du wirst keine finden die so niedrige Verkaufszahlen aufweist. Das habe ich nicht nachgesehen, aber da geh ich einfach jede Wette ein.

AMD tut auch alles damit das Ding unattraktiv bleibt. Nichtmal 4Gb Versionen werden erlaubt.

uweskw
2015-03-24, 09:51:20
.....
Wenn ich 500GB Bandbreite habe gegen 256GB, gehen mir dann 4GB framebuffer langsamer aus oder wie soll ich die "Logik" genau verstehen?

Hier gibt es auch Laien wie mich. Ich dachte mit einen 2048 SI könnten die 4GB schneller "refreshed" werden:confused: Müsste der Speicher bei einem 256 SI nicht 8x schneller laufen um auf die gleiche Speicherbandbreite zu kommen?

greetz
U.S.

AnarchX
2015-03-24, 09:55:08
Zum einen sind es 4x 1024-Bit bei Fiji. Der HBM hat aber nur eine Datenrate von 1,0-1,25Gbps - GDDR5 hat da bis zu 8Gbps.
Und zum anderen mag zwar die Bandbreite zwischen GPU und Speicher sehr hoch sein, aber das nützt nichts wenn Daten über den langsamen PCIe nachgeladen werden müssen. Insofern ersetzt Bandbreite keine Speichermenge.

Disco_STFU
2015-03-24, 11:23:26
AMD tut auch alles damit das Ding unattraktiv bleibt. Nichtmal 4Gb Versionen werden erlaubt.

Das verstehe ich bis heute nicht warum das künstlich zurück gehalten wurde... Wollte man sich das für die kommende Generation aufheben oder was?

Hübie
2015-03-24, 11:39:19
Am Ende werden die Dinger noch gekauft! Wie könnte man da auf die Idee kommen und das Produkt an die Nachfrage anpassen?
Ganz ehrlich? Ich kapier nicht was die aushecken.

Dural
2015-03-24, 11:43:29
Ich glaube AMD will bis jetzt noch gar keine grossen Stückzahlen von Tonga absetzten, sonst hätte man 280 und 280x doch schon längst aus dem Sortiment genommen.

HOT
2015-03-24, 12:14:40
Exakt. Das ist ein "Spezialchip". Der 285 ist nichts anderes als Müllverwertung.

Thunder99
2015-03-24, 12:27:40
Wie ist das eigentlich?
Kann es sein, dass durch das breite SI der 390 eine AMD mit 4GB/2016 weiniger Bandbreiten limitiert ist als eine 8GB/512 X290?

Gibt es irgendwo Spiele/Settings in denen bei der X290 die 8BG schon einen echten FPS-Vorteil bieten? Bei Crysis 3 unter 4096x2160 mit 4xMSAA jedenfalls nicht lt. PCGH
http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/


edit:

lt. HT4u bringen die 4GB mehr Speicher bei der X290 gerademal 1-2% unter 4k
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index40.php

Da stellt sich doch die Frage ob 8GB bei der 390 notwendig sind?
Die 4GB sollten doch mit dem 2048er Speicherinterface NOCH weniger limitieren???


greetz
U.S.
Man braucht auch Spiele wo man weiß das sie durchaus mehr VRAM brauchen bei höheren Settings. Bestes Beispiel und Worst Case ist ja Shadow of Mordor :), bis zu 10GB kann das Spiel anfordern :freak:

Jede Wette das da die R9 290X 8GB sogar eine Titan Black kalt macht ;D

Arcanoxer
2015-03-24, 12:36:09
Bestes Beispiel und Worst Case ist ja Shadow of Mordor Und das einzige Spiel. :freak:

Mehr RAM bringt nicht automatisch mehr FPS.
In aktuellen Spielen hat die R290x es nicht einfach, man schaue sich die BF:Hardline Benchmarks an. Die GTX970 ist im schnitt 10fps schneller.

http://www.pcgameshardware.de/Battlefield-Hardline-PC-258805/Specials/Benchmark-Test-1154059/

Isen
2015-03-24, 12:48:28
Dafür läufts Smoother...(ftimes nach) fps ist nicht alles.

Von PCGH_Phil: Da sieht man (meines Erachtens) deutlich Microstuttering, das hab ich sowohl mit Fraps als auch dem internen Tool auch messen können (GTX 980, GTX 970, GTX Titan X. Nicht aber mit eine R9 290X (DX oder Mantle).

M4xw0lf
2015-03-24, 12:54:14
Die Frametimes der Titan X sind sehr hässlich.

Thunder99
2015-03-24, 12:56:28
Und das einzige Spiel. :freak:

Mehr RAM bringt nicht automatisch mehr FPS.
In aktuellen Spielen hat die R290x es nicht einfach, man schaue sich die BF:Hardline Benchmarks an. Die GTX970 ist im schnitt 10fps schneller.

http://www.pcgameshardware.de/Battlefield-Hardline-PC-258805/Specials/Benchmark-Test-1154059/
Laut den Tests aber nicht flüssiger nach dem derzeitigem Stand :)

Laut den Gerüchten soll es Juni soweit sein für Fiji. Ob aber da der große Absatz kommt wage ich zu bezweifeln (Sommer halt)

uweskw
2015-03-24, 12:57:50
Und das einzige Spiel. :freak:

Mehr RAM bringt nicht automatisch mehr FPS.
In aktuellen Spielen hat die R290x es nicht einfach, man schaue sich die BF:Hardline Benchmarks an. Die GTX970 ist im schnitt 10fps schneller.

http://www.pcgameshardware.de/Battlefield-Hardline-PC-258805/Specials/Benchmark-Test-1154059/

Ja, würde mich auch mal interessieren wo der NV Vorsprung in BF4 herkommt. Hab irgendwo mal gelesen, dass es am kaputten MSAA liegt?

Arcanoxer
2015-03-24, 13:01:36
Die Frametimes der Titan X sind sehr hässlich.
Der Frametimes Bonus zieht aber nicht mehr wirklich, wo doch Vulkan und DX12 vor der Tür steht. Viel interessanter ist da doch die Performance der Rebranding Kandidaten.

Isen
2015-03-24, 13:04:26
Du hast doch BF genannt... wegen den lausigen 10fps mehr, die ja so toll sind aber Shuttern...

Datarecovery09
2015-03-24, 13:12:13
Laut den Gerüchten soll es Juni soweit sein für Fiji. Ob aber da der große Absatz kommt wage ich zu bezweifeln (Sommer halt)

Kommt halt darauf an, wie stark das Lineup im Vergleich zur Konkurrenz ausfällt und - abhängig davon - wann in 2016 die neuen Generationen kommen. Auch wenn man im Sommer rauskommt hat man immer noch das wichtige Weihnachtsgeschäft Ende des Jahres.

-/\-CruNcher-/\-
2015-03-24, 13:43:27
Dafür läufts Smoother...(ftimes nach) fps ist nicht alles.
Das ist schon nicht mehr ernstzunehmen was der PCGHLer da blubbert, das interne tool ist verdammt gut aber auch es kann interferenzen erzeugen die sichtbar werden können es gibt nur Outside Analyse die Exakt ist ;)

Isen
2015-03-24, 13:45:48
Wieso antwortest du dann darauf *g*

Edit zu deinem Edit:

Ah... nochmal die Kurve gekriegt und geschickt relativiert.

Aber, ist ja nicht ernst zu nehmen, woll ;)

Thunder99
2015-03-24, 13:50:42
Der Frametimes Bonus zieht aber nicht mehr wirklich, wo doch Vulkan und DX12 vor der Tür steht. Viel interessanter ist da doch die Performance der Rebranding Kandidaten.
Aber nur wenn diese auch Ende 2015 eher 2016 kommen. Die alten Perlen werden aber nach wie vor gezockt und da ist eine unsaubere Frameausgabe bei beiden IHV schlecht und ärgerlich. In deinem Beispiel läuft es trotz geringerer Framerate auf der Radeon flüssiger als auf der Titan X und co. Bis sie es fixen bleibt es ein Kritikpunkt.

Ja die Rebrands, mal schauen ob da was aktualisiert worden ist oder ob es 1:1 Dinger werden