PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

captain_drink
2015-06-10, 17:34:03
Die Lukü-Version wird preismäßig vielleicht $50 unter der 980Ti liegen, die Wakü-Version zwischen 980Ti und TITAN. Beides IMO.

Davon gehe ich ebenfalls aus. Diese Preisgestaltung sollte auch ungefähr dem Leistungsprofil entsprechen.

Spannend wird dann eher, ob noch ein Fiji Salvage auf Leistungs- und Preisniveau der 980 Customs platziert wird, um den luftgekühlten Fiji XT nach unten besser abzugrenzen. Sinnvoll wäre es zumindest.

Dawn on Titan
2015-06-10, 17:38:33
Wenn das die Lukü Version ist, dann gut. Wenn es die Wakü ist, dann fail.

Godmode
2015-06-10, 17:44:19
Prestige-Objekt von AMD? Nicht der schnellste Chip am Markt, Leistung offensichtlich nur mit WaKü möglich... 4GB

Das würde für 1000.- kein Mensch kaufen.

Wenn die Benchmarks stimmen kann AMD eigentlich nur noch gutes OC "retten" in Anbetracht von Hawaii und der grösse von Fiji habe ich da aber keine grosse Hoffnung.

Sorry aber die TX ist erst mit Umbau auf Wakü vernünftig leise, sonst deutlich zu laut.

derguru
2015-06-10, 17:56:37
schade das sie erstmal nur mit 4gb gibt aber dadurch kann es zu einem attraktiven preis kommen.

edit: ~50% schneller als eine 290x, da habe ich ein bissel mehr erwartet gehabt.

basix
2015-06-10, 18:05:07
http://youtu.be/tlDv0XL5bv8
omg :freak:

18W @ 12V nur für den Lüfter :freak: Da geht die ja die zusätzliche Effizienz durch HBM gleich wieder flöten ;D

Wenn das die Lukü Version ist, dann gut. Wenn es die Wakü ist, dann fail.

Dort steht Fury X, sollte die WaKü Edition nicht Fury Nano heissen? Ich spekuliere bei der Nano eh noch auf 1250 MHz. Drückt mir die Daumen :biggrin:

Edit:
Wieso ist eigentlich auf allen Bildern der Produktaufkleber zensiert? Was gibt es da gross zu verheimlichen?
http://wccftech.com/amd-radeon-fury-exclusive-pics/

StefanV
2015-06-10, 18:06:43
http://youtu.be/tlDv0XL5bv8
omg :freak:
Ya, bei DEM Lüfter. Das heißt aber noch lange nicht, dass das auch der ist, der auf der Fiji Karte zum Einsatz kommt...

Denn als Auftraggeber kannst eigentlich ohne weiteres den Motor austauschen...

Tesseract
2015-06-10, 18:09:45
AMD muss schon länger etwas in diese Richtung tun und nicht immer nur im Massenmarkt mitmachen, stört ja auch bei der TITAN X niemanden dass das Ding nach allen objektiven Kriterien hoffnungslos überteuert ist.

nö, AMD braucht eine karte, die im high-end-bereich auch tatsächlich gekauft wird und im gespräch ist bzw. bleibt und fiji hat in diesem performanceberech weder den first-mover-vorteil den die titans bisher immer hatten, noch die kompromisslosigkeit bezüglich der speichergröße und wahrscheinlich auch noch den nachteil einer nicht so hohen energieeffizienz. wenn das teil ähnlich viel wie die titan kostet wird sie für den "prestige-faktor" genau so uninteressant wie die 295X2, von der AMD immer stolz behauptet sie sei die schellste graka der welt, aber die in den communities fast niemanden interessiert.

fiji muss einfach damit punkten in der höchsten leistungsklasse die preismäßig die bessere alternative zu sein, sonst wird das nix.

Thunder99
2015-06-10, 18:11:54
Prognose liest sich gut. Und eine 8GB Version wird kommen, die kann das um die 999€ kosten^^. Bei 4GB schätze ich eher ein Preis um die 700€

fondness
2015-06-10, 18:14:35
nö, AMD braucht eine karte, die im high-end-bereich auch tatsächlich gekauft wird und im gespräch ist bzw. bleibt und fiji hat in diesem performanceberech weder den first-mover-vorteil den die titans bisher immer hatten, noch die kompromisslosigkeit bezüglich der speichergröße und wahrscheinlich auch noch den nachteil einer nicht so hohen energieeffizienz. wenn das teil ähnlich viel wie die titan kostet wird sie für den "prestige-faktor" genau so uninteressant wie die 295X2, von der AMD immer stolz behauptet sie sei die schellste graka der welt, aber die in den communities fast niemanden interessiert.

fiji muss einfach damit punkten in der höchsten leistungsklasse die preismäßig bessere alternative zu sein, sonst wird das nix.

Vielleicht liefert das Ding dafür >4TFLOPs DP-Leistung, das haben die Leute bei der TITAN ja auch immer ganz toll gefunden. Dein letzter Satz ist genau das was man nicht erreichen will, nämlich das Preisargument. Ein hoher Preis ist ironischerweise nicht immer ein Nachteil, sondern verkörpert eben auch gewisse Eigenschaften auf die bestimmte Zielgruppen anspringen. Ansonsten schließt sich das nicht aus, die Karte die gekauft werden sollen sind dann eben die Lukü-Version.

r3ptil3
2015-06-10, 18:15:23
Edit:
Wieso ist eigentlich auf allen Bildern der Produktaufkleber zensiert? Was gibt es da gross zu verheimlichen?
http://wccftech.com/amd-radeon-fury-exclusive-pics/

Sonst weiss AMD wer es veröffentlicht hat?!

Menace
2015-06-10, 18:20:24
[...] wenn das teil ähnlich viel wie die titan kostet wird sie für den "prestige-faktor" genau so uninteressant wie die 295X2, von der AMD immer stolz behauptet sie sei die schellste graka der welt, aber die in den communities fast niemanden interessiert.
[...]

Du meinst die 295X2 ist wegen des Preises für die "communities" uninteressant? :eek:

Tesseract
2015-06-10, 18:20:39
Vielleicht liefert das Ding dafür >4TFLOPs DP-Leistung, das haben die Leute bei der TITAN ja auch immer ganz toll gefunden.
interessiert im spielebereich so gut wie niemanden, auch bei der titan nicht.

Dein letzter Satz ist genau das was man nicht erreichen will, nämlich das Preisargument.
es bleibt ihnen aber nix anders übrig. wär die karte 30% schneller als eine titan X oder wäre sie früher erschienen sähe das vielleicht anders aus, aber die "geld ist mir wurscht"-fraktion kauft sich keine "edle fury", die haben seit wochen bzw. monaten 2+ titan X im system. die karte muss einfach die leute ansprechen die nicht "das beste; preis egal" haben wollen sondern etwas im preissegment von z.B. 550-650 suchen.

Du meinst die 295X2 ist wegen des Preises für die "communities" uninteressant? :eek:
nein, das habe ich nicht gemeint. sie beitet einfach nicht das was leute, die so viel ausgeben wollen, suchen.

fondness
2015-06-10, 18:22:13
interessiert im spielebereich so gut wie niemanden, auch bei der titan nicht.


Es hat trotzdem gereicht das sich die Leute damit den hohen Preis rechtfertigten.

es bleibt ihnen aber nix anders übrig. wär die karte 30% schneller als eine titan X oder wäre sie früher erschienen sähe das vielleicht anders aus, aber die "geld ist mir wurscht"-fraktion kauft sich keine "edle fury", die haben seit wochen bzw. monaten 2+ titan X im system. die karte muss einfach die leute ansprechen die nicht "das beste; preis egal" haben wollen sondern etwas im preissegment von z.B. 550-600 suchen.

Siehe meinen kompletten Beitrag, das schließt sich ja nicht aus, es wird verschiedenen Fiji-Versionen geben. Die Prestige-Karte muss niemand kaufen.

Kartenlehrling
2015-06-10, 18:31:17
Auf jedenfall hatte ich recht das die Leitunge nach hinten rausgehen.

Wenn das Teil wirklich so kurz ist können die Schläuche ja nach hinten rausgehen.

Menace
2015-06-10, 18:33:41
Man muss doch sagen, dass seit einiger Zeit AMD die spannenderen Erwartungen erzeugt:
- Mantle war damals eine große Aufregung (heute erst gelesen, dass die Alpha-Version von Stardocks Ashes of Singularity mit mantle-Unterstützung kommt [soviel zu mantle ist tot] und sorgte nochmals als vulkan-Untersatz für Gesprächsstoff;
- Zen Ankündigung wurde interessiert verfolgt;
- dank erste HBM-Karte scheint mit in den "communities" das Interesse auch nicht gerade gering.

Schnoesel
2015-06-10, 18:37:27
Falls sich die Leistung bewahrheitet und nicht allzu teuer wird geb ich Fiji ne Chance. Aber nen 1000er geb ich weder für Nvidia noch für AMD aus.

Dawn on Titan
2015-06-10, 18:41:41
Dort steht Fury X, sollte die WaKü Edition nicht Fury Nano heissen? Ich spekuliere bei der Nano eh noch auf 1250 MHz. Drückt mir die Daumen :biggrin:


Mein Gefühl würde sagen, dass man beim Takt durch die Leistungsaufnahme beschränkt ist, da man wohl nicht viel über 300W gehen will. Sollte dem so sein, ist da für mich ein lauwarmes Angebot.

Ich bin auch mal auf die Leistungsaufnahme der 390X gespannt.

mironicus
2015-06-10, 18:45:48
Wenn noch mehr Leaks kommen braucht die Karte ja nicht mehr getestet zu werden. :D
[X] Done everything right.

Schnoesel
2015-06-10, 18:46:05
Soll der Verbrauch von Fiji nicht bei nur ca. 10Watt über R9 290X liegen? Dann ist noch genug Platz für OC.

-/\-CruNcher-/\-
2015-06-10, 18:48:27
350 € ist das absolute max mal sehen ob eine Salvage Fiji da reinrutscht ;)

basix
2015-06-10, 18:50:49
Mein Gefühl würde sagen, dass man beim Takt durch die Leistungsaufnahme beschränkt ist, da man wohl nicht viel über 300W gehen will. Sollte dem so sein, ist da für mich ein lauwarmes Angebot.

Ich bin auch mal auf die Leistungsaufnahme der 390X gespannt.

Ja das ist wahrscheinlich schon so, mal schauen. Wäre halt ein astreines Marketing Instrument "We did 10 TFLOPs Single GPU First". Kann ja auch sein, dass solch ein Takt nur im "Uber Mode" erreicht wird.

M4xw0lf
2015-06-10, 18:51:17
Soll der Verbrauch von Fiji nicht bei nur ca. 10Watt über R9 290X liegen? Dann ist noch genug Platz für OC.
Gleich hoch eher.

Spasstiger
2015-06-10, 18:52:25
Ansonsten schließt sich das nicht aus, die Karte die gekauft werden sollen sind dann eben die Lukü-Version.
Guter Punkt. Die WaKü sorgt für den guten Ersteindruck, die LuKü-Version überzeugt dann auch über den Preis. NV beugt dem jetzt schon vor, indem sie ihre AiBs die 980 Ti und die Titan X ebenfalls mit WaKü ausstatten lassen. Die gründlichen Tester vergleichen dann auch WaKü @ NV gegen WaKü @ AMD. Der Vergleich ist imo fair, wenn jeweils der gleiche Preispunkt angesetzt wird.

fondness
2015-06-10, 18:56:37
Die gründlichen Tester vergleichen dann auch WaKü @ NV gegen WaKü @ AMD.

Das sehe ich nicht so, als AMD die unterlegenen Referenzkühlung hatte wurde schließlich auch verglichen. Jetzt eine custom-NV gegen AMD Referenz antreten zu lassen hätte was von Doppelmoral.

Blediator16
2015-06-10, 18:59:43
Ausserdem hat Nvidia sowieso WaKü nicht nötig:freak:

Kriegsgeier
2015-06-10, 19:15:20
Auf jeden Fall werden in den nächsten Monaten die GraKa Preise allg. nach unten korrigiert...

Konkurrenz belebt das Geschäft wie man so schön und zutreffend sagt

dargo
2015-06-10, 19:20:21
350 € ist das absolute max mal sehen ob eine Salvage Fiji da reinrutscht ;)
Wird denke ich nicht passieren. Fiji Pro landet imo zwischen der 980 und 980TI. Ob näher an der einen oder der anderen muss sich noch zeigen. Ich würde somit von mindestens 499$ ausgehen, eher 549$.

aufkrawall
2015-06-10, 19:21:19
Das sehe ich nicht so, als AMD die unterlegenen Referenzkühlung hatte wurde schließlich auch verglichen. Jetzt eine custom-NV gegen AMD Referenz antreten zu lassen hätte was von Doppelmoral.
Der kleine Unterschied ist, dass es gar keine AMD Custom Karten zu kaufen gab, während das bei GM200 mittlerweile schon teilweise der Fall ist.

MR2
2015-06-10, 19:27:28
"Laut Videocardz.com aber soll Fury seine Muskeln vor allem in hohen Auflösungen ausspielen können und das obwohl die Karte nur mit 4 GB HBM-Speicher bestückt sein wird, wie man uns auch im Rahmen der Computex 2015 bestätigte."

Wenn da och ne 8GB Karte kommt reicht das schon, solange die 4GB Karte so schnell ist.

Sunrise
2015-06-10, 19:28:06
Ja das ist wahrscheinlich schon so, mal schauen. Wäre halt ein astreines Marketing Instrument "We did 10 TFLOPs Single GPU First". Kann ja auch sein, dass solch ein Takt nur im "Uber Mode" erreicht wird.
Funktioniert wie schon angesprochen auch mit 9 TFLOPS blendend. Mindestens 1099MHz sollten auch bei der Lukü-Version locker drin sein. Bei der WCE hat man durch die gute Kühlung sowieso eine ganz andere Ausgangsbasis. Und mit einer richtigen Wakü, die eigentlich jeder echte High-Ender draufbaut (Custom my ass) gehts dann zur Sache.

Nightspider
2015-06-10, 19:29:21
Bin ja mal gespannt ob AMD den VRAM jetzt wirklich effizienter nutzt als vorher.

ilibilly
2015-06-10, 19:35:12
Performance ist ja nice aber amd braucht ein argument um 980ti käufer uu locken , wer die wahl hat holt doch 6gb ti anstatt fury , 50€ billiger dürfte da nicht ausreichen imho sollte amd um die 500/550 für die 4gb fury verlangen sas wäre ok

mironicus
2015-06-10, 19:35:24
NVidia wird dann eine Kampagne starten wie wichtig doch >4 GB ist. :D

Und selbstverständlich werden viele Seiten dann eher unrealistische Szenarien testen um das zu belegen. NVidia kann Marketing, die haben ihre Lieblinge, die haben Geld um Leute zu kaufen.

Sunrise
2015-06-10, 19:45:17
Performance ist ja nice aber amd braucht ein argument um 980ti käufer uu locken , wer die wahl hat holt doch 6gb ti anstatt fury , 50€ billiger dürfte da nicht ausreichen imho sollte amd um die 500/550 für die 4gb fury verlangen sas wäre ok
Das Hauptargument ist immer die Balkenlänge. AMD muss die Dinger so in den Markt schicken, dass man mit 4GB auf jedenfall schneller ist als die 6GB NV-Referenzkarten für $649 und sie dürfen auch nicht teurer sein. Dann gibts keine Diskussionen mehr.

Das Totschlag-Argument der Zukunftssicherheit wird dann halt wieder ausgepackt. Hier müssen dann einfach Reviews zeigen, wie kritisch 4GB bei Fiji wirklich sind. Sind sie es nämlich nicht, interessiert das Mehr-an-RAM keine Sau mehr.

Custom-Versionen (die bei AMD noch nachkommen) sind immer teurer, auch bei NV. Teilweise sogar beträchtlich.

AngelDust 32
2015-06-10, 19:46:13
Performance ist ja nice aber amd braucht ein argument um 980ti käufer uu locken , wer die wahl hat holt doch 6gb ti anstatt fury , 50€ billiger dürfte da nicht ausreichen imho sollte amd um die 500/550 für die 4gb fury verlangen sas wäre ok

Wer kauft sich eine mit 8GB GDDR 3 wenn er eine mit 4 GB GDDR 5 haben kann ?

genauso bei 6GB GDDR zu 4GB HBM

Bis jetzt ist noch nicht bekannt wie sich der HBM auf die Leistung in Spielen auswirkt.

aufkrawall
2015-06-10, 19:50:45
Du kannst es dir denken, wenn 256 Bit Interface mit DCC reichen, um Hawaii zu schlagen.

mironicus
2015-06-10, 19:56:07
Bis jetzt ist noch nicht bekannt wie sich der HBM auf die Leistung in Spielen auswirkt.

Wahre Wunder, AA ist jetzt (fast) kostenlos in jeder Situation, der neue VSR-Modus mit verbesserter Bildqualität wird komplett in Hardware berechnet, Tesselationsleistung verdreifacht gegenüber Hawai, Witcher 3 läuft mit Hairworks schneller als auf der Titan X, Freesync-Unterstützung wurde verbessert und jetzt geht Framedoubling - leider nur mit Fiji. AMD hat den Chip so getweakt das insbesondere Gameworks-Titel deutlich besser laufen als jemals zuvor... :freak:

dargo
2015-06-10, 19:56:21
Du kannst es dir denken, wenn 256 Bit Interface mit DCC reichen, um Hawaii zu schlagen.
Vergiss den Speichertakt dabei nicht. Effektiv hat Hawaii "nur" knapp 43% mehr Bandbreite.

[MK2]Mythos
2015-06-10, 20:19:30
Ich hätte mal ne Frage, hier wird immer davon geredet, dass beispielsweise 300 Watt (fiktive Zahl) weggekühlt werden müssen wenn die Grafikkarte eben diese 300 Watt maximal zieht. Doch wie hoch ist denn die Verlustleistung überhaut? Gibt es dazu verlässliche Zahlen bzw ein relativ festes Verhältnis? Wenn Fiji also nun maximal 275 Watt ziehen kann, wieviel elektrische Energie verpufft dann überhaupt in Hitze?

Thunder99
2015-06-10, 20:20:49
Wahre Wunder, AA ist jetzt (fast) kostenlos in jeder Situation, der neue VSR-Modus mit verbesserter Bildqualität wird komplett in Hardware berechnet, Tesselationsleistung verdreifacht gegenüber Hawai, Witcher 3 läuft mit Hairworks schneller als auf der Titan X, Freesync-Unterstützung wurde verbessert und jetzt geht Framedoubling - leider nur mit Fiji. AMD hat den Chip so getweakt das insbesondere Gameworks-Titel deutlich besser laufen als jemals zuvor... :freak:
:weg::massa:;D

Wobei man auf Basis von Tonga schon von einer verbesserten Tesselationsleistung ausgehen kann :)

Mythos;10659901']Ich hätte mal ne Frage, hier wird immer davon geredet, dass beispielsweise 300 Watt (fiktive Zahl) weggekühlt werden müssen wenn die Grafikkarte eben diese 300 Watt maximal zieht. Doch wie hoch ist denn die Verlustleistung überhaut? Gibt es dazu verlässliche Zahlen bzw ein relativ festes Verhältnis? Wenn Fiji also nun maximal 275 Watt ziehen kann, wieviel elektrische Energie verpufft dann überhaupt in Hitze?
275W? :confused: Die Angaben dachte ich immer beziehen sich auf was der Chip an Energie verbrät in Form von Hitze. Also Gesamt Energie. Bei meiner R9 290 hab ich laut GPU-Z Log ja 2 Werte. Input und Output. Im Zweifelsfall ist der niedrigere Wert was weg gekühlt werden muss (sprich das Delta beider Werte ist was wirklich an Energie der Chip/Karte sich gegönnt hat was nicht in Wärme umgewandelt wurde)

Sunrise
2015-06-10, 20:35:48
Der Vollständigkeit halber, der letzte Zauba-Eintrag zu Fiji:

http://abload.de/img/fiji_zauba_080615usq6v.png

Isen
2015-06-10, 20:37:22
@Thunder99
Die Werte ausm Tool kannste aber nicht ganz für voll nehmen. Grob halt.

uweskw
2015-06-10, 20:37:44
Auf jeden Fall werden in den nächsten Monaten die GraKa Preise allg. nach unten korrigiert...

Konkurrenz belebt das Geschäft wie man so schön und zutreffend sagt

Dein Wort in Gottes Ohr... Da AMD immer noch keine Benches teasert und auch zum 16.06. wohl keine Fiji Testkarten zur Verfügung stehen, glaube ich nicht mehr an den Überflieger. Ich befürchte eher steigende Preise:frown:

greetz
US

BlacKi
2015-06-10, 20:51:51
Mythos;10659901']Wenn Fiji also nun maximal 275 Watt ziehen kann, wieviel elektrische Energie verpufft dann überhaupt in Hitze?
energie verschwindet nicht sie wandelt sich um. und da die grafikkarte keine energie weitergibt oder energie in bewegung umwandelt es sei denn sie explodiert (https://youtu.be/x60nAGSd0eQ?t=48), wandeln sich 275w auch zu 100% in wärme um. rechenarbeit ist keine energetische arbeit in der energie "gespeichert" ist.

Gipsel
2015-06-10, 20:52:01
Mythos;10659901']Ich hätte mal ne Frage, hier wird immer davon geredet, dass beispielsweise 300 Watt (fiktive Zahl) weggekühlt werden müssen wenn die Grafikkarte eben diese 300 Watt maximal zieht. Doch wie hoch ist denn die Verlustleistung überhaut? Gibt es dazu verlässliche Zahlen bzw ein relativ festes Verhältnis?Ja, 1:1.
Mythos;10659901']Wenn Fiji also nun maximal 275 Watt ziehen kann, wieviel elektrische Energie verpufft dann überhaupt in Hitze?Insgesamt exakt 275W. Auf der Karte selber vermutlich 274W oder so.

Minimale Abweichungen direkt auf der Karte kann es geben wegen:
- der Leistung, die z.B. über das Monitorkabel dorthin geht und somit im Monitor verheizt wird
- der kinetischen Energie, die in der Luft steckt, die die Karte verläßt (das ist im Milliwatt-Bereich und wandelt sich erst durch Reibung außerhalb der Karte in Wärme um; bei Wasserkühlung wäre es aber praktisch der komplette Verbrauch von Lüfter+Pumpe, da separiert, also wenige Watt)

Eine Grafikkarte (oder CPU) wandelt den Strom nun mal nicht in andere hochwertige Energieformen um (hebt also z.B. nichts hoch), sondern hat einen Wirkungsgrad von 100% im Sinne der Umwandlung in Wärme.

Thunder99
2015-06-10, 20:59:54
Ah ok, dann hab ich oben Bullshit geschrieben :D

Kriegsgeier
2015-06-10, 21:05:26
Sunrise, was willst du uns damit sagen?

Sunrise
2015-06-10, 21:08:05
Dein Wort in Gottes Ohr... Da AMD immer noch keine Benches teasert und auch zum 16.06. wohl keine Fiji Testkarten zur Verfügung stehen, glaube ich nicht mehr an den Überflieger. Ich befürchte eher steigende Preise:frown:

greetz
US
Hast du die letzten Seiten nicht verfolgt?

Quasi perfekte Skalierung nicht nur theoretisch anhand der Rohdaten (Rechenleistung), sondern auch synthetisch (3DMark). Jetzt fehlt also nur noch praktisch (Spiele, Anwendungen). Hier entscheidet dann vor allem die Treiberarbeit von AMD, die können sich damit nur selbst schlagen. Bzgl. der letzten Tonga-Ergebnisse mit neuen Treibern sieht es aber gut aus, und da wird noch mehr kommen.

Wenn du aber mal die 3DMark-Ergebnisse nimmst, die quasi perfekt skalieren (ausgehend von der 290X), dann siehst du von Fiji aktuell nicht alles, was das Ding zu leisten imstande ist. Dafür braucht es ausführliche Tests.

Der abartige Füllratendurchsatz aufgrund der ROPs, der Menge an TMUs etc. und diese gigantische Bandbreite (effektiv noch höher, da DCC). Lass dich einfach überraschen. Das sollte zumindest überall sehr hohe Settings zulassen, wenn der Speicher am Ende nicht limitiert.

Sunrise, was willst du uns damit sagen?
Das ist der letzte Eintrag auf Zauba zu verschifften Fijis. Dieses Mal steht sogar hochoffiziell Asetek dabei (wurde auf den üblichen Seiten auch schon angedeutet). Ich hab das mal etwas deutlicher gekennzeichnet, sonst verstehen es nur die, die hier permanent mitlesen.

Spasstiger
2015-06-10, 21:34:28
Der Vollständigkeit halber, der letzte Zauba-Eintrag zu Fiji:

http://abload.de/img/fiji_zauba_080615usq6v.png
Knapp 78.000 Indische Rupien pro Stück, das sind über 1200 US-$. Kann man nur hoffen, dass das lediglich irgenwelche Testsamples sind und die AIBs in größeren Stückzahlen günstiger produzieren können.

Nakai
2015-06-10, 21:45:07
Ein Stück mehr als die R9 295X.

Ich bin schon auf die Nano gespannt. Wenn die Wasserkühlung völlig ausgefahren wird. :freak:

Sunrise
2015-06-10, 21:56:22
Knapp 78.000 Indische Rupien pro Stück, das sind über 1200 US-$. Kann man nur hoffen, dass das lediglich irgenwelche Testsamples sind und die AIBs in größeren Stückzahlen günstiger produzieren können.
Waren bisher immer recht stabil zwischen 75.000 und 78.000 INR bei Fiji XT (Fury X WCE). Keine Ahnung was das wirklich aussagt.

Wenn man aber die folgenden Listungen vergleicht, dann stimmen die relativ genau:

Die letzte Titan X, die dort am 19. Mai 2015 gelistet ist, steht mit 62,897 INR drin. Das sind um die $980 US.

Die hier steht bei Zauba mit 36,092 INR drin, also etwa $560 US (bzw. 499 EUR):
https://geizhals.de/gigabyte-geforce-gtx-980-gaming-g1-gv-n980g1-gaming-4gd-a1168440.html

Nakai
2015-06-10, 22:49:12
Das ist völlig egal. Die Preise von unreleasten Produkten auf Zauba sagen nichts über die reellen Preise dann aus.

Das hat natürlich nichts mit releasten Produkten zu tun, da sollten die Preise ähnlich sein.

Unicous
2015-06-10, 22:57:53
Der Vollständigkeit halber, der letzte Zauba-Eintrag zu Fiji:

http://abload.de/img/fiji_zauba_080615usq6v.png

Lustigerweise haben wir uns damit einmal im Kreis gedreht. Anfangs ging man von Asetek aus, dann gab es Einträge zu CoolerMaster (die aber eher normale AC liefern), dann gab es Behauptungen von mehreren Seiten es wäre CoolIT (u.a. Zulieferer für Corsair) und jetzt gibt es wieder einen Eintrag mit Asetek.;D

Thunder99
2015-06-10, 23:14:30
Evt haben sie mit 3 Herstellern getestet um den besten zu nehmen? :D

StefanV
2015-06-11, 08:24:38
Evt haben sie mit 3 Herstellern getestet um den besten zu nehmen? :D
Oder alle 3 Hersteller liefern die Kühler...
Das hat man ja auch schon bei den normalen CPU Box Kühlern gemacht.
Da gibts auch die gleichen Kühler von mehreren Herstellern, u.A. AVC und Cooler Master.

tm0975
2015-06-11, 08:39:15
wurde bereits (abseits von fiji) die Leistung der R 280-290x bzw der zu erwartenden r380-390x unter dx12 diskutiert?
bin gestern über (einen) benchmark(s) gestolpert, den/die ich aber jetzt nicht finden konnte. kernaussage war, dass sich unter dx12 das leistungsniveau deutlich zu den radeon verschiebt und die 290x bereits richtung titan x geht. wie wahrscheinlich könnte das denn überhaupt sein?

boxleitnerb
2015-06-11, 08:45:12
In synthetischen Tests durchaus möglich imo, aber in der Praxis höchstwahrscheinlich nicht bzw. eher selten. Meine Einschätzung ;)

robbitop
2015-06-11, 08:52:32
Wahre Wunder, AA ist jetzt (fast) kostenlos in jeder Situation, der neue VSR-Modus mit verbesserter Bildqualität wird komplett in Hardware berechnet
Warum sollte AA nun fast kostenlos sein? Die Zeiten als MSAA bandbreitenlimitiert waren sind seit fast 1 Jahrzehnt vorbei.
VSR wurde schon vorher in Hardware berechnet. Was meinst du damit eigentlich?
VSR lief bis dato über den Scaler (das ist Hardware) und soll künftig über die ALUs laufen (ist auch Hardware). Letzteres ist flexibler, knappst aber je nach Filterkernel Leistung ab.

r3ptil3
2015-06-11, 08:52:56
wurde bereits (abseits von fiji) die Leistung der R 280-290x bzw der zu erwartenden r380-390x unter dx12 diskutiert?
bin gestern über (einen) benchmark(s) gestolpert, den/die ich aber jetzt nicht finden konnte. kernaussage war, dass sich unter dx12 das leistungsniveau deutlich zu den radeon verschiebt und die 290x bereits richtung titan x geht. wie wahrscheinlich könnte das denn überhaupt sein?

Da gings wohl eher um die Reduzierung des Overheads. Das hat jedoch auf die tatsächliche Spieleleistung noch wenig auszusagen. Dass eine 290X grundsätzlich schneller sein wird als eine Titan X ist jedoch unrealistisch.

dargo
2015-06-11, 08:54:35
bin gestern über (einen) benchmark(s) gestolpert, den/die ich aber jetzt nicht finden konnte. kernaussage war, dass sich unter dx12 das leistungsniveau deutlich zu den radeon verschiebt und die 290x bereits richtung titan x geht. wie wahrscheinlich könnte das denn überhaupt sein?
Gleich Null.

Dass sich da wenige Prozente im einstelligen Bereich zwischen beiden IHVs was verschiebt ist nicht undenkbar. Dass aber Hawaii an die Titan X rankommt ist ausgeschlossen. Außer die CPU limitiert.

Hübie
2015-06-11, 09:03:00
TX@D3D11 und R9 290@D3D12. Das werden die wohl gegenüber gestellt haben. Ist aber alles sehr vage ohne Angaben wo, wie und was. Also nix drauf geben.
@robbitop: Ist dein Sensor kaputt? Das meinte er nicht ernst ;)

robbitop
2015-06-11, 09:05:36
@robbitop: Ist dein Sensor kaputt? Das meinte er nicht ernst ;)
Da kann man sich nie sicher sein. Nicht jeder weiß, wie diese Dinge funktionieren. Ist ja auch völlig in Ordnung. ;)

Thunder99
2015-06-11, 10:15:05
wurde bereits (abseits von fiji) die Leistung der R 280-290x bzw der zu erwartenden r380-390x unter dx12 diskutiert?
bin gestern über (einen) benchmark(s) gestolpert, den/die ich aber jetzt nicht finden konnte. kernaussage war, dass sich unter dx12 das leistungsniveau deutlich zu den radeon verschiebt und die 290x bereits richtung titan x geht. wie wahrscheinlich könnte das denn überhaupt sein?
Eher nicht. Es bedarf schon deutlich mehr als nur DX12 damit die Karte ihre Rohleistung auf die Straße bringen kann :) Evt sieht man ja bei Fiji eine bessere Ausnutzung der theoretischen Rechenkraft. Tonga hat schon mal gezeigt das es nach vorne gehen kann :)

moonraker
2015-06-11, 11:13:20
Ich kann mir schon vorstellen, dass es in gewissen Szenarien bis zu 15 % oder so an Mehrleistung kommen kann.

Kommt halt ganz auf den Testcase an. Manche werden gar keine Veränderung zeigen, manche teils starke Verbesserung.

Dawn on Titan
2015-06-11, 11:25:28
Aber kaum 10-15% Unterschied zwischen NV und AMD. Entweder ein Spiel ist CPU limitiert, dann könnte DX12 helfen und zwar beiden, oder es ist es nicht. Gut dann kann der Treiber einen Unterschied machen. Ob jetzt aber jubeln würde wenn der DX12 Treiber bei AMD plötzlich 10% schneller ist als der DX11, wenn der NV sagen wir nur 2-3% gewinnt, da habe ich Zweifel. Gerade wenn AMD in den Spielen vorher langsamer war.

moonraker
2015-06-11, 11:43:29
Das war als Performancegewinn relativ zu DX11 gemeint.

Thunder99
2015-06-11, 11:49:29
Wobei AMD mehr an Prozente gewinnen könnte da nvidia schon vorgelegt hatte

Dawn on Titan
2015-06-11, 11:50:07
Das war mir klar. Ich glaube aber nicht, dass AMD 10-15% gewinnt und NV praktisch nichts. Und vor allem bin ich mir nicht sicher ob ich AMD da bejubeln würde, falls bei NV DX11 = DX12 ist.

moonraker
2015-06-11, 11:52:18
Das hat ja auch keiner behauptet?`

Es geht nicht in jedem Post um einen Vergleich zwischen AMD und NV.

dildo4u
2015-06-11, 12:32:09
Ich glaube du meinst das AMD hatte vor eine paar Monaten noch ein Vorteile unter DX12,das wurde mitlerweile von Nvidia gefixt.

Alter Test:
http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

Neuer Test:

http://abload.de/img/dx12rsulp.png

http://www.eurogamer.net/articles/digitalfoundry-2015-why-directx-12-is-a-gamechanger

Die 970 schafft jetzt mher Drawcall's als die 980 im März.Die Test's sind nich 100% Vergleichbar da CB ein i7 nutzt aber der Trend ist zu erkennen.

Thunder99
2015-06-11, 12:38:23
und AMD schafft das auch, zumindest arbeiten sie dran (siehe Win 10 Treiber @ 7/8.1)

dildo4u
2015-06-11, 12:49:42
und AMD schafft das auch, zumindest arbeiten sie dran (siehe Win 10 Treiber @ 7/8.1)
Sie arbeiten an der DX11 Perfomance es ging ihm um DX12.Unter DX12 scheinen sie jetzt ca das selbe Level zu haben GTX970=290X.

Thunder99
2015-06-11, 12:53:29
Ah ok, danke für die Aufklärung. :)

Zu den Analysen der Hauptseite bzw den News wäre es irgendwie schlecht wenn die WCE gegen die TX getestet wurde. Anderseits sagt es 0 über die Übertaktbarkeit des Fiji aus. Ausgehend wenn die Werte stimmen sollten müsste Fiji +200-400MHz mitmachen um auch auf OC sich mit der TX anzulegen.

OBrian
2015-06-11, 13:13:50
Es kann durchaus sein, daß der Standardtakt der Nano geringer ist als beim luftgekühlten Topmodell und nur ein Turbomodus noch enthalten ist, um die Fähgikeiten der Wakü voll ausfahren zu können. Aber wer das Ding einfach nur in ein kleines ITX-Gehäuse bauen will, freut sich um eine verringerte TDP bei Standardtakt mehr als über OC-Headroom. Ist ja durchaus üblich, daß zwei BIOSe verbaut sind, und man weiß eben nicht, was getestet wurde.

Das ist sowieso imemr das Problem bei solchen Leak-Benches, die Testumgebung ist immer unklar, da kann viel in die eine oder andere Richtung ausschlagen. Ohne klar dargelegte, nachvollziehbare Bedingungen sind solche Werte für die Katz. Es ist ja nicht mal klar, ob derjenige, der diese Vergleichsbalken gemalt hat, überhaupt auf dem gleichen Untersatz getestet hat.

Thunder99
2015-06-11, 13:51:47
Könnte mir sogar vorstellen das die Werte erdacht wurden. Ein BIOS für die Karte wurde ja noch zurückgehalten auf der Computex

horn 12
2015-06-11, 13:55:20
Hard-Launch dann am 25 Juni mit Benchmarks der kompletten Fiji Pro /X AIO Karte.
Bios wird erst am 18 Juni aufgespielt und bis die Karten dann bei den Händlern eintreffen ... wird Anfang Juli werden.

Sup Optimal, nur die Reviewer sollten das Bios früher bekommen... Wohl am 16 Juni.

MilesEdgeworth
2015-06-11, 13:55:27
Fudzilla schreibt in einem Artikel (http://www.fudzilla.com/news/graphics/37967-amd-r9-r380-and-r390-have-respun-chips)

The Radeon R390 an R380 cards will be based on improved Hawaii and Tonga chips. Radeon R9 290X and 290 will be replaced by an improved Hawaii-based chip codenamed Granada that is basically improved Hawaii silicon. This is not a simple rebrand, it is an improved design, or so our sources claim, but they didn’t want discuss the details. The Radeon R9 390X and R9 390 and these cards will launch on June 18th.


Nicht gerade die vertrauenswürdigste Quelle aber es besteht wohl doch noch Hoffnung. Ein effizienzoptimierter Hawaii wäre doch eine positive Überraschung.

Nightspider
2015-06-11, 13:57:21
Fudzilla haut ja auch nur oberflächlich das Buzzword "improved" raus ohne ins Detail zu gehen.

r3ptil3
2015-06-11, 14:10:36
Das wäre wirklich eine Überraschung. Da wird Grenada gleich schon mal einiges interessanter.

blaidd
2015-06-11, 14:16:15
Fudzilla haut ja auch nur oberflächlich das Buzzword "improved" raus ohne ins Detail zu gehen.

Vielleicht stimmt's ja trotzdem ;)

Ailuros
2015-06-11, 14:32:18
Warum sollte AA nun fast kostenlos sein? Die Zeiten als MSAA bandbreitenlimitiert waren sind seit fast 1 Jahrzehnt vorbei.
VSR wurde schon vorher in Hardware berechnet. Was meinst du damit eigentlich?
VSR lief bis dato über den Scaler (das ist Hardware) und soll künftig über die ALUs laufen (ist auch Hardware). Letzteres ist flexibler, knappst aber je nach Filterkernel Leistung ab.

Wenn MSAA nirgends heutzutage limitieren wuerde, haetten die IHVs auch keine besonderen Grund AA Alternativen zu entwickeln. AF ist zwar ein anderes Kapitel aber es limitiert in heutigen Faellen bzw. Anwendungsgebieten nirgends die Bandbreite, obwohl es in Eckfaellen schon moeglich waere.

Das Thema Bandbreite interessiert im Grund eher im Angesicht fuer wie lange HBM nur exclusiv im high end vorhanden sein wird fuer professionaelle Maerkte. Sonst Milchmaechen-Rechnung (wenn Fiji auch wirklich bis zu 1:2 fuer FirePROs reicht....) und rein daemlicher Zufall:

2.816 TFLOPs FP64 ------> 320 GB/sec

4.506 TFLOPs FP64 ------> ???

:freak:

Screemer
2015-06-11, 15:44:16
Die aa alternativen gibts doch eh nur weil msaa nicht mehr richtig greift bei den ganzen PP Effekten und neumodernen renderern. Performance kostet es außerdem.

robbitop
2015-06-11, 15:48:18
So richtig saubere MSAA-Implementierungen (@DR Engine) sieht man in der Tat äußerst selten. IIRC zuletzt bei Crysis 3.

aufkrawall
2015-06-11, 15:58:33
Hatte bei Crysis 3 komplett im Zoom versagt.

Grestorn
2015-06-11, 15:58:34
So richtig saubere MSAA-Implementierungen (@DR Engine) sieht man in der Tat äußerst selten. IIRC zuletzt bei Crysis 3.

GTA V hat eine ordentliche Implementierung, m.E.

aufkrawall
2015-06-11, 15:59:43
Hat Grafikfehler mit der Vegetation bei niedrigem Sonnenstand gemacht afair.
Zudem kostet 4xMSAA dort mehr als 70% mehr Bildpunkte.

mboeller
2015-06-11, 16:40:16
Mit einer priese Salz da unterschiedliche Systeme:

http://videocardz.com/56225/amd-radeon-fury-x-3dmark-performance

Cool! Ist das jetzt der Best-Case für Fiji oder der Worst-Case?

Bandbreite sollte ja bei Fiji nicht das Problem sein und die 3DMarks waren noch nie als Bandbreitenhungrig bekannt (siehe Intel IGPs)

aufkrawall
2015-06-11, 16:42:40
Worst Case auf keinen Fall, in 4k liegt dieser Benchmark den Radeons recht gut (viel Compute, Partikel und PP).

blaidd
2015-06-11, 16:47:16
Worst Case auf keinen Fall, in 4k liegt dieser Benchmark den Radeons recht gut (viel Compute, Partikel und PP).

...und Tessellation bis zum Erbrechen. Best Case ist das Szenario jedenfalls für bisherige Radeons auch nicht. ;)

dildo4u
2015-06-11, 17:02:44
290X ist in 4k deutlich vor der 970 da scheint was anderes als Tesselation zu limitieren.Hat mal jemand gemssen wie hoch der Vram Verbauch dort ist?

Palpatin
2015-06-11, 17:06:47
Worst Case auf keinen Fall, in 4k liegt dieser Benchmark den Radeons recht gut (viel Compute, Partikel und PP).
4k ist aber generell so oder? Ich mein selbst bei Project Cars kommt man da verhältnissmäßig gut weg, im vergleich zu den anderen Auflösungen.
http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/

StefanV
2015-06-11, 17:41:17
Fudzilla haut ja auch nur oberflächlich das Buzzword "improved" raus ohne ins Detail zu gehen.
...was durchaus Gründe haben könnte ;)

Das kann einerseits eine verbesserte Fertigung von TMSC sein, besseres Package, besseres PCB Design, Fertigung von TMSC auf GF portiert oder ein neuer Metal Spin.

Aber warten wir mal ab und rauchen unseren Tee...

Thunder99
2015-06-11, 17:42:15
5-10% mehr Speer bei 5-10% weniger Verbrauch oder gleichen Verbrauch ist eine gute Überarbeitung. Was für diejenigen die bis jetzt keine Hawaii GPU wollten wegen dem nicht mehr taufrischen Design

dargo
2015-06-11, 17:47:40
5-10% mehr Speer bei 5-10% weniger Verbrauch oder gleichen Verbrauch ist eine gute Überarbeitung. Was für diejenigen die bis jetzt keine Hawaii GPU wollten wegen dem nicht mehr taufrischen Design
Meinst du mich? :D

Perfekt wäre bei Grenada eine max. TDP von 220W. Dafür kann man sehr gute Custom-Kühllösungen anbieten. Aber so richtig daran glauben mag ich noch nicht. Mal abwarten. :cool:

PS: und bitte, bitte einen Fan-Zero-Modus in Idle. :massa: Das sollte zum Standard werden!

aufkrawall
2015-06-11, 17:51:19
4k ist aber generell so oder? Ich mein selbst bei Project Cars kommt man da verhältnissmäßig gut weg, im vergleich zu den anderen Auflösungen.
http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/
Kommt drauf an. Ich und Nightspider konnten bei BF4 MP Maps ohne MSAA keine Vorteile für Hawaii XT in 4k gegenüber der 980 feststellen.

Dawn on Titan
2015-06-11, 17:54:54
Ich versau die Vorfreude ungern, aber auch Curacao war ein verbesserter pitcairn:

http://www.3dcenter.org/news/amds-curacao-chip-scheint-etwas-schneller-als-der-pitcairn-chip-zu-sein


Ach ja, das Referenzmodell war 50mhz schneller als der Vorgänger....

Thunder99
2015-06-11, 18:10:49
Meinst du mich? :D

Perfekt wäre bei Grenada eine max. TDP von 220W. Dafür kann man sehr gute Custom-Kühllösungen anbieten. Aber so richtig daran glauben mag ich noch nicht. Mal abwarten. :cool:

PS: und bitte, bitte einen Fan-Zero-Modus in Idle. :massa: Das sollte zum Standard werden!

Wird es von Sapphire geben. Deren Nitro Serie wird :naughty:

PingpiN
2015-06-11, 19:07:11
Wieso versteht es amd eigentlich nicht das es nicht reicht wenn man mit nvidia auf augenhöhe ist?

eine amd karte muss spürbar schneller sein als eine nvidia karte oder sie wird nicht gekauft.

war immer (ati) amd fanatiker aber ich weine der mannschaft keine träne nach.es wird nicht lange dauern bis das grafik verhältniss bei 90% nvidia und 10% amd liegt.vorallem der 4gb speicher ist doch wieder so ein punkt wo amd schon alles vermasselt hat.amd muss in jeder disziplin schneller oder besser als nvidia sein.


:facepalm:

Screemer
2015-06-11, 19:39:29
:facepalm:
völlig richtig :facepalm:

Tamagothi
2015-06-11, 19:53:25
Wieso versteht es amd eigentlich nicht das es nicht reicht wenn man mit nvidia auf augenhöhe ist?

eine amd karte muss spürbar schneller sein als eine nvidia karte oder sie wird nicht gekauft.

war immer (ati) amd fanatiker aber ich weine der mannschaft keine träne nach.es wird nicht lange dauern bis das grafik verhältniss bei 90% nvidia und 10% amd liegt.vorallem der 4gb speicher ist doch wieder so ein punkt wo amd schon alles vermasselt hat.amd muss in jeder disziplin schneller oder besser als nvidia sein.


:facepalm:

Du bist mein Held. Glaubst einfach alles was im Netz auftaucht

:facepalm:

Das einzige was wir wissen ist das wir nichts wissen Punkt.

Hübie
2015-06-11, 20:12:05
war immer fanatiker aber ich weine der mannschaft keine träne nach

Fixed this for you :cool:

Ich mach da erst mal kein Fass von auf. Warten wir ab was die 4 GB bieten.

merfu
2015-06-11, 20:30:55
Wieso versteht es amd eigentlich nicht das es nicht reicht wenn man mit nvidia auf augenhöhe ist?

eine amd karte muss spürbar schneller sein als eine nvidia karte oder sie wird nicht gekauft.

war immer (ati) amd fanatiker aber ich weine der mannschaft keine träne nach.es wird nicht lange dauern bis das grafik verhältniss bei 90% nvidia und 10% amd liegt.vorallem der 4gb speicher ist doch wieder so ein punkt wo amd schon alles vermasselt hat.amd muss in jeder disziplin schneller oder besser als nvidia sein.


:facepalm:
:facepalm::facepalm::facepalm:

StefanV
2015-06-11, 20:35:44
PS: und bitte, bitte einen Fan-Zero-Modus in Idle. :massa: Das sollte zum Standard werden!
...das ist schon bei Netzteilen bullshit und wird bei Grafikkarten nicht anders sein.

Aber wie sagte mal irgendwann, irgendwo, irgendein Firmenvertreter:
Wofür brauchen wir gute Lüfter, wir haben doch einen Zero Fan Modus!!111

Und genau DAS ist doch das Problem an dem ganzen Mist!
Statt dass man hier gescheite Lüfter mit ordentlichen Lagern verbaut, werden sie einfach abgeschaltet. Und dabei gibt es auch sehr gute Lüfter, die auch sehr leise sind - nur halt nicht für 50 Cent das Stück. Und DAS dürfte das eigentliche Problem an dem ganzen sein.

Denn dem User kann man eher irgendeinen Zero-Fan Bullshit unterjubeln als einen sehr guten Lüfter mit richtig gutem FDB Lager...

r3ptil3
2015-06-11, 20:37:47
...das ist schon bei Netzteilen bullshit und wird bei Grafikkarten nicht anders sein.

Aber wie sagte mal irgendwann, irgendwo, irgendein Firmenvertreter:
Wofür brauchen wir gute Lüfter, wir haben doch einen Zero Fan Modus!!111

Und genau DAS ist doch das Problem an dem ganzen Mist!
Statt dass man hier gescheite Lüfter mit ordentlichen Lagern verbaut, werden sie einfach abgeschaltet. Und dabei gibt es auch sehr gute Lüfter, die auch sehr leise sind - nur halt nicht für 50 Cent das Stück. Und DAS dürfte das eigentliche Problem an dem ganzen sein.

Denn dem User kann man eher irgendeinen Zero-Fan Bullshit unterjubeln als einen sehr guten Lüfter mit richtig gutem FDB Lager...

Und was hältst du von Zero-FAN + gutes Lager????????

MilesEdgeworth
2015-06-11, 20:39:22
Naja, das beste wäre wohl Zero-Fan und zusätzlich ein anständiger Lüfter. Kein Lüfter ist nämlich zwangsläufig leiser als einer, ganz unabhängig davon wie leise dieser ist. Ist letztendlich total egal, ob die GPU jetzt 30°C oder 50°C im Idle hat. Auf das eine Watt, das sich da möglicherweise noch einsparen lässt kommt es dann auch nicht mehr an..

StefanV
2015-06-11, 20:39:57
Und was hältst du von Zero-FAN + gutes Lager????????
Nix...

So wie Sapphire das bei einigen Karten gemacht hat (2 Lüfter abschalten, einen weiter drehen lassen) ist OK...

Das ist IMO der einzig sinnvolle Kompromiss aus Kühlung und Lautheit. Du kannst dann z.B. auch mit 2 verschiedenen Lüftern arbeiten.
2 'High Speed' Modellen für die Kühlung (4krpm) und einem 'low speed' für Idle und Unterstützung (max. 2000rpm)...

Oder man regelt die Lüfter einfach wieder auf 6% runter, wie es bei einigen Radeon HD4870 der Fall war (z.B. Power Color)...

Lu
2015-06-11, 20:40:38
Ein Lüfter mit gutem Lager braucht keinen Zero Fan Mode. Den hört man schlichtweg nicht.

dargo
2015-06-11, 20:53:13
...das ist schon bei Netzteilen bullshit und wird bei Grafikkarten nicht anders sein.

Aber wie sagte mal irgendwann, irgendwo, irgendein Firmenvertreter:
Wofür brauchen wir gute Lüfter, wir haben doch einen Zero Fan Modus!!111

Und genau DAS ist doch das Problem an dem ganzen Mist!
Statt dass man hier gescheite Lüfter mit ordentlichen Lagern verbaut, werden sie einfach abgeschaltet. Und dabei gibt es auch sehr gute Lüfter, die auch sehr leise sind - nur halt nicht für 50 Cent das Stück. Und DAS dürfte das eigentliche Problem an dem ganzen sein.

Denn dem User kann man eher irgendeinen Zero-Fan Bullshit unterjubeln als einen sehr guten Lüfter mit richtig gutem FDB Lager...
Ich merke schon... du hast noch keine MSI GTX 970 Gaming 4G in der Praxis erlebt. Sonst würdest du so einen Bullshit nicht von dir geben.

r3ptil3
2015-06-11, 20:53:45
XFX R9 390X

http://cdn.wccftech.com/wp-content/uploads/2015/06/L92PpKc.jpg

http://wccftech.com/amd-radeon-300-series-arriving-retailers-today/

StefanV
2015-06-11, 20:55:09
Ein Lüfter mit gutem Lager braucht keinen Zero Fan Mode. Den hört man schlichtweg nicht.
Genau das ist der Punkt!
Und die winzigen Lüfter, die auf GraKas bisher zum Einsatz kommen, können auch gerne ihre 1000 Runden drehen, das ist idR gar kein Problem.

Wenn, dann kann man meinetwegen gerne 1 (von 2) bzw 2 (von 3) abschalten, das wäre noch Möglich.
Man könnte auch mit unterschiedlichen Lüftern arbeiten - wie z.B. MSI bei der GTX 780 Lightning...

Da gibt es vieles, was durchaus sinnvoll wäre. Aber das heißt nicht, dass man das auch macht!
Denn der User ist meist so dermaßen uninformiert, dass der jeden Bullshit, der halbwegs ausschaut, frisst...

Dieser Zero Fan Bullshit gehört dazu. Denn das hilft letztendlich NUR dem Hersteller -> höhere Temperaturen -> niedrigere erwartete Lebenszeit.

Oh und nebenbei: der Startvorgang ist das, was etwas am stärksten belastet!
Ein Lüfter, der so seine 300 Runden die Minute dreht, wird eher länger halten als einer, der permanent an und aus geschaltet wird (oder bei 100% läuft ;))

Ich merke schon... du hast noch keine MSI GTX 970 Gaming 4G in der Praxis erlebt. Sonst würdest du so einen Bullshit nicht von dir geben.
Kannst mir ja eine schenken, dann kann ich mir die in der Praxis mal anschauen ;)

Aber mir reichen hier eigentlich meine Gigabyte Karten (2x Tahiti, 1x GTX 570), die sind auch schon relativ leise im idle und kaum wahrzunehmen. Nur unter Last sind sie eher nerviger (da der Kühler mit der GHz/280X schlicht überfordert ist. Mit dem 7970 Standard BIOS deutlich angenehmer!)...

Aber das ändert auch nichts daran, dass dieses Semi Fanless oder 'Zero RPM mode' einfach Bullshit ist!
Und in der Praxis deutlich MEHR Nachteile und eigentlich gar keinen Vorteil hat - wenn man denn einen gescheiten (leisen) Lüfter nutzen würde...

dargo
2015-06-11, 21:00:28
Genau das ist der Punkt!
Und die winzigen Lüfter, die auf GraKas bisher zum Einsatz kommen, können auch gerne ihre 1000 Runden drehen, das ist idR gar kein Problem.

Und ob das ein Problem ist. Zwei von diesen Lüftern 1000RPM sind in meinem Case nicht unhörbar (Gehäuse ist sogar gedämmt, also kein schweizer Käse). Und genau das will ich in Idle! Bei 2x 500RPM können wir über "unhörbar" nochmal diskutieren. Übrigens hatte die GPU bei mir 38°C in Idle, komplett passiv. Also nix mit höheren Temperaturen. Das ist bei der Kühlergröße auch gar kein Problem bei nur ~10W in Idle. Ich gehe sogar davon aus, dass mit HBM der Idleverbrauch nochmal sinkt.

aufkrawall
2015-06-11, 21:02:48
Ich merke schon... du hast noch keine MSI GTX 970 Gaming 4G in der Praxis erlebt. Sonst würdest du so einen Bullshit nicht von dir geben.
Deren Lüfter laufen aber auch mit 500rpm verdammt leise.
Mit manueller Lüfterkurve war die Geräuschkulisse wirklich ein Traum.
Ich hoffe, der Typ, der das bei 980 Gaming mit der manuellen Steuerung verbockt hat, verbringt seine Zeit jetzt mit dem Rumsitzen beim Arbeitsamt...

MR2
2015-06-11, 21:07:12
≥ 1050Mhz bei der Fury X (Water Cooled), was auch immer das heißt:-)

dargo
2015-06-11, 21:16:57
≥ 1050Mhz bei der Fury X (Water Cooled), was auch immer das heißt:-)
Ich würde da drauf nichts geben. Das sind sicherlich nur Schätzungen/Wünsche. Woher soll jemand wissen wie hoch Fiji taktet wenn die Karten noch nicht mal ein Bios drauf hatten?

y33H@
2015-06-11, 21:22:25
1,05 GHz sagt der Treiber ;-) was auch immer das meint ... Base, Boost, whatever.

Raff
2015-06-11, 21:27:33
Also bei bisherigen Radeons steht immer der Bestcase (max. Boost) im Treiber/CCC, da es ja keinen Basistakt in der Nähe gibt. Ich denke nicht, dass das bei Fiji anders ist, aber wer weiß ...

MfG,
Raff

aufkrawall
2015-06-11, 21:28:38
WCE = "Uber" (konstant)
Luft: auch niedriger
?

Undertaker
2015-06-11, 21:29:57
Dieser Zero Fan Bullshit gehört dazu. Denn das hilft letztendlich NUR dem Hersteller -> höhere Temperaturen -> niedrigere erwartete Lebenszeit.

Wie kommst du denn auf den Trichter? Mit einem halbwegs effizienten Idle-Mode liegt die Kerntemperatur deutlich unter 50 °C, da kann mir keiner erzählen, dass das die Lebenserwartung senkt (der Zusammenhang mit der Temperatur wird eher einer Exponentialfunktion folgen, da sind 30 oder 50°C idle mehr oder minder egal).

Oh und nebenbei: der Startvorgang ist das, was etwas am stärksten belastet!
Ein Lüfter, der so seine 300 Runden die Minute dreht, wird eher länger halten als einer, der permanent an und aus geschaltet wird (oder bei 100% läuft ;))

Wenn der Durchschnitts-PC 90% im 2D-Betrieb läuft, schont das die Lager weit mehr als ein paar zusätzliche Anlaufvorgänge. Zumal das Anlaufen ja auch nur in Spielen passieren wird – wie oft startet man am Tag Spiele? Zumal eine sinnvolle Abstimmung auch derart erfolgt, dass der Lüfter erst nach einer Weile unter Last anspringt und nach dem Beenden noch kurz nachläuft (d.h. nicht bei jedem Desktop-Tab geht der Lüfter an und aus).

Zero Fan ist imo ein absolutes Muss und war längst überfällig (und zumindest in den unteren Leistungsklassen auch vom Leerlaufverbrauch schon lange möglich).

y33H@
2015-06-11, 21:33:06
Mal gucken wie weit Fiji XT runter kann, bei der 290X waren es glaub 727 MHz :usad:

fondness
2015-06-11, 21:34:14
WCE = "Uber" (konstant)
Luft: auch niedriger
?

Na hoffentlich nicht. Den Takt um jeden Preis zu halten sorgt nur wieder dafür das Redakteure den worst case Verbrauch raus suchen und das als allgemeingültig verkaufen, während die Konkurrenz schön drosselt in solchen Szenarien. Die Mühe den Verbrauch über die Zeit bei verschiedenen Szenarien zu messen macht sich ja leider niemand.

r3ptil3
2015-06-11, 21:37:27
Also bei bisherigen Radeons steht immer der Bestcase (max. Boost) im Treiber/CCC, da es ja keinen Basistakt in der Nähe gibt. Ich denke nicht, dass das bei Fiji anders ist, aber wer weiß ...

MfG,
Raff

Habt ihr eigentlich schon eine oder mehrere Fijis erhalten?
Ich nehme an das darfst du jetzt nicht einfach so sagen :D

Kartenlehrling
2015-06-11, 21:42:26
Du weißt aber schon das selbst die Bestätigung unter Geheimhaltungsvereinbarung steht.

blaidd
2015-06-11, 21:44:14
Habt ihr eigentlich schon eine oder mehrere Fijis erhalten?
Ich nehme an das darfst du jetzt nicht einfach so sagen :D

Nein. :wink:

aufkrawall
2015-06-11, 21:49:43
Na hoffentlich nicht. Den Takt um jeden Preis zu halten sorgt nur wieder dafür das Redakteure den worst case Verbrauch raus suchen und das als allgemeingültig verkaufen, während die Konkurrenz schön drosselt in solchen Szenarien. Die Mühe den Verbrauch über die Zeit bei verschiedenen Szenarien zu messen macht sich ja leider niemand.
CB hatte bei Anno 2070 den Verbrauch gemessen und in den Benchmarks auch die fps des Spiels.
PCGH vergleicht sogar mehrere Spiele. Ich sehe nicht, wo da ein falscher Eindruck entstünde...
Sonst müsste man in jedem Spiel die Perf/W ermitteln, das ist für einen Release-Test wohl kaum zumutbar.

fondness
2015-06-11, 21:52:30
Einige neue Rumors:

According to our industry sources, AMD is going to have just 30,000 units of its HBM-based Radeon Fury and Fury X video cards. This is not many at all, considering that the only other cards that AMD will be releasing will be rebrands of its Hawaii-based Radeon 200 series cards.

http://www.tweaktown.com/news/45835/amd-radeon-fury-rumored-limited-30-000-units-2015/index.html

According to SweClockers, AMD Fury (the slower Fiji-based model) is still not ready for launch. Unlike Fury X, which is said to launch only with water-cooling solutions, Fury non-X will be available with custom boards and custom cooling solutions.

The reason for the Fury non-X launch delay could be related either: low yields of Fiji silicon (Fiji PRO is cut-down part), or AIB partners being in the process of developing their own custom boards. Or maybe both reasons.

Last but not least, they said there are no air-cooled Fury X cards planned (only water-cooled).

http://www.sweclockers.com/nyhet/20684-radeon-fury-x-endast-med-vattenkylning-nedskalade-fury-anmals-saknad

Plus neues Bild:
http://www.chiphell.com/thread-1311643-1-1.html

Here’s a new picture of Fury X showing both the card and the radiator, with .. rather interesting fan. You might have noticed that each sample that was pictured throughout the past 2 weeks has slightly different fan. There is a rumor that AMD decided to make each batch unique, so they can keep track of who leaked it.

http://videocardz.com/56251/amd-radeon-300-fury-rumors-leaks

http://picload.org/image/ildwwli/amd-radeon-fury-x-chiphell.jpg

ChaosTM
2015-06-11, 21:52:54
Mal gucken wie weit Fiji XT runter kann, bei der 290X waren es glaub 727 MHz :usad:

520/625 sind es bei mir

M4xw0lf
2015-06-11, 21:55:20
Einige neue Rumors:



http://www.tweaktown.com/news/45835/amd-radeon-fury-rumored-limited-30-000-units-2015/index.html
Herrje. Das kann wieder was werden.

BlacKi
2015-06-11, 22:03:08
30k stück im ganzen jahr 2015? mhh limited edition, dann kann man die teurer verkaufen^^ eine ordern und dann +300 auf ebay verticken XD

Ravenhearth
2015-06-11, 22:03:22
Die Yields können doch gar nicht so schlecht sein. Ein 550mm²-Chip sollte in 28nm keine größeren Probleme bereiten. Wenn, dann liegt das eher an HBM vermute ich mal.

fondness
2015-06-11, 22:03:32
CB hatte bei Anno 2070 den Verbrauch gemessen und in den Benchmarks auch die fps des Spiels.
PCGH vergleicht sogar mehrere Spiele. Ich sehe nicht, wo da ein falscher Eindruck entstünde...
Sonst müsste man in jedem Spiel die Perf/W ermitteln, das ist für einen Release-Test wohl kaum zumutbar.

Es wird ausschließlich der max. Verbrauch gemessen, eine Karte die den Takt hält ist da klar im Nachteil.

dargo
2015-06-11, 22:07:09
1,05 GHz sagt der Treiber ;-)
Ah... ihr habt schon eine? Na dann. :)

aufkrawall
2015-06-11, 22:09:32
Es wird ausschließlich der max. Verbrauch gemessen, eine Karte die den Takt hält ist da klar im Nachteil.
Dann ist die TDP halt zu hoch eingestellt.

dargo
2015-06-11, 22:12:16
http://picload.org/image/ildwwli/amd-radeon-fury-x-chiphell.jpg
*g*

Das gibt wieder neuen Spielraum für Spekulationen beim Lüfter.
http://www.scythe-eu.com/produkte/luefter/gentle-typhoon-120-mm.html

Welcher ist es? :D

fondness
2015-06-11, 22:14:15
Dann ist die TDP halt zu hoch eingestellt.

Oder man misst den Durchschnittsverbrauch über die Zeit, dann wären solche Spielchen nicht mehr sinnvoll. So wie aktuell gemessen wird muss man die Karte so designen das sie immer am TDP-Limit klebt.

Isen
2015-06-11, 22:14:44
Dieser: D1225C12B3AP-13

dargo
2015-06-11, 22:19:26
Oder man misst den Durchschnittsverbrauch über die Zeit, dann wären solche Spielchen nicht mehr sinnvoll.
Warum muss ich dabei gleich an die Verbräuche zwischen Plasma TV und LCD denken? :uponder:

Screemer
2015-06-11, 22:19:29
Dee satz zu fiji-pro ist doch rein logisch schon mist. wären die yields niedrig mussten genau von dem mehr verfügbar sein.

aufkrawall
2015-06-11, 22:27:04
Oder man misst den Durchschnittsverbrauch über die Zeit, dann wären solche Spielchen nicht mehr sinnvoll. So wie aktuell gemessen wird muss man die Karte so designen das sie immer am TDP-Limit klebt.
Die GM204s kleben doch @default recht gut am TDP-Limit (mit dem Spielraum, den das PT lässt).
Bei Tonga wurde das doch auch schon drastisch verschärft.

Schaffe89
2015-06-11, 22:27:40
Dann ist die TDP halt zu hoch eingestellt.

Peak zu messen ist absoluter Blödsinn, interessant ist nur der Verbrauch über ne gewisse Zeitspanne.

stinki
2015-06-11, 22:30:35
Dee satz zu fiji-pro ist doch rein logisch schon mist. wären die yields niedrig mussten genau von dem mehr verfügbar sein.

Genau, ich denke es liegt eher an der Verfügbarkeit des Speichers oder AMD will nicht zu viel auf Halde liegen haben...wir wissen ja noch nicht wie viel sie dafür haben wollen. AMD hatte ja anscheinend mal mit $899 geplant. Bei dem Preis reichen 30K locker würde ich mal tippen...

Isen
2015-06-11, 22:30:49
Mehr kannst du aber aus Bastellösungen nicht raus holen.
Schon schlimm genug, dass das für voll genommen wird.

Andersherum: Wer so blöde ist, dass für Allgemein hält, hat nicht mal den Schrank für die Tassen.

aufkrawall
2015-06-11, 22:35:05
Peak zu messen ist absoluter Blödsinn, interessant ist nur der Verbrauch über ne gewisse Zeitspanne.
Wo wird denn nur der absolute Peak gemessen?

maguumo
2015-06-11, 22:46:06
Wo wird denn nur der absolute Peak gemessen?
Keinen Plan. Vor allem sind die Peak Werte doch durch die Bank weg bei allen Karten derart hoch das man die garnicht mit dem durchschnittlichen Gaming/Torture Verbrauch verwechseln kann? Ich meine bei Hawaii und GM204 gehen die Richtung 400W?

aufkrawall
2015-06-11, 22:48:42
D'accord.

StefanV
2015-06-11, 22:58:23
Dee satz zu fiji-pro ist doch rein logisch schon mist. wären die yields niedrig mussten genau von dem mehr verfügbar sein.
Nein
Du gehst vom Fiji Die aus...

Da ist aber der Yield des feritigen Packages gemeint. Ergo Chip auf Interposer gepappt und HBM daneben geklatscht.
Das ganze natürlich funktionierend.

Wenn was beim 'Zusammenkleistern' schief geht, zählt das eben auch zu den Yiels...


*g*

Das gibt wieder neuen Spielraum für Spekulationen beim Lüfter.
http://www.scythe-eu.com/produkte/luefter/gentle-typhoon-120-mm.html

Welcher ist es? :D
Lies meine Posts.

Anhand der Bilder kann man eben NICHT auf irgendwas schließen, da du beim Hersteller alles durcheinander würfeln kannst. DU kannst also z.B. einen 1300rpm Motor in den 5400rpm Rahmen stecken.

g2422125
2015-06-11, 23:56:02
Mal gucken wie weit Fiji XT runter kann, bei der 290X waren es glaub 727 MHz :usad:

520/625 sind es bei mir

Also im Leerlauf sollte die 290X auf GPU: 300Mhz und RAM: 150Mhz takten!
Meine 0815 Referenz Karte haben es gemacht als auch meine Lightning.
Entweder liegt doch noch irgendwelche Last an oder ihr habt solche Schrottkarten aller Powercolor etc. die Takten vom Bios her schon kaum herunter. Mehr wie 2-3 Zustande sind da nicht hinterlegt, dem verhalten hat AMD dann aber ja zum Glück für die betroffenen per Treiber ein wenig Einhalt geboten so das man wenigstens mehr zwischen schritte hat. Tiefer bzw. höher als die Bios werte gehts automatisch aber eben nicht. Außer den "Premiummarken" hat kein Hersteller wirklich vernünftige Taktraten hinterlegt!

Schaffe89
2015-06-12, 00:12:19
Wo wird denn nur der absolute Peak gemessen?

Eigentlich überall, ich kann mich nicht daran erinnern, dass Computerbase anders misst und zudem messen die nur 1 Spiel.
Das ist sowieso henebüchen, da irgendeine Aussage ableiten zu wollen.

Grüher haben sie wenigstens noch 2 Spiele gemessen, haben aber das zweite dann unter nem Drop Down Menü versteckt, so dass es auch ja keiner findet.

Im Prinzip gehören mindestens 5 Spiele getestet und die Spiele dann angegeben, der Verbrauch dann gemittelt.
Und der Aufwand ist minimal. Wenn der Benchmark läuft kann ich auch den Verbrauch mitloggen lassen.

Bisher leistet ja nur das 3D Center sowas.

Und da unterscheiden sich sie Werte teilweise bis zu 50 Watt. Ein Spiel zu messen ist crap.

Und wenn gesagt wird, ja man suche ein Spiel das möglichst repräsentativ ist, dann möchte ich mir die Meinung aber gerne selbst bilden und das selber entscheiden.

aufkrawall
2015-06-12, 00:32:02
Was ist denn daran hanebüchen? Anno 2070 heizt ziemlich gleichmäßig so stark, genau so Trine 2 SSAA oder das Intro-Menü von AC: U (der Killer auf Maxwell).
Find dich damit ab, dass es power virus artige Spiele gibt.

Knuddelbearli
2015-06-12, 00:58:14
CB hatte bei Anno 2070 den Verbrauch gemessen und in den Benchmarks auch die fps des Spiels.
PCGH vergleicht sogar mehrere Spiele. Ich sehe nicht, wo da ein falscher Eindruck entstünde...
Sonst müsste man in jedem Spiel die Perf/W ermitteln, das ist für einen Release-Test wohl kaum zumutbar.

ja weill PCGH auch der Nabel der welt ist ^^

hier im forum passierte es immer wieder das die Lautstärke und verbrauch unter Uber und die Leistung unter Quit genommen wurde um die 290X zu "beschreiben"

Wake
2015-06-12, 06:09:25
Noch ein weiteres Pic (das andere mit der weißen Schachtel war nicht so interessant ;)):
http://i.imgur.com/QW9kqqp.jpg
http://tieba.baidu.com/p/3822064025?see_lz=1

horn 12
2015-06-12, 07:09:32
Geil wie schnuckling die Karte ist!
Dennoch sollte KEIN Fury kommen und Fury XT nur auf Wasserkühlung abzielen, sprich nur jene Version verfügbar sein, dann müsste die R9 390X das Loch schliessen und an der GTX 980 knabbern, die nur mit GF Refresh und die Fury müsste Titan X durchgehend schlagen müssen!

dargo
2015-06-12, 07:16:57
Lies meine Posts.

Spielverderber. :P

Noch ein weiteres Pic (das andere mit der weißen Schachtel war nicht so interessant ;)):
http://i.imgur.com/QW9kqqp.jpg
http://tieba.baidu.com/p/3822064025?see_lz=1
Kommt es mir nur so vor oder ist der Radiator tatsächlich fast doppelt so tief wie der Lüfter? So langsam mache ich mir Gedanken über Platzprobleme zwischen Gehäuse-Rückwand und CPU-Towerkühler. :uponder:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=49378&d=1408900923

Edit:
Etwas schade finde ich es, dass man den Radiator samt Lüfter nicht außen am Gehäuse anbringen kann, Löcher für Schläuche sind da. :tongue: Ist halt dann der Nachteil am geschlossenen System.

Geil wie schnuckling die Karte ist!

Jup, die Karte selbst ist echt mickrig. :tongue:

Loeschzwerg
2015-06-12, 07:44:48
Hm... Fury X @ Lukü wäre fast Pflicht. Es soll ja auch User geben die schon eine Wakü im System haben... die wollen dann sicher nicht noch die AiO bezahlen, sondern würden eher zur billigeren Lukü Version greifen.

Persönlich will ich nur eine Luftkühlung bzw. ich habe für die AiO im Gehäuse kein Platz, da sitzt bereits die AiO für die CPU (und da musste ich eh schon zur Flex greifen).

robbitop
2015-06-12, 07:46:42
GTA V hat eine ordentliche Implementierung, m.E.
Guter Witz.

Grestorn
2015-06-12, 07:47:55
Guter Witz.
Völlig ernst gemeint.

AngelDust 32
2015-06-12, 07:58:04
Hm... Fury X @ Lukü wäre fast Pflicht..

http://wccftech.com/amd-fury-30k-units-2015-air-liquid-cooling/

Schaffe89
2015-06-12, 07:58:06
Geil wie schnuckling die Karte ist!
Dennoch sollte KEIN Fury kommen und Fury XT nur auf Wasserkühlung abzielen, sprich nur jene Version verfügbar sein, dann müsste die R9 390X das Loch schliessen und an der GTX 980 knabbern, die nur mit GF Refresh und die Fury müsste Titan X durchgehend schlagen müssen!

Dennoch? Wo ist da der Zusammenhang?:freak:

Loeschzwerg
2015-06-12, 08:03:28
http://wccftech.com/amd-fury-30k-units-2015-air-liquid-cooling/

Danke :)

Lukaner
2015-06-12, 08:05:01
horn12, ich würde nicht unbedingt anhand einer (nicht gesicherten) Information zur Verfügbarkeit eines Fiji Salvage Chips auf die Leistungsfähigkeit der Fiji XT schließen.

Übrigens, "HALLO" an alle! Ich lese hier im 3D-Center seit ca. 2008 mit, bin auch schon länger angemeldet. Nun möchte ich mich auch etwas einbringen..
Kurz zu meiner Person: bin 31 Jahre alt, arbeite als Software-Entwickler und wohne in Bayern direkt an der deutsch-österreichischen Grenze in der Nähe von Salzburg. Außerdem heirate ich bald, aber das interessiert hier wohl niemanden. ;-)

Ich finde, dass dieser bevorstehende Launch der Spannendste seit dem Launch der G80 im November 2006 ist. Es gibt einfach einige Faktoren, deren Auswirkung kaum abschätzbar sind (HBM, Architekturverbesserungen?, Treiberverbesserungen?).
Es wäre super, wenn die Fiji XT die Titan X schlagen könnte, das würde wieder mehr Spannung in den Markt bringen.

Hübie
2015-06-12, 08:30:07
Hm. Dann muss bei der Lukü der Lüfter, ähnlich wie bei nVidia-Karten, der Lüfter länger als das PCB sein. Bin auf das triple fan setup gespannt. Sieht vielversprechend aus. Erinnert doch stark an die TriX. DHE ist im Desktop imo ziemlich überbewertet.

rentex
2015-06-12, 09:39:59
Der Höflichkeit halber, wünsche ich alles gute noch zur Hochzeit. Und ja, es ist sehr spannend was gerade Abläuft.

Hübie
2015-06-12, 09:43:54
X-D jetzt musste ich erst mal gucken wem du da gratulierst. Der Beitrag hatte sich wohl mit meinem überschnitten.
Von hier auch alles Gute und willkommen an Board :cool:
Ich finde eigentlich nur HBM wirklich spannend denn ansonsten erwarte ich nicht viel neues außer halt altbekanntes hochskaliert. Da war G80 mit seiner USA schon ein größerer Sprung und es war weniger absehbar wie groß der Vorsprung werden würde.

Dural
2015-06-12, 09:54:47
Architekturverbesserungen würde ich erst mal ausschliessen, ich würde mit Tonga Level rechnen.

AMD meinte ja vor kurzem das Fiji erst seit 18 Monaten in der Entwicklung ist.

StefanV
2015-06-12, 09:56:15
Erinnert doch stark an die TriX.
Das Lüftergespann dürft dem der Radeon HD 7990 entsprechen, denke ich.
Nur halt der Kühler nicht. Aber da kannst ja mal auf der Seite von AMDs Hauslieferanten schauen ;)


DHE ist im Desktop imo ziemlich überbewertet.
Agreed.
Wieder so ein Bullshit, der von vielen Leuten gehypt wird - und eigentlich nie genutzt.

Wobei ich mir vorstellen könnte, dass die großen OEMs gerne solch einen Mist hätten, da man sich so einen weiteren Lüfter sparen kann...

Architekturverbesserungen würde ich erst mal ausschliessen, ich würde mit Tonga Level rechnen.
ich nicht.
Wer weiß, was AMD diesmal implementiert.
Tonga hat ja auch 'nen bisserl was gebracht...


AMD meinte ja vor kurzem das Fiji erst seit 18 Monaten in der Entwicklung ist.
Was jetzt aber doch eher FÜR neue Dinge sprechen würde, oder? ;)

Denn das würd ja bedeuten, dass mit Fiji erst begonnen wurde, nachdem man mit Tonga soweit fertig war...

Loeschzwerg
2015-06-12, 10:00:38
Genau wie hier einige immer wieder auf der DP Leistung herumreiten, kann man auch den DHE Kühler ins Spiel bringen ;)

Bullshit ist deswegen beides nicht!

Hübie
2015-06-12, 10:01:44
Also wenn was geändert wurde dann halt eher in TMU, Command Processor und Crossbar. Denke aber man kann grob Tonga x2 sagen. Die ROPs in Hawaii waren ja schon fett.
@StefanV: Das Konstrukt auf der 7990 kenne ich jetzt nicht aus dem Kopf, aber denke mal dass Fiji mehr heatpipes mit längerem Verlauf und größerem Durchmesser haben.

Dural
2015-06-12, 10:02:17
DHE wollen halt die OEMs, da die warme Luft direkt raus befördert wird.
Zudem funktioniert DHE bei schlecht belüfteten Systemen einfach besser.

Loeschzwerg
2015-06-12, 10:03:20
@Hübie: So in etwa
http://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-HD-7990-2.jpg

Aber der Kühler wird halt durchgehend sein.

Hübie
2015-06-12, 10:05:18
Uff :eek::|

mironicus
2015-06-12, 10:05:53
Ich finde eigentlich nur HBM wirklich spannend denn ansonsten erwarte ich nicht viel neues außer halt altbekanntes hochskaliert.

Genau, nach dem Fiji released wurde geht der graue Alltag wieder los und wir müssen auf etwas Neues warten, was uns erfreuen könnte. :freak:

Hübie
2015-06-12, 10:09:08
Nö. Dann kommen die Untersuchungen die von der Presse versäumt wurden :cool:

HOT
2015-06-12, 10:11:16
Architekturverbesserungen würde ich erst mal ausschliessen, ich würde mit Tonga Level rechnen.

AMD meinte ja vor kurzem das Fiji erst seit 18 Monaten in der Entwicklung ist.
Wenn die Chipentwicklung erst vor 18 Monaten gestartet wurde, ist der definitiv nicht mit Tonga vergleichbar. Tonga Treibereinträge wurden schon Ende 2013 gefunden.

mironicus
2015-06-12, 10:21:06
Genau! Da steckt das Neuste vom Neusten drin! Tausend neue Tweaks! Handoptimiert - ohne Tools. :D :D

Na ja, ich rechne schon damit das AMD an einigen Baustellen optimiert hat was sich dann in mehr Frames in NVidia-lastigen Games äußert, was bei Tonga auch der Fall war. In einigen Games sollte es dann imho eine größere Mehrleistung zu Hawai geben als die Anzahl der SPs zunächst vermuten lassen (vielleicht 70%+).

HOT
2015-06-12, 10:29:50
Das mein ich. Es gibt bisher bei jedem Chip irgendwelche Verbesserungen. Warum sollte das bei Fiji anders sein?

robbitop
2015-06-12, 10:31:35
Völlig ernst gemeint.
Ich finde nicht, dass MSAA überall sauber greift. Da flimmert noch viel zu viel und viele Kanten werden nicht erfasst.

Wenn man sich Spiele mit IMR/Forward+ Engine anschaut, ist das wesentlich sauberer.

Man schaue sich bspw the order 1886 an. Da flimmert nichts, da sieht man praktisch kein Aliasing.

Grestorn
2015-06-12, 10:43:24
Ich finde nicht, dass MSAA überall sauber greift. Da flimmert noch viel zu viel und viele Kanten werden nicht erfasst.

Wenn man sich Spiele mit IMR/Forward+ Engine anschaut, ist das wesentlich sauberer.

Man schaue sich bspw the order 1886 an. Da flimmert nichts, da sieht man praktisch kein Aliasing.

Ich habe nicht geschrieben, dass die Lösung perfekt ist. Auch bei alten Forward-Renderern gab es immer wieder heftige Aliasing-Artefakte durch Shader. MSAA hat halt die bekannten Schwächen, die sich auch durch SGSSAA nicht alle beheben lassen. Dafür hat es auch Vorteile und ich bedaure sehr, dass diese Technologie immer mehr in den Hintergrund tritt. All die FXAA, SMAA, TXAA, DSR und wie-sie-alle-heißen-Technologien sind allesamt in meinen Augen deutlich unterlegen.

Order 1866 habe ich nicht gespielt, aber je nachdem welche Kontraste man wählt, mit wieviel Unschärfeeffekten man arbeitet, wie die Shader geschrieben sind und wie der Content generell gebaut ist, kann man AA schon im Grundsatz stark reduzieren.

OBrian
2015-06-12, 11:22:19
Ich finde, man kriegt oft gute Ergebnisse (bei relativ wenig FPS-Verlust) mit einen Gemisch. Also z.B. reines MSAA (ohne Transparenz-Anteil) nur auf 4x, um z.B. Telegraphenleitungen o.ä. abzumildern, und dann über den Rest ein Shader-AA (FXAA oder so) und/oder etwas Downsampling, aber da reicht auch schon ein Renderauflösung von z.B. 117% oder so (wenn das Spiel das bietet) um Flimmern zu vermeiden. Das kostet dann insgesamt kaum Leistung.

Um aber mal zum Thema zurückzukehren (;)), ich denke, bei den ACEs könnte AMD ggf. noch ansetzen. Bei Bonaire und Hawaii haben sie einfach nur die Anzahl erhöht, aber evtl. ändern sie ja auch noch was an der Effektivität dieser Asyncronous Shader Engines, um damit die Auslastung der CUs zu verbessern. Für DX12 bzw. die anderen neuen APIs sollen die ja durchaus interessant werden.

Ailuros
2015-06-12, 12:40:27
Ich habe nicht geschrieben, dass die Lösung perfekt ist. Auch bei alten Forward-Renderern gab es immer wieder heftige Aliasing-Artefakte durch Shader. MSAA hat halt die bekannten Schwächen, die sich auch durch SGSSAA nicht alle beheben lassen. Dafür hat es auch Vorteile und ich bedaure sehr, dass diese Technologie immer mehr in den Hintergrund tritt. All die FXAA, SMAA, TXAA, DSR und wie-sie-alle-heißen-Technologien sind allesamt in meinen Augen deutlich unterlegen.


Ist zwar mal wieder OT, aber ich hab persoenlich ueberhaupt nichts gegen Loesungen wie Transparenz-AA als Ergaenzung zu Multisampling wo immer ein Entwickler nichts anderes einsetzen kann oder will als eine Unmenge an alpha tests. In solchen Faellen ist es dann bedauernswert wenn die Applikation selber die Treiber-Einstellung fuer's Transparenz-AA aus egal welchem Grund nicht einsetzt.

OBrian,

Wenn ISV genug resources aufwenden koennten fuer solche Spielereien koennten Entwickler auch Zeit widmen eventuell shader AA stellenweise in Spielen anzuwenden.

--------------------------------------------------------------

Zum Thema: ich sehe immer noch nichts nach 430+ Seiten dass nicht den originalen Infos folgt dass AMD's kommender top dog um einen Schnitt schneller sein wird als die volle GM200 SKU mit etwas hoeherem Stromverbrauch.

Lukaner
2015-06-12, 12:44:17
@Hübie @rentex
Danke :)

Ich geh schon davon aus, dass Fiji zumindest kleine Verbesserungen, auch gegenüber Tonga, haben wird. Zumindest liegt das nahe, wenn man bedenkt, dass AMD eine inkrementelle Entwicklungsstrategie verfolgt.
Das wird aber in Summe kaum mehr als wenige Prozentpunkte ausmachen.

M4xw0lf
2015-06-12, 13:19:39
Zum Thema: ich sehe immer noch nichts nach 430+ Seiten dass nicht den originalen Infos folgt dass AMD's kommender top dog um einen Schnitt schneller sein wird als die volle GM200 SKU mit etwas hoeherem Stromverbrauch.
Der uralte Leak war entweder echt oder sehr gut geschätzt ^^

fondness
2015-06-12, 13:20:05
Also wohl ziemlich sicher kein Lüfter wenn das Bild der Realität entspricht:

http://s8.postimg.org/xt5d1qvc5/AMD_Radeon_Fury_X_display_connectors.jpg (http://postimage.org/)

Weitere Bilder und Marketing-Text, damit ist auch der Namen Radeon R9 Fury X bestätigt: http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=2817&ckattempt=2

mironicus
2015-06-12, 13:27:29
Und sogar mit dem Original Pressetext... :D
AMD wirbt mit 6K-Gaming. 3 x 1440P Freesync-Monitore gleichzeitig.

Dural
2015-06-12, 13:33:32
Wird sich halt wie Hawaii und Co verhalten, bei niedrigen Einstellung skaliert die Rechen-Leistung sehr schlecht, der Abstand wird wohl erst bei sehr hohen Einstellungen ersichtlich.

Dumm ist halt, das Fury nur 4GB hat.

Troyan
2015-06-12, 13:34:48
Und sogar mit dem Original Pressetext... :D
AMD wirbt mit 6K-Gaming. 3 x 1440P Freesync-Monitore gleichzeitig.

Klingt komisch - 6K-Gaming.
nVidia bewirbt ja 12K-Gaming, weil man an den 3DP-Anschlüssen auch 3 4K Monitore anschließen kann...

mironicus
2015-06-12, 13:39:46
6K-Gaming ist für die Leistung einer einzelnen Grafikkarte wohl nicht übertrieben. 12K-Gaming dagegen schon.

fondness
2015-06-12, 13:40:49
Wo wird denn nur der absolute Peak gemessen?

Es geht nicht um Peak-Spitzen, die im ms-Bereich auftreten und vom einem handelsüblichen Messgerät gar nicht erfasst werden können.

Dural
2015-06-12, 13:42:50
Vor allem ist 12K für die 4GB ein Problem ;)

Selbst 4K ist für die heutigen GPUs nicht ohne weiteres zu bewältigen, von daher lassen wir uns mal überraschen.

Troyan
2015-06-12, 13:46:26
6K-Gaming ist für die Leistung einer einzelnen Grafikkarte wohl nicht übertrieben. 12K-Gaming dagegen schon.

Es ist trotzdem komisch nur mit 6K Gaming zu werben. Sieht bizarr aus.

Raff
2015-06-12, 13:49:32
Auch 6K ist mit einer GPU Unsinn, das ruckelt in den meisten Spielen wie Seuche (es sei denn, Fiji ist doppelt so schnell wie GM200 ;)).

Nö. Dann kommen die Untersuchungen die von der Presse versäumt wurden :cool:

Es würde helfen, der Presse mehr als ein paar lächerliche Tage vor Release zu geben, dann müsste man trotz heftiger Überstunden nicht noch so viel nachreichen.

MfG,
Raff

Hübie
2015-06-12, 13:52:05
Das ist Marketing-Geblubber. Seit wann gibt man was darauf? :|

@Raff: Manche Dinge werden jahrelang versäumt. Ich sehe immer noch keine frameverläufe, frametimes und zeitbezogene Verbrauchsmessungen ;) Dein Job in Ehren aber besser geht immer.

mironicus
2015-06-12, 13:58:40
Gibt es eigentlich ein Pong-Spiel was man auf 3 Monitoren spielen kann? Das läuft dann bestimmt gut in 6K und 144 Hz bzw. 12K und 60 Hz. :D :D :D

Troyan
2015-06-12, 14:00:12
Fifa sollte doch funktionieren. :D

Mortalvision
2015-06-12, 14:13:08
Pacman 4D?

derF
2015-06-12, 14:17:24
Tetris ruckelt ja schon auf einem Bildschirm auf der PS4: http://gamerant.com/ubisoft-tetris-ps4-problems/

Lukaner
2015-06-12, 14:30:30
6k klingt übertrieben und technisch irgendwie unrund. Passt nicht, find ich.
Die Blende sieht aber gut aus, wirkt edel.

Flusher
2015-06-12, 14:37:20
Dumm ist halt, das Fury nur 4GB hat.

Ist immer noch nicht bestätigt :P

StefanV
2015-06-12, 15:00:34
Uff :eek::|
Jop

Hab noch mal geschaut.
Das Teil von der 7990 schaut dem Sapphire Tri-X Kühler doch sehr ähnlich.
Deine Befürchtung, dass das der Kühler sein könnte, wären damit nicht von der Hand zu weisen.

BTW: Hier der AMD Haus und Hof Lieferant:
http://www.ntkltd.com/product.php?fid=1

HIS nutzt auch 'nen Kühler von denen...

SchinkenSpicker
2015-06-12, 15:15:42
Der Radeon-Schriftzug auf der Blende ist doch falsch rum, oder?

mironicus
2015-06-12, 15:18:31
Die Lüfter könnten ja auch ein neues Design haben.

Ailuros
2015-06-12, 15:27:54
Der uralte Leak war entweder echt oder sehr gut geschätzt ^^

Als die chiphell slides erschienen sind, sagte ich schon damals dass egal ob sie fakes waren oder nicht, die Situationslage (stets im relativem Sinn) war und ist schon in etwa insgesamt im illustrierten Bereich. Da der Kerl von dem die originale Info kam noch nie bis jetzt falsch lag, war ich mir auch ziemlich sicher dass es auch stimmt.

Neuestes Gegenbeispiel ist Pascal im anderen thread; alle haben wohl Jensen's Mist wieder gedankenlos geglaubt und wenn er 2x Mal so viel den Scheiss oder 3x Mal den anderen erwaehnt, haben die Leser immer noch nicht nach ALL den Jahren geschnallt dass er gerne aufrundet. Pascal wird eben NICHT 3x Mal so viel reale Bandbreite als Maxwell haben; das was theoretisch auf Papier moeglich ist sollte keine Sau interessieren.

Und da wir schon dabei sind fuer AMD und NVIDIA: weder 16 noch 14FF werden die wirklich grossen Unterschiede machen die sich manche mit ihrem ueblichen uebertriebenen Optimismus erhoffen.

Blediator16
2015-06-12, 16:30:47
In den neuen AMD Folien ist von Eyefinity und Freesync Monitoren die Rede. Würde bedeuten, dass damit auch ein neuer Treiber kommen dürfte mit nich nur Fiji support.

ENJOY THE VIEW.

AMD Radeon ™ R9 Fury X graphics is engineered for 4K gaming, DirectX® 12 and Vulkan ™ APIs, max settings, and ultimate monitor configuration flexibilicy. Expand your field of view with AMD Eyefinity technology and experience the smoothest 6K gameplay using 3×1 1440p FreeSync ™ -enabled monitors.

Troyan
2015-06-12, 17:08:21
Funktioniert das noch nicht? :confused:

Loeschzwerg
2015-06-12, 17:24:43
Der Radeon-Schriftzug auf der Blende ist doch falsch rum, oder?

Nicht dein ernst die Frage? :freak::freak::freak: Jetzt überleg doch mal wie die Karte in deinem Tower sitzt und was man an der Rückseite erkennt ;)

Dural
2015-06-12, 17:29:27
Naja kommt drauf an was man für ein Gehäuse hat ;)

Aber ich würde sagen das der Schriftzug so richtig ist ;)

y33H@
2015-06-12, 17:42:05
Ich sehe immer noch keine frameverläufe, frametimes und zeitbezogene Verbrauchsmessungen.Problem: Der Aufwand ist gigantisch und es nicht absehbar, dass er sich auch nur im entferntesten rechnet. Am Ende des Tages verdienen viele damit ihr Geld und das bedeutet, die Zeit ist begrenzt. Qualitätsjournalismus zu refinanzieren ist verdammt hart. Leider.

Ich würde mich nur zu gerne im Messlabor mit allem Schnickschnack zwei Wochen einzig mit Fiji beschäftigen, dadurch klickt sich die Meldung aber nicht nennenswert mehr und die Leute, die es wertschätzen und zB ein Abo abschließen, kann man IMHO an allen vier Gliedmaßen abzählen.

SchinkenSpicker
2015-06-12, 17:42:26
Edit: Ok. :D

blaidd
2015-06-12, 17:48:58
MSI-Lineup der AMD-Rebrands (http://www.tecmundo.com.br/amd/81391-exclusivo-tecmundo-descobriu-tudo-novas-placas-amd.htm) ;)

Blediator16
2015-06-12, 17:53:39
Den Daten zufolge können das keine einfachen Rebrands sein :confused:

StefanV
2015-06-12, 17:54:11
Der Radeon-Schriftzug auf der Blende ist doch falsch rum, oder?
Nope

Die Karte sitzt ja auch 'falsch herum' im Rechner...

dargo
2015-06-12, 17:54:32
MSI-Lineup der AMD-Rebrands (http://www.tecmundo.com.br/amd/81391-exclusivo-tecmundo-descobriu-tudo-novas-placas-amd.htm) ;)
Holly Shit... was haben die mit Hawaii angestellt? Grenada XT nur 208W bei 1100/6100Mhz? :eek: Kann ich kaum glauben. Und endlich kommt der "Maxwell"-Kühler drauf. :up:

Edit:
Tonga Pro scheint ebenfalls deutlich überarbeitet zu sein bei nur 150W und 1000Mhz GPU.

Edit 2:
Fan-Zero-Modus bei MSI! :massa:

Schnoesel
2015-06-12, 17:54:52
Hab ich mir auch gerade gedacht. 208 Watt bei 1100 MHZ Coretakt bei der R9 390X Gaming? Da muss doch was passiert sein.

Edit: Zu lahme Finger

Edit2: da stimmt was nicht. Grenada pro soll die gleiche Shaderanzahl haben?!

blaidd
2015-06-12, 18:00:16
Grenada pro soll die gleiche Shaderanzahl haben?!

Ja, das ist seltsam...40 Mhz Unterschied beim Takt sollen den Unterschied zwischen 390 und 390X ausmachen?

Tamagothi
2015-06-12, 18:01:50
R9 390 und R9 390X haben beide nur 2816 ^^

Wird wohl nur ein Tippfehler sein und das sind keine Rebrands allein die 208 Watt bei den 390er Karten zeigt das.

N0Thing
2015-06-12, 18:04:19
Holly Shit... was haben die mit Hawaii angestellt? Grenada XT nur 208W bei 1100/6100Mhz? :eek: Kann ich kaum glauben. Und endlich kommt der "Maxwell"-Kühler drauf. :up:


Mal sehen ob davon was stimmt, der einzige Unterschied zwischen Grenada Pro und XT scheinen 40Mhz Chiptakt zu sein, das kann ich mir beim besten willen nicht vorstellen.

dargo
2015-06-12, 18:07:30
Wird wohl nur ein Tippfehler sein und das sind keine Rebrands allein die 208 Watt bei den 390er Karten zeigt das.
Rebrands kann man das auf keinen Fall nennen sollten die Angaben wirklich stimmen. Bei erhöhten Taktraten deutliche Verringerung der Verlustleistung. Da muss AMD schon deutlich die GPUs überarbeitet haben. Vielleicht diesmal auch so ein agressives Powermanagement wie bei GPU Boost 2 @NV? Bei Tonga Pro hat sich ja auch einiges getan. Von 190W @918Mhz GPU runter auf 150W @1000Mhz GPU.

Mal sehen ob davon was stimmt, der einzige Unterschied zwischen Grenada Pro und XT scheinen 40Mhz Chiptakt zu sein, das kann ich mir beim besten willen nicht vorstellen.
Ja, das ergibt keinen Sinn. Hier hoffe ich nur auf einen Tippfehler.

Menace
2015-06-12, 18:09:01
Mir wird die Tonga immer sympathischer. :biggrin:

uweskw
2015-06-12, 18:17:22
Wird sich halt wie Hawaii und Co verhalten, bei niedrigen Einstellung skaliert die Rechen-Leistung sehr schlecht, der Abstand wird wohl erst bei sehr hohen Einstellungen ersichtlich.

Dumm ist halt, das Fury nur 4GB hat.

lassen wir uns doch überaschen wie es bei Fiji mit der Effizienz des HBM Speicher Managements aussieht. Würde mich nicht wundern wenn 4GB im Fury später limitieren als die 6GB bei der 980Ti :freak:

greetz
US

Triskaine
2015-06-12, 18:17:25
Bevor ich keine Testberichte gesehen habe, die diese Werte belegen, glaube ich eher an Tippfehler als an etwas anderes. Am Ende wird doch wieder geweint wenn der Hype sich nur als heiße Luft entpuppt.

Tamagothi
2015-06-12, 18:32:01
Stellt euch mal vor AMD hat sich Verplappert und meinte eigentlich das Fury nicht viel mehr als eine R9 390/X schluckt :ucrazy:

mironicus
2015-06-12, 18:33:43
1100/6100, 8 Gigabyte und 208 Watt? Himmel! :D

Damit wäre die R390x ja tatsächlich wieder interessant für eine Neuanschaffung. :D

Dawn on Titan
2015-06-12, 18:37:54
Wobei 208, eben auch sehr leicht 280 mit Zahlendreher sein könnten.

dargo
2015-06-12, 18:38:58
Bevor ich keine Testberichte gesehen habe, die diese Werte belegen, glaube ich eher an Tippfehler als an etwas anderes. Am Ende wird doch wieder geweint wenn der Hype sich nur als heiße Luft entpuppt.
Eine gewisse Skepsis ist natürlich vorhanden. Die Tabelle hat zu viele Fehler. Wie zb. das hier bei der R7 370 Gaming 4G.
Core/Boost Clock: 1.070/1.020 MHz

Auf der anderen Seite... Pitcairn/Curacao XT hatten bei der Stromversorgung mit noch 1000/4800(5600)Mhz und 2GB Vram 2x 6Pin Anschlüsse. Die neue Trinidad GPU soll trotz höheren Taktraten und 4GB Vram nur noch einen haben.

Wobei 208, eben auch sehr leicht 280 mit Zahlendreher sein könnten.
Oder Grenada XT hat eine TDP von 190-200W bei Default 1050Mhz. Und MSI gibt etwas mehr an durch das leichte OC. Gibt mehrere Möglichkeiten. :D

1100/6100, 8 Gigabyte und 208 Watt? Himmel! :D

Damit wäre die R390x ja tatsächlich wieder interessant für eine Neuanschaffung. :D
Aber sowas von. :naughty:

Sunrise
2015-06-12, 18:39:15
Stellt euch mal vor AMD hat sich Verplappert und meinte eigentlich das Fury nicht viel mehr als eine R9 390/X schluckt :ucrazy:
Schau dir den Verbrauch von Tonga (Antigua) an (Apple bekam den alten Tonga auch um die 150W als Tonga XT), rechne das Doppelte, ziehe davon etwa 70W ab, dann prügle den Takt aber etwa 100MHz höher, und je nachdem wie gut du den Chip kühlen kannst, verringert sich logischerweise auch der Verbrauch. Damit ist also klar die alte 290X gemeint, aber auch nur als Orientierung. Ich habe ja schon geschrieben, das Fiji viel besser skalieren wird, alleine aufgrund der Unnötigkeit, den Speichertakt bei OC weiter anheben zu müssen (es ist schlichtweg mehr als genug effektive Bandbreite da), als auch der viel ausgereiftere Prozess. Natürlich wird es irgendwo dann dennoch stark deckeln. Das sind eben dann die Grenzen, die man nur noch mit stärkerem Eingriff (Spannung erhöhen) umgehen kann.

mironicus
2015-06-12, 18:39:45
Na ja, wenn AMD schon bei Fiji nicht mehr Strom verbraucht als eine R290x aber dafür 50% schneller ist, könnte sich ja auch bei den anderen Chips was verbessert haben...

Sunrise
2015-06-12, 18:50:34
Na ja, wenn AMD schon bei Fiji nicht mehr Strom verbraucht als eine R290x aber dafür 50% schneller ist, könnte sich ja auch bei den anderen Chips was verbessert haben...
So eine starke Verbesserung sieht eigentlich nicht mehr nur nach Respin (meine ursprüngliche Vermutung) aus. Um die 200W bei höheren Takten klingt schon stark danach, dass es auch hier auf Transistorebene (Prozess) starke Verbesserungen gegeben hat und man dann Metal-Layer-Verbesserungen einbringen konnte, die sich so stark auswirken. So drastisch ist allerdings überraschend. Das muss eine Kombination sein.

Unicous
2015-06-12, 18:54:49
Oder: Es ist es eine Ansammlung von Schreibfehlern und Zahlendrehern: wahre TDP 802 Watt.:freak:

Tamagothi
2015-06-12, 18:56:06
Oder: Es ist es eine Ansammlung von Schreibfehlern und Zahlendrehern: wahre TDP 802 Watt.

:uban:

Sunrise
2015-06-12, 18:58:35
Oder: Es ist es eine Ansammlung von Schreibfehlern und Zahlendrehern: wahre TDP 802 Watt.:freak:
Schreibfehler bei allen Rebrands? Nah, seems legit.

Tonga geht von 190W auf 150W. Die 190W waren sowieso schon immer abartig für so ne Gurke. Passt.

Das wären min. etwa 20% weniger TDP.

Richtig krass wäre es jetzt, wenn AMD das Ding auf Tonga-Arch gezogen hätte. Damit könnte man den Verbrauch auch erklären. Das wäre aber eher nicht anzunehmen, da komplett neuer Tapeout. Ich will es aber mal erwähnt haben.

mironicus
2015-06-12, 19:03:32
Die haben einfach die Spannung korrigiert, die war schon immer zu hoch bei den alten Karten. :D

MilesEdgeworth
2015-06-12, 19:08:12
Die Angaben zu Grenada würden teilweise zu dem allerersten Chiphell Leak - Captain Jack - passen. Verbrauch im Bereich 200W hieß es auch damals. Nur Performance oberhalb GTX980 passt nicht zu ganz zu einem leicht überarbeiteten Hawaii.. Chiphell Preview vom 25.11.2014 (http://www.chiphell.com/thread-1182382-1-1.html)

Erfreulich wäre es in jedem Fall, würde jedenfalls meine Erwartungen übertreffen. Effizienz von Maxwell wird zwar nicht erreicht, aber mit entsprechendem Preis wäre das dennoch ein interessantes Angebot.

Unicous
2015-06-12, 19:19:16
@Sunrise

Ich rate ja nur zur Vorsicht, man könnte auch einem fake auf den Leim gehen.:wink: Wenn sich dieser Leak bewahrheiten sollte, bestätigt sich meiner Meinung nach auch der Verdacht, dass z.B. Tonga deutlich effizienter ist, als es die R9 285 zeigt.

Die TDP-Angaben bei der 390X sind zum Beispiel ein wenig too good to be true, speziell wenn man noch 4 GB zusätzlich reingepackt hat.

Also mal schauen.

Wäre jedenfalls eine sehr interessante Entwicklung wenn dass Gezeigte der Wahrheit entspricht.

mironicus
2015-06-12, 19:20:42
Aber das passt doch: Hätte die R390x den gleichen Stromverbrauch wie Fiji wäre AMD dafür gebrandmarkt worden...

dargo
2015-06-12, 19:25:22
Die TDP-Angaben bei der 390X sind zum Beispiel ein wenig too good to be true, speziell wenn man noch 4 GB zusätzlich reingepackt hat.

Es wurde schon mal gesagt (ich glaube von Gipsel), dass sich dadurch der Stromverbrauch nicht erhöht. Die Anzahl der Speicherchips bleibt identisch, nur mit doppelter Kapazität.

Gipsel
2015-06-12, 19:27:56
Es wurde schon mal gesagt (ich glaube von Gipsel), dass sich dadurch der Stromverbrauch nicht erhöht. Die Anzahl der Speicherchips bleibt identisch, nur mit doppelter Kapazität.Zumindest nicht wesentlich. Ein oder zwei Watt könnten eventuell bei 16 Chips in der Summe schon zusammenkommen (kommt drauf an, welche Chips vorher verbaut wurden und welche jetzt; falls ein Shrink dazwischen war, geht es sich vermutlich zu Null aus). Aber keine 10 oder 20W, selbst wenn es nur größere Chips im gleichen Prozeß wären.

Screemer
2015-06-12, 19:28:21
Verlieren die phys mit steigender Speicherkapazität nicht an Effizienz?

Sunrise
2015-06-12, 19:31:56
Verlieren die phys mit steigender Speicherkapazität nicht an Effizienz?
Warum sollten sie, wenn du die identische Menge an Speicherchips ansprichst, mit identischer Spannung?

Knuddelbearli
2015-06-12, 19:32:54
in Wirklichkeit sind das alles 20nm Chips bei GloFo ^^

Unicous
2015-06-12, 19:35:41
Hmm, ja ok. Ich habe mal schnell bei hynix geschaut. Ich dachte die Chips mit höherer Kapazität werden auch mit 1,5(5)V betrieben. Stimmt aber nicht. Gibt sie auch mit 1,35V.

Gipsel
2015-06-12, 19:36:14
Verlieren die phys mit steigender Speicherkapazität nicht an Effizienz?:confused:
Was?
Die PHYs des Speichercontrollers sind dafür da, die Signale für die einzelnen GDDR5-Pins zu generieren (also die chipinternen Signale auf die für GDDR5 spezifizierten umzusetzen [in beide Richtungen]). Deren Stromverbrauch kümmert sich um die Speicherkapazität der angeschlossenen Chips nicht die Bohne. Da spielen Frequenz, Spannung, die Kapazität der Leitungen und die letztendlich übertragene Datenmenge (Datenübertragung kostet mehr Strom als wenn die Schnittstelle Däumchen dreht) die entscheidenden Rollen.

Gipsel
2015-06-12, 19:38:34
Hmm, ja ok. Ich habe mal schnell bei hynix geschaut. Ich dachte die Chips mit höherer Kapazität werden auch mit 1,5(5)V betrieben. Stimmt aber nicht. Gibt sie auch mit 1,35V.Auch wenn größere Chips mit identischer Spannung betrieben werden, verbrauchen sie nicht wesentlich (sondern nur sehr wenig bis gar nicht [Shrink]) mehr.

Screemer
2015-06-12, 19:40:09
Alles klar. Ich ging von mehr Arbeit für die phys aus wenn höhere speichermengen verbaut werden. Danke für die Aufklärung.

OBrian
2015-06-12, 19:44:09
Andererseits, HBM spart ne Menge, was mehr Shader erlaubt. Würde man einen Chip in der Größe von Hawaii mit HBM ausstatten, fiele die TDP um sicherlich 50 W oder mehr. Und wenn man dann noch annimmt, daß sich durch diverse Verbesserungen der Verbrauch pro Shader verringert, dann ist es durchaus nicht so daneben, wenn Fiji grob im Bereich von Hawaii liegt.

Die TDP-Angaben bei der 390X sind zum Beispiel ein wenig too good to be true, speziell wenn man noch 4 GB zusätzlich reingepackt hat.der größere RAM sollte eigentlich egal sein, sind ja die gleiche Anzahl Chips. Aber wenn sie da noch mehr RAM-Takt realisieren wollen, wie behauptet wird, dann sollte das eigentlich mehr Abwärme bedeuten.

Und ob man mit einer neuen Chiprevision so irre viel ausholen kann, wage ich zu bezweifeln. Denkbar ist nur, daß der Yield so toll ist im Gegensatz zu früheren Zeiten, daß sie die Spannung senken konnten, ohne dabei Chips über zu haben, die damit nicht laufen. Aber auch das reißt es eigentlich nicht so weit runter.

Es war ja auch nicht die Rede von speziell selektierten Chips für eine "390-low-Voltage-Edition", wo die Karten dann teurer sind, ohne schneller zu sein. Sowas macht evtl. ein Hersteller mal.

Also ich halte einen Fake hier leider für am wahrscheinlichsten. Wäre aber nicht böse, dabei falsch zu liegen ;)

Tamagothi
2015-06-12, 19:47:54
Wurde nicht gesagt das GloFo einen besseren 28nm Prozess für GPU's hat. Evtl. ist AMD kommplett zu GloFo ausgewandert. Eine neue Maske sollte dann ja nicht benötigt werden.

M4xw0lf
2015-06-12, 19:48:04
Pihpls. Hat auch nur eine dieser "neuen" GPUs eine schwächere Stroversorgung als bisher? Soweit ich das sehe nicht. Zeit für trockene Unterwäsche.
Außerdem: IMMER NOCH kein voller Tonga, wtf AMD?

dargo
2015-06-12, 19:48:34
der größere RAM sollte eigentlich egal sein, sind ja die gleiche Anzahl Chips. Aber wenn sie da noch mehr RAM-Takt realisieren wollen, wie behauptet wird, dann sollte das eigentlich mehr Abwärme bedeuten.

AMD hat aber auf jeden Fall den Speichercontroller überarbeitet. Sonst wären diese 1500Mhz gar nicht möglich gewesen. Und nein, die paar glücklichen OC-Versuche bei Hawaii zählen nicht.

Pihpls. Hat auch nur eine dieser "neuen" GPUs eine schwächere Stroversorgung als bisher? Soweit ich das sehe nicht.
*hust*
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10662320&postcount=8723

Antigua hat wie Tonga Pro auch schon 2x 6Pin. Bei angeblich 150W aber auch nicht verwunderlich. 1x 6Pin wäre einfach zu knapp gewesen. Da gehen die Hersteller auf Nummer sicher. Wobei Trinidad auch mit 150W angegeben ist und da verwendet man nur einen 6Pin. :uponder: Etwas verwirrend ist es schon. :tongue:

Sunrise
2015-06-12, 19:50:21
Wurde nicht gesagt das GloFo einen besseren 28nm Prozess für GPU's hat. Evtl. ist AMD kommplett zu GloFo ausgewandert. Eine neue Maske sollte dann ja nicht benötigt werden.
Wie kommst du denn darauf?

Sowas geht maximal dann, wenn du einen "Copy-Exact"-Prozess hättest (GloFo und Samsung). Für 28nm gibt es Derartiges nicht.

Troyan
2015-06-12, 19:55:19
Im beyond3d.com Forum gefunden:
http://www.ozeros.com/wp-content/uploads/2013/10/MSI-R9-290X.jpg
http://www.3djuegos.com/foros/tema/26031434/0/msi-lanza-su-modelo-r9-290x-que-incluira-battlefield-4/

Copy & Paste. Passt irgendwie zu den Rebrands...

M4xw0lf
2015-06-12, 19:56:47
*hust*
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10662320&postcount=8723
Curacao Pro hat ebenfalls 1280 SPs und kommt mit 1x6-Pin aus.

Im beyond3d.com Forum gefunden:
http://www.ozeros.com/wp-content/uploads/2013/10/MSI-R9-290X.jpg
http://www.3djuegos.com/foros/tema/26031434/0/msi-lanza-su-modelo-r9-290x-que-incluira-battlefield-4/

Copy & Paste. Passt irgendwie zu den Rebrands...
No shit.

Topha
2015-06-12, 19:57:54
Falls die TDP stimmen sollte könnte ich mir gut vorstellen, dass die bei GF gefertigt werden, irgendwas müssen die ja schließlich die letzten Jahre getan haben? Nur Tonga wäre schon ein wenig ...äh... wenig.

Scheinen auf jeden Fall entweder selber keine wirklichen Informationen über ihr neues Lineup zu haben oder aber sie haben die Maulwürfe auf brutalste Art und Weise von einem Kammerjäger beseitigen lassen.

Falls wirklich GF sollte man aber auch mit GCN 1.2 für ihren zweitschnellsten Chip rechnen, und davon hat man noch nichts gehört, oder?

Troyan
2015-06-12, 20:01:12
Trinidad ist Pitcairn - inkl. Crossfire-Anschluss:
http://img.ibxk.com.br/2015/06/12/12121913044481.jpg?w=794&h=529&mode=max

Wieso sollte AMD also nur Hawaii wirklich überarbeiten, aber gleichzeitig einen 3 Jahre alten Chip weiterverwenden?!