PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

aufkrawall
2015-06-14, 19:41:37
Dürfte eher an der geringeren Verlustleistung liegen.

Trotzdem sind andere Kühllösungen nicht nennenswert kühler oder leiser.

gedi
2015-06-14, 19:44:57
Och, ein AC3 hielt eine 290x super in Schach - von daher ...

M4xw0lf
2015-06-14, 19:45:46
Das könnt Ihr Gift drauf nehmen!
Der wird mehr reissen als manchen lieb ist!
Oh horn.

Bald schreib ich diese zwei Worte in meine Signatur. :freak:

dargo
2015-06-14, 19:47:46
Trotzdem sind andere Kühllösungen nicht nennenswert kühler oder leiser.
Möglich, dass der Maxwellkühler deutlich überarbeitet wurde im Vergleich zum R9 290X Kühler. Kann das schlecht einschätzen. Da müssen wir einfach Tests zur R9 390X abwarten.

Screemer
2015-06-14, 19:48:34
Edit:
Der Kühler der GTX980 bei Asus. :facepalm:
http://www.hardwareluxx.de/images/stories/galleries/reviews/2014/roundup-gtx980/asus-gtx980strix-12-rs.jpg

Ich ahne Schlimmes für die 390(X) @Asus.
Vollidioten. immer und immer wieder. das geht jetzt seit der 7970 so.

dargo
2015-06-14, 19:56:43
Vollidioten. immer und immer wieder. das geht jetzt seit der 7970 so.
Hier ist ein besseres Bild.

http://pics.computerbase.de/6/4/4/2/2/6-1080.2937170155.jpg

Jedenfalls sehe ich da nicht so riesen Lücken wie bei der R9 290X Matrix.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10634285&postcount=242

Tesseract
2015-06-14, 20:08:31
Das wage ich zu bezweifeln. Das bisschen Plus könnte wegen dem Speichertakt sein. Hatte den vergessen zu ändern.
an dem testrun ist irgendwas faul, ein haswell auf 3,5GHz + hawaii sollte irgendwo um die 900k-950k liegen.

Tamagothi
2015-06-14, 20:10:56
das ist der Geleakte treiber !!

Der 15.5er hat 810k/890k bei 4,4 GhZ

iuno
2015-06-14, 20:17:46
Jedenfalls sehe ich da nicht so riesen Lücken wie bei der R9 290X Matrix.
Auf den Pressebildern/Testexemplaren der Matrix gab es diese tiefen Rillen auch nicht

es gibt erweiterbare aio´s , in mancher beschreibung steht sogar das man eine nicht aio wakü grafikkarte in die cpu aio wakü mit einbinden kann.
http://www.fractal-design.com/home/kelvinfocus

die pumpe wäre stark genug um weitere radiatoren und gpu´s einzubinden. aber wenn man das möchte kann man dann eigentlich auch zu einer normalen wakü greifen.
Danke, das war mir auch neu. Fractal gibt hier übrigens an, man könne mit deren Produkten bis zu 1 CPU + 1 GPU (120 mm), 1-2 CPUs + 1-2 GPUs (240mm) bzw. 1-4 CPUs + 1-4 GPUs (360mm) kühlen.

Troyan
2015-06-14, 20:42:45
Sapphire leakt auch:
https://www1.sapphiretech.com/catapage_pd.asp?cataid=278&lang=eng

Die 390X hat eine einen Stromverbrauch von bis zu 375Watt und 2x8 PIN Anschlüsse...

aufkrawall
2015-06-14, 20:44:45
Fantasieangabe? Die 290X Tri-X New hat eine TDP von 250W.

Troyan
2015-06-14, 20:46:23
Unter 300W für die "New Edition": https://www1.sapphiretech.com/productdetial.asp?pid=0EC24411-49DB-496C-8449-131D2E7A46E2&lang=eng

aufkrawall
2015-06-14, 20:47:39
Es sind 250W:
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index14.php

Troyan
2015-06-14, 20:49:34
Und Hardware.fr kommt auf 271W: http://www.hardware.fr/articles/935-3/consommation-efficacite-energetique.html

aufkrawall
2015-06-14, 20:51:04
Ich lese dort nicht "Tri-X New".

Troyan
2015-06-14, 20:56:00
Und ich lese es bei HT4U nicht. Und nun?

Laut der Homepage ist nur die 4GB, die neue Version. Die von Hardware.fr ist die alte. Gut, da sind 20Mhz unterschied. Aber die 390X soll auch mit 1055Mhz kommen. Wird man wohl mit viel Spannung nachhelfen.

Agent117
2015-06-14, 21:01:15
Sapphire leakt auch:
https://www1.sapphiretech.com/catapage_pd.asp?cataid=278&lang=eng

Die 390X hat eine einen Stromverbrauch von bis zu 375Watt und 2x8 PIN Anschlüsse...

TDP-mäßig steht da bei jeder karte auch aus der 200er Serie nur Quatsch.
Und bei der 300er Serie wird immer genau das angegeben, was die Karte theoretisch über PEG und Extrastromstecker aufnehmen kann.

Im Fall der R9 390X sind das 75W PCI-Express Slot und 2*150Watt über 2*8-polige Stromstecker. Ergibt 375W.

Unicous
2015-06-14, 21:04:21
Bei Troyan ist die Devise: Hauptsache ein wenig FUD verbreiten ohne nachzudenken.

:rolleyes:

BlacKi
2015-06-14, 21:07:19
Das wissen wir noch nicht genau weil die Deppen die als erstes solche Karten bekommen nicht in der Lage sind einfachste Sachen wie RPM der Lüfter zu vergleichen. Die haben immer nur 3DFurz im Kopf. :facepalm: Gerade bei XFX würde sich das dank gleichem Kühler anbieten.


ich kann mir sowieso nicht vorstellen das die tdp der 390x wirklich bei 208w liegen wird. 280w käme eher hin. aber selbst dass wird nicht reichen bei mehr speicher und mehr core takt.

Sunrise
2015-06-14, 21:07:30
Sapphire leakt auch:
https://www1.sapphiretech.com/catapage_pd.asp?cataid=278&lang=eng

Die 390X hat eine einen Stromverbrauch von bis zu 375Watt und 2x8 PIN Anschlüsse...
Vor allem wichtig: Hirn ausschalten und direkt posten! :D:P

Ist ja nicht so, als ob man bei _genau_ 375W hellhörig werden sollte.

Da scheinen die Filter nicht richtig zu funktionieren, bzw. so:

if AMD then goto 3dcenter

3dcenter:
brain (sleep);
post BS;
break;

Thunder99
2015-06-14, 21:10:29
Es macht keinen Unterschied ob man 4GB oder 8GB hat. Der Verbrauch ist nahezu identisch!

Einzig interessant ist ob der Controller mehr Verbraucht

Troyan
2015-06-14, 21:11:42
TDP-mäßig steht da bei jeder karte auch aus der 200er Serie nur Quatsch.
Und bei der 300er Serie wird immer genau das angegeben, was die Karte theoretisch über PEG und Extrastromstecker aufnehmen kann.

Im Fall der R9 390X sind das 75W PCI-Express Slot und 2*150Watt über 2*8-polige Stromstecker. Ergibt 375W.

Bei der 290 Serie schreiben sie <300W - auch bei der der Vapor-X mit 2x8 Pin Anschlüssen. Also schnell Google angeworfen und auf das Hexus Review gestoßen:
http://www.bit-tech.net/hardware/graphics/2014/06/05/sapphire-radeon-r9-290-vapor-x-oc-review/8

Die Vapor läuft mit 1030MHz und verbraucht 20W bei gleicher Leistung mehr als die 290X im Referenzdesign. Also schon irgendwo in der Richtung von 270-280W.

aufkrawall
2015-06-14, 21:12:30
Und ich lese es bei HT4U nicht. Und nun?

Bereitet es dir Schmerzen, irgendetwas über Radeons zu sagen, was sie nicht völlig schlecht dastehen lässt?
Und nun schau dir einfach mal den Stromverbrauch bei HT4U von der alten Tri-X an. Und, oh Wunder, er deckt sich mit dem Verbrauch bei hardware.fr...
http://ht4u.net/reviews/2013/sapphire_radeon_tri-x_r9_290x_oc_im_test/index14.php

Screemer
2015-06-14, 21:14:30
Und Hardware.fr kommt auf 271W: http://www.hardware.fr/articles/935-3/consommation-efficacite-energetique.html
das ist bei hardware.fr überhaupt nicht nachvollziehbar. es gibt keinen test der 8gb tri-x. der test der 4gb version liegt bei denen default unter den 271W: http://www.hardware.fr/articles/923-14/sapphire-radeon-r9-290x-tri-x-oc-test.html

Und ich lese es bei HT4U nicht. Und nun?

dann liest du aber wirklich schlecht. der test bei ht4u hingegen sagt explizit, dass es sich um ein 6 phasen-design (http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index7.php)handelt. Das hat nur die "new edition", die alte tri-x hatte nur 5 phasen (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Sapphire-R9-290X-Tri-X-New-Editions-OC-1149961/galerie/2327279/?fullsize). die new edtion hat sogar 2x 8pin und könnte sogar 375W nuckeln. die werte liegen aber niedriger als bei der alten 4gb version. (http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index14.php) und mit 262W sogar worst case sogar niedriger als die werte von hw.fr im spieleverbrauch.

Troyan
2015-06-14, 21:15:30
Nö. Nur läuft die neue Version mit 1020MHz und die alte mit 1040Mhz.
Und die 390X soll mit 1055MHz auf den Markt kommen.

Und die 290 mit Vapor-X hatte einen Takt von 1030Mhz und verbraucht im Hexus-Review 37W mehr im Gesamtsystem als die Asus mit 1000Mhz.

aufkrawall
2015-06-14, 21:16:17
Der Speicher wird relativ egal sein, es wird dann bei Erreichen der TDP einfach der Takt etwas mehr verringert.

Auch Troyan scheint noch nicht ganz verstanden zu haben, wie Powertune sich verhält.

fondness
2015-06-14, 21:20:04
Sapphire leakt auch:
https://www1.sapphiretech.com/catapage_pd.asp?cataid=278&lang=eng

Die 390X hat eine einen Stromverbrauch von bis zu 375Watt und 2x8 PIN Anschlüsse...

Wenigstens gibt es bei der Sapphire 390X jetzt 3xDP, 1x HDMI und nur noch 1xDVI. Ich habe nie verstanden warum an bei Hawaii wieder zurück gegangen ist auf 2xDVI und dafür nur einen DP verbaut.

r3ptil3
2015-06-14, 21:27:26
Schade schade, bleibt doch nur noch Fury interessant.

Troyan
2015-06-14, 21:31:41
das ist bei hardware.fr überhaupt nicht nachvollziehbar. es gibt keinen test der 8gb tri-x. der test der 4gb version liegt bei denen default unter den 271W: http://www.hardware.fr/articles/923-14/sapphire-radeon-r9-290x-tri-x-oc-test.html

Laut der anderen Stromseite sind es 268W in Anno. Also gleich zum neuen Test.
Die Gigabyte soll bei 1040Mhz sich 285W genehmigen...

Die Asus 290 mit 100Mhz liegt bei 247W. Mit Ca. 30W mehr sind es schon 277W für die Vapor-X. Erklärt, wieso Sapphire bei den 300 Karten durchgehend auf 2x8 Pin setzt.

Und zeigt, dass sich mit hoher Wahrscheinlichkeit am Stromverbrauch nichts geändert hat.

aufkrawall
2015-06-14, 21:31:46
Schade schade, bleibt doch nur noch Fury interessant.
Nö. Wenn die Preise nicht so hoch sind wie befürchtet, kann man hoffentlich Hawaii Pro durch bessere Custom Lösungen besser als P/L-Karte als bisher empfehlen.
Der Preis kann gar nicht so hoch sein, wie will man sonst Karten loswerden gegen die 970.

r3ptil3
2015-06-14, 21:33:31
Nö. Wenn die Preise nicht so hoch sind wie befürchtet, kann man hoffentlich Hawaii Pro durch bessere Custom Lösungen besser als P/L-Karte als bisher empfehlen.
Der Preis kann gar nicht so hoch sein, wie will man sonst Karten loswerden gegen die 970.

Das schon, nur wer sagt dass die Preise doch nicht so hoch sind wie befürchtet?
Ich gehe davon aus, dass man eine R9 390X nicht unter 400.-€ sehen wird und das ist uninteressant.

Screemer
2015-06-14, 21:37:32
Laut der anderen Stromseite sind es 268W in Anno. Also gleich zum neuen Test.

das sind immer noch welten zu den von dir proklamierten 375W.

Sapphire leakt auch:
https://www1.sapphiretech.com/catapage_pd.asp?cataid=278&lang=eng

Die 390X hat eine einen Stromverbrauch von bis zu 375Watt und 2x8 PIN Anschlüsse...

mal völlig davon ab, dass du dir mal ne diskussionskultur angewöhnen solltest und wie ich oder aufkrawall auch mal nen link setzten könntest. denn gerade haust du zahlen raus und erwartest, dass man sich die dann auch noch selber zusammensucht. so funktioniert das in foren normalerweise nicht. man nimmt dich dann vielleicht auch ein wenig mehr für voll.

Das schon, nur wer sagt dass die Preise doch nicht so hoch sind wie befürchtet?
Ich gehe davon aus, dass man eine R9 390X nicht unter 400.-€ sehen wird und das ist uninteressant.
liegt doch genau im preisbereich der 8gb 290er. http://geizhals.eu/?cat=gra16_512&asd=on&asuch=290x&xf=132_8192#xf_top

Dural
2015-06-14, 21:38:39
300watt+ ist für hawaii mit 1050/1500mhz sicher zu rechnen.

fondness
2015-06-14, 21:38:45
Übrigens gibt es noch keine Anzeichen für einen 4Gb Grenada, sieht so aus wie wenn alle 8GB hätte, und selbst die 390 nonX taktet mit 1000/3000 default.

Gipsel
2015-06-14, 21:44:26
300watt+ ist für hawaii mit 1050/1500mhz sicher zu rechnen.Nein.

Screemer
2015-06-14, 21:48:05
300watt+ ist für hawaii mit 1050/1500mhz sicher zu rechnen.
soviel ziehen nicht mal die 8gb oc versionen von hawaii. kann mir nicht vorstellen, dass 125MHz mehr für den Speicher soviel ausmachen könnnen. wie kommst du drauf?

aufkrawall
2015-06-14, 21:58:36
Von den Takraten lässt sich erstmal kein Rückschluss auf die TDP ziehen.
Die ist durch Powertune-Limit im Bios hinterlegt.

Der Speicher hat bei Hawaii ja bisher nicht so hoch getaktet. Wieso soll es so unwahrscheinlich sein, dass man fast zwei Jahre später nicht energieeffizienteren verbaut?
Davon ab wird dessen Verbrauch vergleichsweise gering sein zum großen Interface.

maximus_hertus
2015-06-14, 23:14:08
Erklärt, wieso Sapphire bei den 300 Karten durchgehend auf 2x8 Pin setzt.

Und zeigt, dass sich mit hoher Wahrscheinlichkeit am Stromverbrauch nichts geändert hat.

Es gibt 15 verschiedene GTX 980 Karten mit 2 x 8 Pin Stromversorgung - bei einer TDP von 165W. Hmmm was passt da nicht ^^

Es gibt auch GTX x60 Karten mit 1 x 8 und 1 x 6-Pin Stromversorgung. Das heißt bzgl. des Stromverbrauchs erstmal wenig.


Im Gegenteil, ich begrüße 2 x 8 Pin, um mehr Tuningmöglichkeiten zu haben.

d2kx
2015-06-14, 23:24:31
Sapphire wirbt bei allen neuen Karten mit LiquidVR. Das ist so auch nicht korrekt.

BlacKi
2015-06-14, 23:33:32
Der Speicher wird relativ egal sein, es wird dann bei Erreichen der TDP einfach der Takt etwas mehr verringert.

Auch Troyan scheint noch nicht ganz verstanden zu haben, wie Powertune sich verhält.

klar so kann man die tdp und den verbrauch schön niedrig halten, aber mehr leistung bekommt man dadurch nicht. die 1050mhz sollte sie halten wenn man 500 mücken verlangen will. ansonsten könnten sie ja auch mit 1200 werben...

Lukaner
2015-06-15, 07:38:47
oh mann, bei manchen Usern hier scheint es zum guten Ton zu gehören Karten eines gewissen Herstellers notorisch schlecht zu reden. Noch dazu in dilettantischem Stil..
Naja, zumindest ist so für Unterhaltung gesorgt bis zum Launch :popcorn:

Ich denke man wird davon ausgehen können, dass die neuen 300er etwas mehr Leistung bei etwas weniger Verbrauch in Bezug auf die Vorgänger bieten werden.
Bei AMD schlafen ja auch nicht alle!

horn 12
2015-06-15, 07:41:52
Auch meine Sapphire R9 290 Tri-X New Edition hat 2x 8Pin Anschlüsse
daher würde ich auf solches wenig geben.

r3ptil3
2015-06-15, 07:59:16
oh mann, bei manchen Usern hier scheint es zum guten Ton zu gehören Karten eines gewissen Herstellers notorisch schlecht zu reden. Noch dazu in dilettantischem Stil..
Naja, zumindest ist so für Unterhaltung gesorgt bis zum Launch :popcorn:

Ich denke man wird davon ausgehen können, dass die neuen 300er etwas mehr Leistung bei etwas weniger Verbrauch in Bezug auf die Vorgänger bieten werden.
Bei AMD schlafen ja auch nicht alle!

Hättest dir ein paar vorherige Seiten auch durchlesen sollen. Sieht eher danach aus, dass sich am Verbrauch nichts tut.

Godmode
2015-06-15, 08:17:50
Mich wundert das es noch keine größeren Leaks gibt, schließlich sind ja nur mehr 3 Tage bis zur Vorstellung

Lukaner
2015-06-15, 08:25:37
Hättest dir ein paar vorherige Seiten auch durchlesen sollen. Sieht eher danach aus, dass sich am Verbrauch nichts tut.

LOL.
Ich hab mir jede Seite dieses Threads durchgelesen.
Ja, das ist mein Ernst.

Und Belege dafür, dass der Verbrauch bei den neuen Karten nicht sinkt, hab ich keine gesehen. Sehr viele Mutmaßungen und Meinungen, die als Fakten hingestellt wurden, aber keine Belege.
Und bevor ich einen Hersteller diskreditiere, halte ich doch erstmal lieber meine Füße still. Wenns dann wirklich so kommt und das Perf./Watt Verhältnis nicht besser geworden ist, kann man immer noch (dann berechtigterweise) schimpfen.

AffenJack
2015-06-15, 08:56:02
Mich wundert das es noch keine größeren Leaks gibt, schließlich sind ja nur mehr 3 Tage bis zur Vorstellung

Zu R300 oder Fiji? Fii kommt doch eh erst am 24 die Tests so wies sich anhört. Außerdem haben zumindest in den USA nen Großteil der Seiten noch keinerlei Samples. Also entweder ist AMD da sehr selektiv oder es hat noch niemand Karten, dementsprechend keine Leaks.

Godmode
2015-06-15, 09:27:32
Zu R300 oder Fiji? Fii kommt doch eh erst am 24 die Tests so wies sich anhört. Außerdem haben zumindest in den USA nen Großteil der Seiten noch keinerlei Samples. Also entweder ist AMD da sehr selektiv oder es hat noch niemand Karten, dementsprechend keine Leaks.

Achso ich dachte Fiji kommt schon am 18. R300 interessiert mich genau null.

robbitop
2015-06-15, 09:35:27
Hu? Ich hatte den 16.6. irgendwie im Hinterkopf.
Da es ja bereits ein paar Fotos von Fijii mit verschiedenem Ursprung gab, nahm ich mal an, dass die Samples schon raus sind.
Auch las es sich im Wochenrückblick so, dass letzte Arbeitswoche Fijii in der PCGH eingetroffen ist (das Foto mit Raff mit den beiden Kartons und seiner 3dfx Tasse).

dargo
2015-06-15, 09:35:48
Hättest dir ein paar vorherige Seiten auch durchlesen sollen. Sieht eher danach aus, dass sich am Verbrauch nichts tut.
Zeig mir mal den Hinweis. Vorallem auch was die 370 und 380 angeht.

r3ptil3
2015-06-15, 09:47:56
Zeig mir mal den Hinweis. Vorallem auch was die 370 und 380 angeht.

Spezifikationen der Sapphire R9 390X. (375W)

Und ich habe gesagt "es sieht danach aus" und nicht dass es fix und sicher ist.

dargo
2015-06-15, 10:05:02
Spezifikationen der Sapphire R9 390X. (375W)

:facepalm:

derF
2015-06-15, 10:06:39
:biggrin:

r3ptil3
2015-06-15, 10:10:17
:facepalm:

Es geht darum, dass die Angaben von der R9 290X kopiert wurden. Da war ja auch noch die brasilianische Seite mit den Leaks. Ist mir auch klar, dass sich die 375W nur auf das beziehen was maximal an Strom geliefert werden kann.

Unicous
2015-06-15, 10:33:10
Es geht darum, dass die Angaben von der R9 290X kopiert wurden. Da war ja auch noch die brasilianische Seite mit den Leaks. Ist mir auch klar, dass sich die 375W nur auf das beziehen was maximal an Strom geliefert werden kann.

Dumm nur, dass die TDP der R9 290X bei 290 Watt liegt. Seit fast zwei Jahren.:facepalm:

Und dumm ist auch, dass wir schon geklärt haben, dass Sapphire einfach die maximal spezifizierte Leistungsaufnahme angegeben hat 75+150+150=375.

Merkste was?:rolleyes:


Wenn du den Thread ordentlich verfolgt hättest wüsstest du das übrigens auch schon.

Dural
2015-06-15, 10:45:31
Ich glaube nicht das die 300 Serie überhaupt eine TDP Angabe bekommt, es gibt ja auch keine Referenz Karten.

tm0975
2015-06-15, 10:45:57
seine aussage bezog sich lediglich darauf, dass es bisher wenig anhaltspunkte für eine reduktion des verbrauchs der 390/390x gibt, auch weil es die einzige wirkliche schwäche der 290/290x darstellt. klar wäre es wünschenswert, dass amd das in den griff bekommt. aber ob das mit der 300er serie passiert, ist noch völlig unklar.

Dural
2015-06-15, 10:54:01
es wird sich auch nichts ändern, Hawaii bleibt Hawaii. ;)

Die Fertigung ist seit Jahren am laufen, und offensichtlich gibt es auch keine neue Steppings. Wenn dies alles zutrifft sehe ich Hardware Technisch kaum eine Möglichkeit hier was gross zu ändern.

r3ptil3
2015-06-15, 11:00:44
Dumm nur, dass die TDP der R9 290X bei 290 Watt liegt. Seit fast zwei Jahren.:facepalm:

Und dumm ist auch, dass wir schon geklärt haben, dass Sapphire einfach die maximal spezifizierte Leistungsaufnahme angegeben hat 75+150+150=375.

Merkste was?:rolleyes:


Wenn du den Thread ordentlich verfolgt hättest wüsstest du das übrigens auch schon.

Was ist denn mit euch los..

Es ging mir einfach darum, dass schon vorher die Daten von der R9 290X einfach auf die R9 390X kopiert wurden, sprich es deutet einfach daraufhin, dass da nichts passiert was Effizienz angeht.

Ist das jetzt schwer zu verstehen oder könnt ihr was anderes belegen?

Unicous
2015-06-15, 11:39:54
Du kannst gerne noch zig mal die Erkenntnisse von vor zwei Seiten wiederholen, es ist mMn nach dem Gesprächsfluss nicht zuträglich und ich behaupte mal es hat dich auch niemand darum gebeten.

Ob und wie was Sapphire einfach copy&pasted hat wissen weder du noch ich. Es könnte auch alles falsch sein und das line up besteht zu 100% aus Cape Verde mit einer TDP bis zu 500 Watt.:rolleyes:

r3ptil3
2015-06-15, 11:53:17
Du kannst gerne noch zig mal die Erkenntnisse von vor zwei Seiten wiederholen, es ist mMn nach dem Gesprächsfluss nicht zuträglich und ich behaupte mal es hat dich auch niemand darum gebeten.

Ob und wie was Sapphire einfach copy&pasted hat wissen weder du noch ich. Es könnte auch alles falsch sein und das line up besteht zu 100% aus Cape Verde mit einer TDP bis zu 500 Watt.:rolleyes:

Zig mal? Ich habe einen User auf den bisherigen Verlauf hingewiesen, in einer ganz neutralen Art und Weise. Jeder kann dem natürlich wiedersprechen - sachlich.

Du hingegen willst bewusst provozieren mit deiner Art. Geh mir einfach aus dem Weg hier und ignorier von mir aus meine Beiträge.

Unicous
2015-06-15, 12:28:17
Du nimmst die maximal laut PCIe-Spezifikation mögliche Leistungsaufnahme die Sapphire angegeben hat und konstruierst daraus den Fakt, dass sich nichts tut.

Das ist einfach nur FUD. Die TDP-Angabe kann noch höher ausfallen oder auch niedriger, je nachdem wie AMD vorgegangen ist.


Und nein, wir wissen nicht ob AMD nicht noch ein Stepping reingeschoben hat, das kann man gar nicht bei GPU-Z ablesen. Das was bei Device ID steht ist z.B. nicht das Stepping.

HOT
2015-06-15, 12:28:56
es wird sich auch nichts ändern, Hawaii bleibt Hawaii. ;)

Die Fertigung ist seit Jahren am laufen, und offensichtlich gibt es auch keine neue Steppings. Wenn dies alles zutrifft sehe ich Hardware Technisch kaum eine Möglichkeit hier was gross zu ändern.

Offensichtlich ist bisher nur, dass man Hawaii nur in den aller seltensten Fällen auf 1100 mit Standardspannung bekommt. Erhöht man die Spannung erhöht sich auch der Verbrauch übelst. Das sind die Fakten. Da sich am Design des PCBs und am Träger offensichtlich nichts getan hat lt. PCB-Shot der 390X bleibt ja nicht viel Wahl als ein neues Stepping/eine neue Rev. Wie gesagt kommuniziert AMD das aber nicht und gibt das auch nirgendwo an. Ich nehme an, die verpassen dem Ding einfach einen neuen Codenamen und das wars.

mboeller
2015-06-15, 12:47:44
Offensichtlich ist bisher nur, dass man Hawaii nur in den aller seltensten Fällen auf 1100 mit Standardspannung bekommt. Erhöht man die Spannung erhöht sich auch der Verbrauch übelst. Das sind die Fakten. Da sich am Design des PCBs und am Träger offensichtlich nichts getan hat lt. PCB-Shot der 390X bleibt ja nicht viel Wahl als ein neues Stepping/eine neue Rev. Wie gesagt kommuniziert AMD das aber nicht und gibt das auch nirgendwo an. Ich nehme an, die verpassen dem Ding einfach einen neuen Codenamen und das wars.

Wäre das nicht blamabel? 1,5 Jahre für ein neues Stepping, dass nur den Verbrauch leicht reduziert (unbestätigt) bzw. den max. möglichen Takt um 5-10% anhebt. Ich hoffe doch das sich da mehr getan hat.

M4xw0lf
2015-06-15, 12:52:44
Ich glaube selbst das ist schon das höchste der Gefühle.

Flusher
2015-06-15, 13:18:41
es wird sich auch nichts ändern, Hawaii bleibt Hawaii. ;)

Die Fertigung ist seit Jahren am laufen, und offensichtlich gibt es auch keine neue Steppings. Wenn dies alles zutrifft sehe ich Hardware Technisch kaum eine Möglichkeit hier was gross zu ändern.

Wie kommst du zu solchen Feststellungen?

Wäre das nicht blamabel? 1,5 Jahre für ein neues Stepping, dass nur den Verbrauch leicht reduziert (unbestätigt) bzw. den max. möglichen Takt um 5-10% anhebt. Ich hoffe doch das sich da mehr getan hat.

Wieso blamabel? Was willst du denn sonst mit ein bestehenden Design machen, ausser es hochzuskalieren (Fiji) oder den Verbrauch durch bessere Fertigung (neues Stepping) zu reduzieren? Alles andere ist ökonomisch nicht sinnvoll. Da steckt man lieber die Ressourcen in die nachfolgende Architektur mit neuer Fertigung.

r3ptil3
2015-06-15, 13:21:31
Du nimmst die maximal laut PCIe-Spezifikation mögliche Leistungsaufnahme die Sapphire angegeben hat und konstruierst daraus den Fakt, dass sich nichts tut.


Es war eine Annahme. Ich habe nicht von Fakten gesprochen, sondern "es sieht eher danach aus." Verstehst du den Unterschied?

Zu wünschen wäre es ja, dass die R9 390X weniger Verbraucht bzw. eine evtl. tiefere Spannung hat. Aber siehts danach aus??

Hübie
2015-06-15, 13:26:07
Man lass es doch einfach. Nur weil Unicous soviel Zeit hier verbringt um jedes gelegte Ei zu zerpflücken musst du dich noch nicht zwei Seiten lang rechtfertigen.

AMDs Strategie muss halt erst mal durchschlagen und ich schätze dass Grenada ein (metal-) Spin von Hawaii ist. Marktwirtschaftlich betrachtet macht es sonst keinen Sinn nur mehr VRAM drauf zu packen. Ein paar Features muss man schon bringen. Vor allem Effizienz setzt sich fest. Hoffentlich binnen die dieses Mal besser als Tahiti X-D

Flusher
2015-06-15, 13:26:29
Es war eine Annahme. Ich habe nicht von Fakten gesprochen, sondern "es sieht eher danach aus." Verstehst du den Unterschied?

Zu wünschen wäre es ja, dass die R9 390X weniger Verbraucht bzw. eine evtl. tiefere Spannung hat. Aber siehts danach aus??

Selbst die Annahme ist blödsinn, denn noch nie hat man platt aus der maximal möglichen Stromzufuhr auf eine TDP geschlossen. Die Anzahl und Typ der Stromstecker geben nur das an, was maximal möglich wäre - was längst nicht bedeutet, dass das maximale auch ausgeschöpft wird. Eine 980 GTX könnte mit ihren 2 x 6Pin Anschlüssen auch max. 225W fressen

Hübie
2015-06-15, 13:27:36
Das Kühlkonstrukt ist dennoch darauf ausgelegt konstant 225 Watt abführen zu können :P

anddill
2015-06-15, 13:33:07
Mal noch ein Gedanke zur Leistungsaufnahme:
Die originalen R9-290 Spannungswandler waren relativ einfach gehalten. Pro Phase ein High- und ein Lowside-FET. Custom-Designs integrieren das zT. noch und kompensieren die höhere Leistungsdichte durch mehr Phasen.
Wenn AMD nur an den Wandlern gearbeitet hat und da ein paar Cent mehr rein steckt dann könnten die Wandlerverluste zB. mit einem zweiten Lowside-FET etwa gedrittelt werden. Das macht für die gesamte Karte dann schon ~10% weniger Leistungsaufnahme.

Screemer
2015-06-15, 13:40:24
Interessant. Die tri-x new edition hat ja zB. 6 phasen, statt derer 5 wie das alte design. Verbraucht auch gut 10% weniger als die erste tri-x. Kannst du dan von den Bildern was sagen?

Http://www.ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index7.php

Dawn on Titan
2015-06-15, 13:40:31
Was für +/- null gegenüber der 290 reichen sollte.

Matrix316
2015-06-15, 13:41:51
Also was ich jetzt so über die 390X und Co gelesen habe, ist das doch der größte Beschiss seit der 9800GTX von Nvidia.

r3ptil3
2015-06-15, 13:44:35
Selbst die Annahme ist blödsinn, denn noch nie hat man platt aus der maximal möglichen Stromzufuhr auf eine TDP geschlossen. Die Anzahl und Typ der Stromstecker geben nur das an, was maximal möglich wäre - was längst nicht bedeutet, dass das maximale auch ausgeschöpft wird. Eine 980 GTX könnte mit ihren 2 x 6Pin Anschlüssen auch max. 225W fressen

Es ging um sämtliche geleakten Daten. Die maximale Stromzufuhr selber als Grund ist Blödsinn, ja. Ich bezog mich damit aber eigentlich auf sämtliche geleakten Seiten. Wie waren nochmal die Werte aus der brasilianischen Seite(?) Da waren die Werte 1:1 von der R9 290X kopiert. Deswegen kam ich auf die Annahme.

anddill
2015-06-15, 13:57:45
Interessant. Die tri-x new edition hat ja zB. 6 phasen, statt derer 5 wie das alte design. Verbraucht auch gut 10% weniger als die erste tri-x. Kannst du dan von den Bildern was sagen?

Http://www.ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index7.php

Nö, genau da wo es interessant ist klebt noch das Wärmeleitpad drauf.

aufkrawall
2015-06-15, 13:57:53
klar so kann man die tdp und den verbrauch schön niedrig halten, aber mehr leistung bekommt man dadurch nicht. die 1050mhz sollte sie halten wenn man 500 mücken verlangen will. ansonsten könnten sie ja auch mit 1200 werben...
Die macht kein Hawaii ohne Monster-Spannung mit. Außerdem kann Powertune auch recht heftig den Takt reduzieren, bei Furmark geht es auf einmal bis 500-600Mhz runter.
Aber nicht jedes Spiel ist ein Powervirus, in BF4 etwa dürfte der höhere Takt die meiste Zeit schon anliegen. Deswegen macht das schon einigermaßen Sinn.

Ach ja: Die Stromphasen-Anbindung muss natürlich auch kein Indikator für die festgelegte TDP sein. :ufinger:

anddill
2015-06-15, 14:09:10
Mir gehts um die Verluste in den Spannungswandlern. Das Verbrauch und Lautstärke tatsächlich mehr als nur am Rande interessieren musste ja erst mal in den USA und Asien ankommen, wo sich kaum jemand bisher dafür interessiert hat. Daher spekuliere ich halt daß man mit definiert einzuhaltenden Vorgaben für den Spannungswandler auch noch mal ein gutes Stück Effizienz aus dem Gesamtkonstrukt holen kann. Einfach weil das bei der Vorstellung der Hawai-Serie damals noch nicht das große Thema bei der Konstruktion war und man lieber 2 Dollar an der Hardware gespart hat.

HOT
2015-06-15, 14:13:25
Interessant. Die tri-x new edition hat ja zB. 6 phasen, statt derer 5 wie das alte design. Verbraucht auch gut 10% weniger als die erste tri-x. Kannst du dan von den Bildern was sagen?

Http://www.ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index7.php
Ich hatte ja schon länger den Verdacht, dass Sapphire einfach nur das neue Referenzdesign vorab verwendet.
Dennoch wird Genada ein neues Stepping sein, denn die Takte müssen ja auch kommen.
Die 1100 MHz sind ja auch sicher nicht das höchste der Gefühle, denn das ist ja eine Gaming-Karte. Die Lightening-Variante steht ja noch aus.
Ich geh seit Curacau davon aus, dass AMD einfach einen neuen Codenamen bei einem neuen Stepping verwendet. Dann wäre Trinidad PitcairnC. Tun die im APU-Bereich ja auch.
Richland = TrinityB
Godaveri = KaveriB
Beema = KabiniB
...

Botcruscher
2015-06-15, 14:23:13
Mit neuem Stepping dürfte schon einiges gehen. Bei den Phasen könnte man ja ein nicht erhältliches Referenzboard basteln und den Rest den Herstellern überlassen. Damit hätte man gute Tests und den Schwarze Peter weiter geschoben.

Sunrise
2015-06-15, 14:26:59
Wäre das nicht blamabel? 1,5 Jahre für ein neues Stepping, dass nur den Verbrauch leicht reduziert (unbestätigt) bzw. den max. möglichen Takt um 5-10% anhebt. Ich hoffe doch das sich da mehr getan hat.
Wenn du AMD das Geld gibst, dann bauen die extra für dich auch einen neuen Hawaii mit noch mehr Verbesserungen. Andernfalls hat Hawaii immer noch mehr DP als GM200 und ist mittlerweile verdammt günstig zu produzieren, weil deutlich unter 450mm².

Und wenn du jetzt Geld sparen willst, dann wirfst du nicht an einem Ende zweistellige Millionenbeträge für ein neues Tapeout raus, sondern versuchst, bereits investiertes Geld mit kleineren Verbesserungen in den Markt zu bringen, um überhaupt mit GM204 margenmäßig konkurrieren zu können, denn der liegt ganz zufällig auch unter 450mm².

Warum also zweistellige Millionenbeträge rauswerfen, die du nie wieder reinbekommst? Warum nicht anstelle dessen lieber auf ein 14nm/16nm Design gehen, dass auch wirklich "neu" ist und aufgrund von Fijis neuem Aufbau hier auch bereits auch alle nötigen Vorarbeiten geleistet wurden.

Wenn AMD die Dinger nicht los wird, haben sie damit genug Spielraum den Preis zu senken. Was ist daran jetzt genau blamabel? Weil du nicht erkennen kannst, dass AMD alles versucht, um auch in Zukunft noch oben mitspielen zu können und dafür kurzfristiges Effektfeuerwerk opfert, das auf 28nm sowieso keinen mehr interessiert?

I know what I would choose. And you wouldn't like it.

OBrian
2015-06-15, 14:27:55
@HOT: Das mag uns wie Beschiß vorkommen, aber wenn sich die Bedingungen für den Kartenhersteller dabei verändern, und sei es nur leicht (z.B. strengere Stromversorgungsrichtlinien), dann macht ein anderer Codename ja durchaus Sinn, um Verwechselungen zu vermeiden.

HOT
2015-06-15, 14:29:03
@Sunrise
Exakt so dürfte das gelaufen sein. Man überholt einfach bisherige Chips minimal und den Rest besorgt Omega Tier2 - Tadaa neues Lineup für super wenig Geld. 12_0-fähig sind sie ja eh schon alle bis auf Pitcairn, aber who cares, das ist jetzt eh ein Biligchip. Nur Tahiti musste ersetzt werden, das besorgt Antigua.
Ich bin sehr gespannt, ob die einen Antigua XT mit 1100MHz und 6GB machen, das wär sicher für viele ein sehr interessantes Produkt.

@HOT: Das mag uns wie Beschiß vorkommen, aber wenn sich die Bedingungen für den Kartenhersteller dabei verändern, und sei es nur leicht (z.B. strengere Stromversorgungsrichtlinien), dann macht ein anderer Codename ja durchaus Sinn, um Verwechselungen zu vermeiden.
Beschiss ist hart formuliert, ist halt ne Strategie das so zu machen - und ja, es hat ja wir du sagst auch Vorteile.

Dural
2015-06-15, 14:34:26
Es gibt ja schon ein Die Shot von einer 390x

Datum war glaub Woche 15 2015, mehr habe ich gerade nicht im Kopf.

fondness
2015-06-15, 14:35:45
Wenn du AMD das Geld gibst, dann bauen die extra für dich auch einen neuen Hawaii mit noch mehr Verbesserungen. Andernfalls hat Hawaii immer noch mehr DP als GM200 und ist mittlerweile verdammt günstig zu produzieren, weil deutlich unter 450mm².

Und wenn du jetzt Geld sparen willst, dann wirfst du nicht an einem Ende zweistellige Millionenbeträge für ein neues Tapeout raus, sondern versuchst, bereits investiertes Geld mit kleineren Verbesserungen in den Markt zu bringen, um überhaupt mit GM204 margenmäßig konkurrieren zu können, denn der liegt ganz zufällig auch unter 450mm².

Warum also zweistellige Millionenbeträge rauswerfen, die du nie wieder reinbekommst? Warum nicht anstelle dessen lieber auf ein 14nm/16nm Design gehen, dass auch wirklich "neu" ist und aufgrund von Fijis neuem Aufbau hier auch bereits auch alle nötigen Vorarbeiten geleistet wurden.

Wenn AMD die Dinger nicht los wird, haben sie damit genug Spielraum den Preis zu senken. Was ist daran jetzt genau blamabel? Weil du nicht erkennen kannst, dass AMD alles versucht, um auch in Zukunft noch oben mitspielen zu können und dafür kurzfristiges Effektfeuerwerk opfert, das auf 28nm sowieso keinen mehr interessiert?

I know what I would choose. And you wouldn't like it.

Es ist im übrigen genau dasselbe, was man ja auch schon bei Hawaii-Release gemacht hat, auch dort wurde alles darunter weiter verwendet. Bonaire kam als Testballon.

Diesmal ist Tonga der Testballon und Fiji eben der neue High-End-Chip.

HOT
2015-06-15, 14:44:40
Das sind Lückenschließungen im Portfolio. Bonaire ist vor allem als Mobilchip interessant gewesen und Tonga ersetzt Tahiti, der ja doch outdated ist aufrund des zu knappen Featuresets und des zu schlappen Frontends. Ist ja auch AMDs GCN-Erstlingswerk, der kann jetzt wirklich in Rente gehen. Oland ergänzt das Angebot nach untern und Hawaii nach oben (mit starkem Blick auf Serversegment). Mit Fiji kommt jetzt noch die Bekloppten-Variante hinzu, erstmalig.
Es war halt nicht schlau an der Treiberentwicklung zu sparen in 2013/14. Eigentlich war das noch nie schlau. Beide Hersteller neigen ab und an mal dazu, aber das ist bisher immer nach hinten losgegangen.

-/\-CruNcher-/\-
2015-06-15, 15:02:05
Diese Max Angaben sind das Physische Limit der PCB und verbauten komponenten die Chips können das abrufen hat man spätestens bei der Analyse von Maxwell gesehen was da im ms berreich plötzlich rausgeschossen wird, und teils hört man es ziemlich deutlich ;)

THG hat die Belastung exzelent analysiert bei Maxwell mit einer bis her nie dagewesenen Auflößung :)

Das ganze wurde nur verdammt komprimiert es werden sehr oft diese Extremen spitzen erreicht aber eben für zeit im ms berreich auch wenn das Average natürlich immer weitaus niedrieger ist :)

Es ist im übrigen genau dasselbe, was man ja auch schon bei Hawaii-Release gemacht hat, auch dort wurde alles darunter weiter verwendet. Bonaire kam als Testballon.

Diesmal ist Tonga der Testballon und Fiji eben der neue High-End-Chip.

Wo bitte was bitte Testbalon das war doch die 285x schon 1 Jahr später nach Hawaii Release ?

und dann platzte dieser balon gegen die GTX 960 und 120W wo die meisten so knapp 110W fahren und die 285x mal so knapp 170W bei ihren angegebenen 180W ;)

dargo
2015-06-15, 16:07:01
Wo bitte was bitte Testbalon das war doch die 285x schon 1 Jahr später nach Hawaii Release ?

und dann platzte dieser balon gegen die GTX 960 und 120W wo die meisten so knapp 110W fahren und die 285x mal so knapp 170W bei ihren angegebenen 180W ;)
Erstens gibt es keine 285X. Zweitens liegt die TDP von Tonga bei 190W.
http://wccftech.com/amd-unveils-power-efficient-radeon-r9-285-tonga-pro-graphics-card-costs-299-performance-onpar-tahiti-xt/

Und drittens der Spieleverbrauch bei ca. 160W.
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index17.php

HOT
2015-06-15, 16:43:11
Da der 285 pure Resteverwertung war, dürfte die Spannung auch wesentlich höher angesetzt worden sein, als eigentlich nötig.

Dawn on Titan
2015-06-15, 16:55:53
Warum sollten deaktivierte SPs mehr Spannung brauchen?

Knuddelbearli
2015-06-15, 17:22:37
weill es nicht nur deaktivierte SPs gibt. und amd gibt immer allen mehr spannungen und nicht nur die die sie wirklich brauchen würde. damit verbrauch einheitlicher ist.

NV gibt dagegen immer die spannung die nötig ist dafür hat man dann ( vor allem aber nicht nur bei salvage karte ) extreme Ausschläge was mit PT auch zu unterschiedlichen Leistungen führt

aufkrawall
2015-06-15, 17:25:10
und amd gibt immer allen mehr spannungen und nicht nur die die sie wirklich brauchen würde. damit verbrauch einheitlicher ist.

Ja klar, das macht Sinn. :crazy:

Korvaun
2015-06-15, 17:30:21
Puh, 15.6., hoffentlich werden wir diese Woche endlich von AMD mit Fiji beglückt, das zieht sich zäher als Kaugummi. Von mir aus können sie den Liefertermin auf Anfang August legen, is mir egal, aber endlich die Fakten auf den Tisch wären nicht schlecht...

crux2005
2015-06-15, 18:12:01
Puh, 15.6., hoffentlich werden wir diese Woche endlich von AMD mit Fiji beglückt, das zieht sich zäher als Kaugummi. Von mir aus können sie den Liefertermin auf Anfang August legen, is mir egal, aber endlich die Fakten auf den Tisch wären nicht schlecht...

Haha, habe genau das selber Gefühlt. Ich will Morgen harte Fakten sehen. :biggrin:

rentex
2015-06-15, 18:19:28
Ja bitte, ab wieviel Uhr kann man mit Infos rechnen?

Effe
2015-06-15, 18:20:50
Unser E3 Plan: AMD Live-Webcast: 16. Juni, 18 Uhr: twitch.tv/amd; PC Gaming Show: 17. Juni, 3 Uhr: pcgamingshow.com - Yeah!
Quelle (https://www.facebook.com/AMDDeutschland/posts/950127968381063)

mironicus
2015-06-15, 18:21:11
E3 Pressekonferenz morgen ab 18 Uhr.

fondness
2015-06-15, 18:31:25
Hm, wenns blöd läuft gibt es Fiji erst zur PC Gaming Show um 3 Uhr in der früh^^

Unicous
2015-06-15, 18:34:26
E3 Pressekonferenz morgen ab 18 Uhr.

PST.:wink:

fondness
2015-06-15, 18:41:37
Laut dem Countdown morgen um 22 Uhr:
http://www.pcgamingshow.com/

maximus_hertus
2015-06-15, 18:43:14
Morgen um 18 Uhr gibt es den Radeon R300 Stream / Keynote. Später (um 3 Uhr morgens am Mittwoch) dann die PC Gaming Show.

Die entscheidenden Fragen sind aber:

Gibt es Testsamples?
R300 oder auch Fury?
Wie lange läuft das NDA für die Presse? Bei der TX gab es die Benches auch erst (deutlich) nach der Keynote. Bei Hawaii dauerte es fast einen ganzen Monat bis es Reviews gab...

Unicous
2015-06-15, 18:56:02
Laut dem Countdown morgen um 22 Uhr:
http://www.pcgamingshow.com/

Die Zeiten machen doch keinen Sinn?:confused:

Oben steht 18 Uhr (LA -> PST) , dann wäre es bei uns schon 3 Uhr (+9 Stunden) in der Nacht.

Unten steht 1 Tag und 5 Stunden, das wäre morgen Ortszeit 15 Uhr und bei uns 0:00 Uhr.

What the...?

Tamagothi
2015-06-15, 19:00:44
bei mir steht 1 tag 7 Std ^^

Unicous
2015-06-15, 19:04:04
Krass, du hast recht. Der Countdown ist anscheinend location based.:eek:

Bei FF ist Tracking aus, bzw. NoScript/Ghostery an, bei Chrome nicht. 2 Stunden Unterschied.

Hübie
2015-06-15, 19:23:42
Damit die pöhsen Internetler niemals herausfinden wo du bist X-D:upara:

Knuddelbearli
2015-06-15, 19:43:38
Ja klar, das macht Sinn. :crazy:

tja ist aber so auch wenn du versuchst es ins lächerliche zu frag zB Peter.

leider gibt man seitdem es die ASIC Quality gibt ( und auch dank dem Boost mode ) kaum einer noch die VID an ...

Sieht man auch zB schön an Massentests ( die man leider viel zu selten sieht ) wo mehrere identische Karten getestet werden, das da NV, vor Boost beim verbrauch jetzt bei der leistung, mehr schwankt

Hübie
2015-06-15, 19:45:30
Du redest wirres Zeug. Da fehlt mindestens ein Wort.

y33H@
2015-06-15, 19:58:33
Die entscheidenden Fragen sind aber:

Gibt es Testsamples?
R300 oder auch Fury?
Wie lange läuft das NDA für die Presse?Klar gibt es Samples, iwer muss das Zeug ja testen. Das NDA läuft wie üblich mehrere Tage, abhängig davon wann man unterschreibt :biggrin:

Dural
2015-06-15, 20:06:24
tja ist aber so auch wenn du versuchst es ins lächerliche zu frag zB Peter.

leider gibt man seitdem es die ASIC Quality gibt ( und auch dank dem Boost mode ) kaum einer noch die VID an ...

Sieht man auch zB schön an Massentests ( die man leider viel zu selten sieht ) wo mehrere identische Karten getestet werden, das da NV, vor Boost beim verbrauch jetzt bei der leistung, mehr schwankt

hmm müssten da theoretisch die amd karten nicht gerade mehr schwanken, da egal welche qualitat vom chip drauf ist, immer die selbe spannung hat.

das ist ja gerade der vorteil wenn man die spannung nach der qualität auswählt, die karten liegen viel dichter beisamen.

Knuddelbearli
2015-06-15, 20:09:33
puh da bin ich jetzt ehrlich gesagt nicht mehr ganz sicher

Wo ich mir 100% sicher bin:
AMD Karten schwankten immer deutlich weniger beim verbrauch als NV

Das AMD eine fixe VID hat bin ich mir jetzt nur zu 99% sicher ^^ Eventuell, wenn auch unwahrscheinlich, war es doch andersrum? Klingt aber unlogisch da ja AMD seine Chips immer deutlich weniger selektiert ( sprich binning ) als NV

Ist aber halt auch die frage was sich stärker auswirkt. Die Leckströme oder die Spannung

Bringhimup
2015-06-15, 20:21:34
Klar gibt es Samples, iwer muss das Zeug ja testen. Das NDA läuft wie üblich mehrere Tage, abhängig davon wann man unterschreibt :biggrin:

Sorry für OT, aber wie genau läuft so was eigentlich. Müsst ihr da ein Fax schicken, damit die auch wirklich eine "Unterschrift" haben? Muss nur der Chefredakteur unterschreiben oder alle Redakteure? Kannst du den Ablauf mal genau aufzeigen?

y33H@
2015-06-15, 20:40:51
Das schwankt, zT reicht Gentleman's Agreement oder per Mail, bei größeren Nummern idR mit Unterschrift von mir per Scan und seltener plus Chef.

Tamagothi
2015-06-15, 21:15:26
Hier auch mal OT ^^

Was sind so übliche strafen die einen erwarten wenn man Leakt und erwischt wird ?

Shaft
2015-06-15, 21:47:41
Hier auch mal OT ^^

Was sind so übliche strafen die einen erwarten wenn man Leakt und erwischt wird ?


1000 Peitschenhiebe.

Knuddelbearli
2015-06-15, 21:48:34
In Zukunft keine Testsamples und keinerlei zusammenarbeit

das dürfte reichen

Mr.Y
2015-06-15, 21:51:28
So war es bei mir damals ... ob das heute auch noch so ist, weiß ich allerdings nicht mehr.

Sunrise
2015-06-15, 21:52:18
In Zukunft keine Testsamples und keinerlei zusammenarbeit

das dürfte reichen
Sowas gabs damals schon für zu scharfe Kritik von 3DCenter gegen einen bestimmten IHV.

M4xw0lf
2015-06-15, 22:03:53
Was sind so übliche strafen die einen erwarten wenn man Leakt und erwischt wird ?
Man erhält ein Exemplar des aktuellen Topmodells...

...mit Anlauf ins Rektum

horn 12
2015-06-15, 22:25:49
Bios der R9 390X

http://forums.guru3d.com/showthread.php?t=400019

Disco_STFU
2015-06-15, 22:51:30
Wer knallt sich das auf seine 290x 8GB? :rolleyes:

Flusher
2015-06-15, 23:05:28
Im overclock.net Forum hat es sich einer auf seine 290 (nonX) draufgeknallt. :freak:

Und er konnte problemlos in Windows booten. ;D

http://www.overclock.net/t/1560231/r9-390x-bios-leaked-on-web#post_24034488

Tamagothi
2015-06-15, 23:22:34
Hab ich das richtig gelesen das er auf eine 4GB Karte ein 8GB Bios geflasht hat? ;D

Sachen gibts...

mczak
2015-06-16, 00:01:59
Hab ich das richtig gelesen das er auf eine 4GB Karte ein 8GB Bios geflasht hat? ;D

Sachen gibts...
Die Speichermenge muss da ja nicht zwingend fix drin stehen. Würde ich jedenfalls nicht machen, und bei Mainboards macht's auch keiner :-).

Knuddelbearli
2015-06-16, 00:42:44
Sowas gabs damals schon für zu scharfe Kritik von 3DCenter gegen einen bestimmten IHV.

HT4U bekommt schon lange mehr nur mehr Mainstream Hardware von NV

Titan müssen die sich immer selber besorgen ( letztens zB von einer anderen Testseite geliehen )

mboeller
2015-06-16, 07:07:48
HT4U bekommt schon lange mehr nur mehr Mainstream Hardware von NV

Titan müssen die sich immer selber besorgen ( letztens zB von einer anderen Testseite geliehen )

Danke für den Tip... bookmarked!

Spasstiger
2015-06-16, 07:10:15
AMD und NV sind bei Launches auf zeitnahe Berichterstattung angewiesen, daher dürften grössere Onlinemagazine sich sogar vage Andeutungen unter NDA rausnehmen können, ohne einen Verlust von Testsamples fürchten müssen. So kommt es dann auch zu den Foto-, Namens- und Spec-Leaks. Teilweise ist das ja auch Marketing, um die potentiellen Käufer anzufixen.
So oder so erwarte ich bis morgen die ersten Fury-Testberichte, Samples sind ja offenkundig im Umlauf.

robbitop
2015-06-16, 08:05:23
Beema = KabiniB
...
Bist du sicher, dass Beema in dem Zusammenhang passt? AFAIK wird Beema bei GF gefertigt und Kabini bei TSMC. Also war sogar ein neues Tapeout nötig - also auch mindestens ab dem Verilog Code soziemlich alles auf andere Libs anzupassen (wobei das ja dank automatisierter Tools einfacher gehen soll als vorher).
Auch heißen die Cores von Beema "Puma" und nicht "Jaguar". Da scheint auch (zumindest eine leichte) Anpassung im Design passiert zu sein.

Perf/Watt ist auch dramatisch besser. Eine neue Revision ist in dem Zusammenhang doch ein wenig untertrieben oder? :)

HOT
2015-06-16, 09:59:32
Kabini wird bei GloFo und TSMC gefertigt. Beema ist einfach ne neue Rev. des GloFo-Kabini.

Ravenhearth
2015-06-16, 10:11:36
Beema hat aber auch ein neues Powermanagement mit neuem Turbo und Security Features, die auf dem Kabini-Die einfach nicht drauf sind.

BlacKi
2015-06-16, 10:50:23
Bios der R9 390X

http://forums.guru3d.com/showthread.php?t=400019

sicher das da nicht nur ein paar zahlen geändert wurden und es sich um ein normales hawai bios handelt?

und auf dem pic sieht man 2560shader...

basix
2015-06-16, 12:05:09
sicher das da nicht nur ein paar zahlen geändert wurden und es sich um ein normales hawai bios handelt?

und auf dem pic sieht man 2560shader...

Dort wurde auch das 390X BIOS auf eine 290 non-X geflasht :freak:

Isen
2015-06-16, 12:34:32
Funkt nicht. Lightning ( macht mit stock Spannung 1150 mit, daran liegt es nicht ) und Sapph. 8GB 290x macht stock auch 1120 mit. Bootet nicht.
Ne nonX hab ich nicht da.

moonraker
2015-06-16, 12:48:01
Haben die beide das Referenzlayout?

iuno
2015-06-16, 12:49:39
CB schreibt, dass es zur Vorstellung keine Tests geben wird:
Am Abend wird AMD die Fury-Karten – vermutet werden derer zwei – in den USA zumindest teilweise enthüllen. Unabhängige Tests wird es am heutigen Tage aber nicht geben, dafür ist ein späterer Termin angesetzt. Mehr Details dazu im Laufe des Tages.
http://www.computerbase.de/2015-06/sk-hynix-amd-radeon-r9-fury-x-mit-4-gbyte-hbm-angekuendigt/

4 GiB durch Hynix bestätigt:
http://www.businesswire.com/news/home/20150616005757/en/SK-Hynix-Ramps-Production-High-Bandwidth-Memory#.VX__F0aiiUl

Troyan
2015-06-16, 12:50:47
Und bestätigt gleichzeitig, dass es nur 4GB geben wird.

(del676)
2015-06-16, 12:53:31
4GB fuer 4k Gameplay klingt mager.

Godmode
2015-06-16, 12:57:55
4GB fuer 4k Gameplay klingt mager.

Da man für 4K die Details reduzieren muss, könnte sich das mit dem Speicher sogar ausgehen. IMHO ist aber selbst eine 1500 MHz TX für 4K in aktuellen Spielen und vollen Details zu langsam, außer man ist mit 20-30 FPS je nach Spiel zufrieden.

Arcanoxer
2015-06-16, 12:58:14
4GB fuer 4k Gameplay klingt mager.
Ich Frage mich auch wie AMD das den Kunden verkaufen möchte, daß die olle 390x unbedingt 8GB Ram benötigt (Sinnbefreit³) aber die Fury mit 4GB für 5k ausreicht. :freak:

Troyan
2015-06-16, 12:59:10
Da man für 4K die Details reduzieren muss, könnte sich das mit dem Speicher sogar ausgehen. IMHO ist selbst eine 1500 MHz TX für 4K und volle Details zu langsam.

Texturdetails kosten keine Leistung.

Snafu
2015-06-16, 13:00:17
4GB fuer 4k Gameplay klingt mager.

AMD braucht in vielen Spielen deutlich weniger VRam als NVidia und anscheinend soll daran noch weiter gearbeitet worden sein.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_Hardline-test-bfh_vram2.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Grand_Theft_Auto_V__GPU_v.2-gta_v_vram.jpg


http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_Old_Blood-test-w_vram_u.jpg

horn 12
2015-06-16, 13:00:20
Oder doch schlussendlich Dual Interposer
Sprich 4GB HBM x2

Auch wenn es preislich zu teuer werden wird.
und die 8GB HMB im August kommen sollten... da ist die Zeitspanne einfach zu gering!

Tesseract
2015-06-16, 13:00:41
ich seh die 4GB nicht ganz so tragisch: in den nächsten jahren ist das non-plus-ultra für gaming sowieso 1440p@144Hz und da ist der flaschenhals ganz klar die computational power und nur sekundär die speichergröße. die situation ist ähnlich wie bei der 580 damals: der speicher wird nach ein paar jahren zum ziemlich harten bremsklotz, aber bis dahin ist die rechenleistung ohnehin mehr wert gewesen. natürlich nur solange man kein multi-GPU-system mit entsprechenden einstellungen betribt.

liegt die karte preismäßig allerdings auf dem niveau ähnlich schneller karten mit 6+ GB ist das in der tat sehr mager.

Troyan
2015-06-16, 13:04:05
Von Hardocp:
http://www.hardocp.com/article/2015/06/15/nvidia_geforce_gtx_980_ti_video_card_gpu_review/10#.VYACLGOMiAI

Dying Light liegt über 4GB in 1440p. GTA5 lässt bis zu 4GB sich reservieren.
Die Epic Demo genehmigt sich 5,7GB in 1440p.

Also für das Leistungslevel von TitanX sind 4GB doch schon stark an der Grenze...

reaperrr
2015-06-16, 13:07:58
Texturdetails kosten keine Leistung.
Wie bitte? Mit "Details" dürfte im Bezug auf Texturen deren Auflösung gemeint sein, und die steigt/sinkt immer ². Wenn du statt höchster nur zweithöchste Detailstufe bei Texturen wählst, sind die statt z.B. 4096x4096 nur noch 2048x2048 Pixel groß sind und belegen entsprechend weniger Speicher, lassen sich entsprechend schneller laden und wieder aus dem Speicher schmeißen usw.

Wie soll das denn bitte KEINE Auswirkungen auf die Leistung haben?

InsaneDruid
2015-06-16, 13:08:14
AMD braucht in vielen Spielen deutlich weniger VRam als NVidia und anscheinend soll daran noch weiter gearbeitet worden sein.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_Hardline-test-bfh_vram2.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Grand_Theft_Auto_V__GPU_v.2-gta_v_vram.jpg


http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_Old_Blood-test-w_vram_u.jpg

"Braucht" oder "kann nutzen"?

Wie soll eine 4GB Karte auch in die Regionen über 4GB vorstoßen, wie es eine Titan X kann? Im Vergleich zur 4GB 980 zeigt sich ja dass der "deutliche" Minderverbrauch zwischen 55MB - 101 MB - 35MB schwankt. Das ist nichts, was 1-2 oder gar 8 GB fehlenden Ram ersetzt.

Troyan
2015-06-16, 13:09:55
Wenn du die Texturgröße reduzieren musst, um SPEICHERplatz zu sparen, dann ist es was anderes als wenn du Effekte reduzierst, um mehr Leistung zu erhalten.

iuno
2015-06-16, 13:10:39
AMD braucht in vielen Spielen deutlich weniger VRam als NVidia und anscheinend soll daran noch weiter gearbeitet worden sein.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_Hardline-test-bfh_vram2.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Grand_Theft_Auto_V__GPU_v.2-gta_v_vram.jpg


http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_Old_Blood-test-w_vram_u.jpg
So deutlich finde ich die paar MiB nicht. Und dass bei der Titan seltener Daten wieder gelöscht werden klingt auch logisch. Das heißt jedoch nicht, dass es mit 4 GiB nie Nachladeruckler geben kann, nur weil an dieser Stelle nur 3,5 GiB 'voll' sind.

Texturdetails kosten keine Leistung.
Und Texturen sind nicht das einzige, was VRAM braucht.

Abwarten, es hat sich nichts geändert ;)
Wir werden sehen, was hinten rauskommt und vielleicht auch hören, ob noch ein 8 GiB Modell geplant ist.

Pirx
2015-06-16, 13:16:13
Wenn du die Texturgröße reduzieren musst, um SPEICHERplatz zu sparen, dann ist es was anderes als wenn du Effekte reduzierst, um mehr Leistung zu erhalten.
Eine höhere Texturauflösung kostet nicht nur SpeicherPLATZ.:rolleyes:

Isen
2015-06-16, 13:22:39
Haben die beide das Referenzlayout?

Nö. Tut aber nix zur Sache, 1:1 rebrand würde zumindest die sapph. 8GB 290x laufen; müssen. Zumindest um zu booten.
Wobei ich das Bios auch mal eben selbst gestalten kann, um zu posten das es geht...

dargo
2015-06-16, 13:38:19
Texturdetails kosten keine Leistung.
Nicht nur Texturen verschlingen Vram.

HOT
2015-06-16, 13:47:44
Nö. Tut aber nix zur Sache, 1:1 rebrand würde zumindest die sapph. 8GB 290x laufen; müssen. Zumindest um zu booten.
Wobei ich das Bios auch mal eben selbst gestalten kann, um zu posten das es geht...
Der gleiche Chip einer alten Rev. kann auch mit einem neuen BIOS starten (das geht ja so rum auch immer). Andersherum wird es schwieriger, aber auch das gibt es:
Beispielsweise starten (und funktionieren) auch Visheras mit BD Rev.C BIOSsen problemlos, die lässig 1 Jahr älter sind als Vishi.

Grenada hat Hawaii-Gene, mehr kann man damit nicht erkennen. Das war aber auch vorher schon klar, als das gleiche PCB- und Trägerlayout bekannt wurde (wenn auch mit z.T. völlig anderen Bauteilen).

fondness
2015-06-16, 13:48:05
In addition to the mass production announcement, SK Hynix is pleased to recognize AMD as a key partner in enabling HBM1 technology. AMD announced the Radeon R9 Fury X, the world’s first graphics card with HBM technology in Los Angeles on June 16th. The AMD Radeon R9 Fury X graphics card utilizes 4GB HBM1 to achieve up to 512GB/second memory bandwidth performance while reducing memory subsystem power by up to 85%.

http://www.businesswire.com/news/home/20150616005757/en/SK-Hynix-Ramps-Production-High-Bandwidth-Memory#.VYAM1kaioXF

M4xw0lf
2015-06-16, 13:50:04
War schon hier ;)

uweskw
2015-06-16, 14:00:09
....while reducing memory subsystem power by up to 85%

kann mir jemand sagen was das konktet bedeuted?

greetz
US

Troyan
2015-06-16, 14:03:21
Der Stromverbrauch des kompletten Speichersystems sinkt um knapp 55%.

R.I.P.
2015-06-16, 14:03:54
Dass der Speicher auf dr Karte inkl. allem drum und dran (Speicher) 85% weniger Strom frisst

M4xw0lf
2015-06-16, 14:03:55
kann mir jemand sagen was das konktet bedeuted?

greetz
US
Es bedeutet, dass das Speichersystem bis zu 85% weniger verbraucht. :freak:

robbitop
2015-06-16, 14:05:45
Kabini wird bei GloFo und TSMC gefertigt.
Das höre/lese ich zum ersten Mal. Hast du dafür eine Quelle?

Isen
2015-06-16, 14:10:09
@HOT,

nichts neues.
Geht aber nicht, es sei denn, ich schummel ein wenig rum, damit es geht.

Botcruscher
2015-06-16, 14:17:15
ich seh die 4GB nicht ganz so tragisch: in den nächsten jahren ist das non-plus-ultra für gaming sowieso 1440p@144Hz

Am Fliegengitter ist gegenüber hochauflösenden Displays überhaupt nichts mehr optimal und Lichtjahre von non-plus-ultra entfernt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10563499&postcount=19

Der einfache Bildvergleich zeigt wie weit die Details einfach absaufen. Selbst Symbole und Schriften sehen einfach nur bescheiden aus.
Wer mehr Beispiele braucht muss mal Vergleiche von W3 in 1080, 1440 und 4K suchen. Die gerigen Auflösung sieht im Vergleich einfach nur degeneriert aus.

Das die 4GB nicht zum Problem werden kann man sich nur selber einreden. Als Konkurent zur 980TI wird man es schwer haben. Bei einem Preiskampf sind alleine die zusätzlichen 2GB sehr überzeugend.


Da man für 4K die Details reduzieren muss, könnte sich das mit dem Speicher sogar ausgehen. IMHO ist aber selbst eine 1500 MHz TX für 4K in aktuellen Spielen und vollen Details zu langsam, außer man ist mit 20-30 FPS je nach Spiel zufrieden.

Es ist immer Detailreduzierung die Frage ist nur wie viel man verliert. Den größten Sprung machen die Effekte und Unschärfe aus. Letztere liegt für mich auf einem Bedarfslevel mit Headbobbing. Trotz all dem fressen die vor allem Leistung und kaum Speicher. Damit wird das Problem auch nicht besser. Das Leistungslevel der +- der TX wird die Karte auch erreichen.

HOT
2015-06-16, 14:21:15
Das höre/lese ich zum ersten Mal. Hast du dafür eine Quelle?
Die embedded Kabinis kommen von TSMC, die gesockelten von GloFo. Da steht "Diffused in Germany" auf dem HS, der einzige Fertiger, der sowas in Deutschland fertigt ist GloFo. Verpackt werden die dann wieder in National-China.
http://www.anandtech.com/show/8067/amd-am1-kabini-part-2-athlon-53505150-and-sempron-38502650-tested
Beema wird einfach ne neue Rev. davon sein. TSMC und GloFo-Kabinis können ja auch nicht identisch sein sondern nur identische Specs und ähnliche Leistungswerte haben.

Ich nehme an, dass man die Dinger parallel entwickelt hat weil man testen wollte, ob man eine Strategie der wechselnden Fertiger durchziehen kann, was Read so geplant hatte. Daraus wurde nichts, Kabini blieb das einzige deratige bekannte Projekt. Tonga wird noch ähnliches nachgesagt übrigens, auch der könnte von beiden Foundries kommen. Hinweise dazu blieben bisher allerdings aus. Vielleicht wird das bei den Antiguas aufgeklärt.
Bei den Maskenkosten von 14nm kann man solche Experimente eh vergessen, war halt ne interessante Idee von Read, aber eben nicht praxistauglich.

robbitop
2015-06-16, 14:22:30
Ab Pascal/Iceland (oder mit GM200 SLI / Fijii Crossfire) sollte 4K dann auch ziemlich kompromisslos nutzbar sein seitens der Performance.
Da AFR doof ist, lieber auf 2016 warten, wenn es wieder mehr bums gibt. ;)
(bis dahin entweder 4K mit FPS/Qualikompromissen oder 1440p kompromisslos)

robbitop
2015-06-16, 14:24:03
Die embedded Kabinis kommen von TSMC, die gesockelten von GloFo. Da steht "Diffused in Germany" auf dem HS, der einzige Fertiger, der sowas in Deutschland fertigt ist GloFo.
http://www.anandtech.com/show/8067/amd-am1-kabini-part-2-athlon-53505150-and-sempron-38502650-tested
Beema wird einfach ne neue Rev. davon sein. TSMC und GloFo-Kabinis können ja auch nicht identisch sein sondern nur identische Specs und ähnliche Leistungswerte haben.
Die gesockelten "Kabinis" sind aber eigentlich Beemas AFAIK.

Umsonst wird der neue Kern sicher nicht "Puma" genannt. Auch das Powermanagement ist neu. Ich kann mir kaum vorstellen, dass das durch einen Respin machbar ist.

Tesseract
2015-06-16, 14:27:16
Am Fliegengitter ist gegenüber hochauflösenden Displays überhaupt nichts mehr optimal und Lichtjahre von non-plus-ultra entfernt.

schon mal ein spiel in 144Hz gesehen? sry, aber solange 4k nur bis 60Hz geht können sie die - zumindest für spiele - behalten. 1440p ist eine ganz andere hausnummer als nur 1080p und mit 144Hz in bewegung auch gefühlt schärfer als 4k weil der kürzere pixelhold dir nicht ganz so stark die ganzen details verschmiert. reine standbilder sind für einen vergleich absolut ungeeignet, es sei denn du spielst nur spiele die hauptsächlich aus standbildern bestehen.

1440/144 ist ganz einfach der mit abstand beste kompromiss, den es momentan für spiele gibt und wird es mangels besserer übertragungsstandards wohl noch ein paar jahre bleiben bis es dann vielleicht mal 4k mit deutlich mehr Hz gibt.

aufkrawall
2015-06-16, 14:29:51
ich seh die 4GB nicht ganz so tragisch: in den nächsten jahren ist das non-plus-ultra für gaming sowieso 1440p@144Hz
Ich hab mir neulich ein paar Videos von Gamersyde mit konstanten 60fps angesehen, und das ist schon ziemlich flüssig.
Mit A-Sync und ansonsten fast nicht vorhandenem Lag des Monitors sollte schon einiges mit 4k@60Hz gehen. 75Hz gingen ja auch, da sehe ich WQHD schnell abgelöst.

fondness
2015-06-16, 14:30:27
Ganz gute Zusammenfassung der ganzen bis jetzt geleakten Herstellerdesigns der 300er Serie:
http://videocardz.com/56473/amd-radeon-300-graphics-cards-roundup

robbitop
2015-06-16, 14:31:12
@Tesseract
Richtig - der Sprung von 1080p auf 4K ist gewaltig. Aber der Sprung von 1080p auf 1440p ist auch schon ganz gut. So groß ist der Sprung von 1440p auf 4K von der Pixeldichte auch nicht mehr.
Im Moment ist 1440p ein sehr guter Kompromiss wegen der begrenzten GPU Leistung und der hohen Abtastrate.
4K wird in 1-2 Jahren genau dort sein, wo 1440p heute ist. Dank DP1.3 sollten 2016/17 120 Hz Displays kommen und dank neuen GPUs auch die Performance stimmen.

Dann ist 5K das neue 4K. Usw usf

Ich hab mir neulich ein paar Videos von Gamersyde mit konstanten 60fps angesehen, und das ist schon ziemlich flüssig.
Mit A-Sync und ansonsten fast nicht vorhandenem Lag des Monitors sollte schon einiges mit 4k@60Hz gehen. 75Hz gingen ja auch, da sehe ich WQHD schnell abgelöst.
Habe ich auch immer gedacht. Aber ein 144 Hz Display belehrt eines Besseren. Das ist schon eine Ecke besser/flüssiger und vor allem schärfer in der Bewegung.
Kann man nur beurteilen, wenn man es in Aktion gesehen hat.
Diese Flüssigkeit/Bewegtschärfe würde ich bspw nie wieder missen wollen. Nie wieder 60 Hz.

HOT
2015-06-16, 14:33:13
Die gesockelten "Kabinis" sind aber eigentlich Beemas AFAIK.

Umsonst wird der neue Kern sicher nicht "Puma" genannt. Auch das Powermanagement ist neu. Ich kann mir kaum vorstellen, dass das durch einen Respin machbar ist.
Schon klar. Sie wurden halt parallel entwickelt. Nur war GloFo mit 28nm SHP/A/HPP nunmal so spät dran, dass der TSMC-Kabini früher fertig war. Man muss dabei ja auch wissen, dass Kabini nur ausschließlich blei GloFo hätte gefertigt werden sollen ursprünglich, genau wie Wichita. Letzterer (28nm VLIW4-Quad-Core-Bobcat) fiel komplett aus, ersterer wurde (in einer recht frühen Variante) nach TSMC geshiftet. Man wird bei GloFo aber weitergemacht haben, weswegen der GloFo-Kabini auch mehr kann.
Es gibt also
Wichita -> 28nm Bobcat mit VLIW4 auf 28nm GloFo -> Cancel
Kabini -> 28nm Jaguar mit GCN auf 28nm GloFo -> ca. ein Jahr Verzögerung bis Finish
Kabini Spinoff -> 28nm Jaguar mit GCN auf 28nm TSMC (nicht das komplette Lastenheft umgesetzt, musste ja schnell gehen)
Beema -> 28nm Rev.B Jaguar = Puma 28nm GloFo
CarrizoL -> 28nm echter Jaguar-Refresh mit neuem I/O (Nolan-Ersatz)
???-Ridge -> 28nm CarrizoL-B für FM3

aufkrawall
2015-06-16, 14:34:07
@Tesseract
Aber der Sprung von 1080p auf 1440p ist auch schon ganz gut. So groß ist der Sprung von 1440p auf 4K von der Pixeldichte auch nicht mehr.

Der Sprung ist viel größer als von FHD -> WQHD. Wie soll das im Verhältnis passen, wenn du dies bereits als "ganz gut" beschreibst?

Ich hatte übrigens selber 144Hz.

Godmode
2015-06-16, 14:34:23
schon mal ein spiel in 144Hz gesehen? sry, aber solange 4k nur bis 60Hz geht können sie die - zumindest für spiele - behalten. 1440p ist eine ganz andere hausnummer als nur 1080p und mit 144Hz in bewegung auch gefühlt schärfer als 4k weil der kürzere pixelhold dir nicht ganz so stark die ganzen details verschmiert. reine standbilder sind für einen vergleich absolut ungeeignet, es sei denn du spielst nur spiele die hauptsächlich aus standbildern bestehen.

1440/144 ist ganz einfach der mit abstand beste kompromiss, den es momentan für spiele gibt und wird es mangels besserer übertragungsstandards wohl noch ein paar jahre bleiben bis es dann vielleicht mal 4k mit deutlich mehr Hz gibt.

Warum ich meinen Rog Swift aufs Abstellgleis befördert habe, war einfach der Grund, dass man einfach keine schöne Kantenglättung mehr hinbringt. Mit dem 4K Monitor gibt es zwar immer noch lästige Kanten, aber deutlich weniger als in 1440p. Wir sind momentan einfach in einer blöden Situation, was Monitore angeht.

robbitop
2015-06-16, 14:36:02
Der Sprung ist viel größer als von FHD -> WQHD. Wie soll das im Verhältnis passen, wenn du dies bereits als "ganz gut" beschreibst?

Ich hatte übrigens selber 144Hz.
"viel größer". Der Sprung ist 26,5 % größer. IMO ist das nicht "viel". 1440p ist halt ein Zwischenschritt.

Timbaloo
2015-06-16, 14:37:59
Eigentlich sind wir in einer guten Situation was Monitore angeht. Jeder kann bekommen was er will (von panelspezifischen Limitierungen mal abgesehen):

grob aber schnell
fein aber langsam

Für fein und schnell fehlt den meisten eh die Leistung, so what.

SamLombardo
2015-06-16, 14:38:51
@Tesseract & robbitop, das ist aber wieder von Person zu Person unterschiedlich. Ich hatte drei Jahre lang einen 120 Hz Monitor und mir sind doppelten Hertz dann doch mal beim Verschieben von Windows Fenstern aufgefallen. Aber auch nur, als mich jemand sehr genau darauf aufmerksam gemacht hat. In Spielen habe ich es NULL gemerkt, ob da 60 oder 120 Hz anliegen.
Das heißt, für mich ist die Frage: 4k mit gutem Panel vs 1080/1440p mit 120 oder mehr Hz genauso klar zu beantworten. Nur halt mit anderem Ergebnis;). Das kannst du nicht pauschalisieren.

robbitop
2015-06-16, 14:39:05
Schon klar. Sie wurden halt parallel entwickelt. Nur war GloFo mit 28nm SHP/A/HPP nunmal so spät dran, dass der TSMC-Kabini früher fertig war. Man muss dabei ja auch wissen, dass Kabini nur ausschließlich blei GloFo hätte gefertigt werden sollen ursprünglich, genau wie Wichita. Letzterer (28nm VLIW4-Quad-Core-Bobcat) fiel komplett aus, ersterer wurde (in einer recht frühen Variante) nach TSMC geshiftet. Man wird bei GloFo aber weitergemacht haben, weswegen der GloFo-Kabini auch mehr kann.
Die Frage ist, was noch eine neue Revision ist und was nicht.

Nach meinem Verständnis ist eine neue Revision nicht mehr sobald man was am Verilog Code ändert und damit neu layoutet und somit das gesamte Maskenset geändert werden muss.

fondness
2015-06-16, 14:39:07
Mit FreeSync wüsste ich nicht mehr viel was gegen einen 4K Monitor spricht wenn man die Leistung hat. Und wie schon gesagt durch die hohe Pixeldichte ist im Notfall auch die Interpolation sehr gut.

Aber ja es gibt hier keine richtige/falsche Antwort. Geschmackssache.

Troyan
2015-06-16, 14:41:05
Das untere Limit von 40Hz spricht klar dagegen.

fondness
2015-06-16, 14:42:20
Das untere Limit von 40Hz spricht klar dagegen.

Das hast du bei einem 144hz Monitor genau so. Oder eben durch Framdoubeling weitgehend ausgemerzt. Von daher refreshen dann beide Monitore gleich schnell wenn man nicht mit >60 fps spielt.

Troyan
2015-06-16, 14:43:43
Ich benötige viel mehr Leistung um >40FPS in 4K zu erreichen.

aufkrawall
2015-06-16, 14:44:00
Lasst uns mal beim Thema bleiben.

BlacKi
2015-06-16, 14:44:38
Für fein und schnell fehlt den meisten eh die Leistung, so what.

für aktuelle grafisch anspruchsvolle titel ja,

aber es gibt genug games die man überhalb von 100fps spielen kann.

ausserdem merkt man die 144hz selbst beim surfen im internet oder im windows.

aber ich denke in 1-2 jahren gibts auch 30" monitore und größer in 4k und 144hz. schade eben das man warten muss denn technisch ist das jetzt auch schon möglich und nicht impossible.

HOT
2015-06-16, 14:44:53
Die Frage ist, was noch eine neue Revision ist und was nicht.

Nach meinem Verständnis ist eine neue Revision nicht mehr sobald man was am Verilog Code ändert und damit neu layoutet und somit das gesamte Maskenset geändert werden muss.
Kabini GloFo und Kabini TSMC sind zwei vollkommen unterschiedliche Chips. Die heißen halt nur gleich, weil es das gleiche Projekt war.
Ich meinte GloFo-Kabini B = Beema
sonst eigentlich nix.

Tesseract
2015-06-16, 14:46:33
In Spielen habe ich es NULL gemerkt, ob da 60 oder 120 Hz anliegen.
sollte das tatsächlich stimmen, dann gibt es extreme unterschiede in der wahrnehmung. wenn jemand sagt 60Hz und 120Hz sehen in bewegung gleich aus dann ist das aus meiner sicht vergleichbar damit, dass jemand mit farbfehlsichtigkeit sagt er sieht in diesem (http://biology-forums.com/gallery/14755_27_08_12_12_28_10_82021889.jpeg) bild die zahl nicht.

Palpatin
2015-06-16, 14:48:02
Ich bin mit dem Ergebniss 4k + gsync 60hz auch sehr zufrieden und komme von 120 hz. Beides um einiges flüssiger und als 60hz ohne sync und für mich völlig ausreichend und um welten besser als die Konsolenwelt.
Abgesehen davon ist der VRAM Bedarf bei 1440p und 4xMSAA in etwa der selbe wie bei 4k ohne MSAA, wobei ich bei letztrem gut ohne MSAA leben kann bei erstrem aber nicht.

Schaffe89
2015-06-16, 14:48:58
AMD hat sich auf jedenfall mit nur 4GB Stückweit in die Nesseln gesetzt, Nvidia hat wohl höchstselbst die Gerüchte mit dem Dual Link Schmarrn gestreut, einfach damit die Enttäuschung noch größer ist.
Also mit 4GB werde ich die Karte nicht kaufen, auf keinen Fall für meinen 4K Monitor.

Evtl. für meinen Full HD 144 hertzler, aber hier wiederum auch nur die pro Version.

fondness
2015-06-16, 14:50:34
Abgesehen davon ist der VRAM Bedarf bei 1440p und 4xMSAA in etwa der selbe wie bei 4k ohne MSAA, wobei ich bei letztrem gut ohne MSAA leben kann bei erstrem aber nicht.

Eigentlich sollte der VRAM-Bedarf bei 4K ohne MSAA sogar deutlich geringer sein als bei 1440p mit 4xMSAA. Aber bei den heutigen Implementierungen weiß ja niemand mehr was da genau wo greift.

Schaffe89
2015-06-16, 14:55:31
Jedenfalls dürfte man sich einig sein, dass 4GB für eine Karte für diesen Preis viel zu wenig sind.
Ich hab wirklich die Befürchtung, dass die Karten wie Blei in den Regalen liegen bleiben.

Wenn Nvidia AMD jetzt noch eins draufgeben will.
Launchen sie eine 1070 und 1080 jeweils mit 8GB und dann ist der Ofen nurnoch auf Sparflamme an.

AMD trifft einfach immerwieder die falschen Entscheidungen.
Ein Fijii mit GDDR5 wäre vermutlich schon 2014 zu launchen gewesen und dann auch großzügig mit 8 oder 16GB GDDR5, dann halt mit 30 Watt mehr Verbrauch.
Wen interessierts.

Snafu
2015-06-16, 14:59:31
"Braucht" oder "kann nutzen"?

Wie soll eine 4GB Karte auch in die Regionen über 4GB vorstoßen, wie es eine Titan X kann? Im Vergleich zur 4GB 980 zeigt sich ja dass der "deutliche" Minderverbrauch zwischen 55MB - 101 MB - 35MB schwankt. Das ist nichts, was 1-2 oder gar 8 GB fehlenden Ram ersetzt.

Speicher kann man nur durch mehr Speicher ersetzen. Trotzdem kann man einige MB einspaaren und so sind 4GB auf einer Fiji manchmal wohl genug obwohl eine 980 schon voll ist.
Hier eben noch ein paar mehr gegen eine 780ti oder 980. Bevor ich gepostet habe, habe Ich habe schon überprüft ob es nur an der Titan liegt ;)

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-The_Crew-cach-crew_vram_new.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-GRID_Autosport-test-GRIDAutosport_vram.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-RPG-DARK_SOULS_II_Scholar_of_the_First_Sin-test-ds_vram_2.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-RPG-Styx_Master_of_Shadows-test-StyxGame_vram.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-RPG-Risen_3_-_Titan_Lords_-test-risen_vram.jpg

N0Thing
2015-06-16, 14:59:36
sollte das tatsächlich stimmen, dann gibt es extreme unterschiede in der wahrnehmung. wenn jemand sagt 60Hz und 120Hz sehen in bewegung gleich aus dann ist das aus meiner sicht vergleichbar damit, dass jemand mit farbfehlsichtigkeit sagt er sieht in diesem (http://biology-forums.com/gallery/14755_27_08_12_12_28_10_82021889.jpeg) bild die zahl nicht.

Ist das ein falsches Testbild? Eigentlich sollte ich da nichts erkennen können, aber ich kann die 27 gut erkennen. :eek:

AMD hat sich auf jedenfall mit nur 4GB Stückweit in die Nesseln gesetzt, Nvidia hat wohl höchstselbst die Gerüchte mit dem Dual Link Schmarrn gestreut, einfach damit die Enttäuschung noch größer ist.

Das glaube ich nicht, das waren eher die Wunschträume der Fans. Da Nvidia die GTX 980 und 970 schon als 4K tauglich anpreist (http://www.geforce.com/whats-new/articles/maxwell-architecture-gtx-980-970), kann der VRAM aus der Sicht von Nvidia ja auch bei einer 4GB Fury nicht das Problem sein. ;)

Keine Frage 8GB sind besser, 3GB waren vor ein paar Jahren aber auch besser als 2GB und es hat die meisten nicht gekümmert.

anddill
2015-06-16, 15:00:49
AMD trifft einfach immerwieder die falschen Entscheidungen.
Ein Fijii mit GDDR5 wäre vermutlich schon 2014 zu launchen gewesen und dann auch großzügig mit 8 oder 16GB GDDR5, dann halt mit 30 Watt mehr Verbrauch.
Wen interessierts.
:facepalm:

Du hast anscheinend in den letzten Monaten unter einem Stein gelebt und keine Frontberichte vom NV vs AMD Krieg gelesen der hier im Forum tobt.

SamLombardo
2015-06-16, 15:02:05
sollte das tatsächlich stimmen, dann gibt es extreme unterschiede in der wahrnehmung. wenn jemand sagt 60Hz und 120Hz sehen in bewegung gleich aus dann ist das aus meiner sicht vergleichbar damit, dass jemand mit farbfehlsichtigkeit sagt er sieht in diesem (http://biology-forums.com/gallery/14755_27_08_12_12_28_10_82021889.jpeg) bild die zahl nicht.
Tja, mag sein, stimmt aber. Ich hatte damals ne weile zum 120 Hz Bildschirm noch meinen NEC 24wmgx3 parallel und konnte wirklich 1:1 vergleichen. Die Unterschiede sind mir beim besten Willen kaum bis gar nicht aufgefallen. Vielleicht liegt es auch mit daran, dass ich eher der low fps Spieler bin, also lieber die Settings über den Anschlag hinaus tweake, dafür aber mit 30 fps und weniger Vorlieb nehme. Wer weiss.

Sorry für OT.

Tesseract
2015-06-16, 15:03:40
Ist das ein falsches Testbild? Eigentlich sollte ich da nichts erkennen können, aber ich kann die 27 gut erkennen. :eek:
keine ahnung, ich habe keine farbfehlsichtigkeit und sehe die zahl sowieso immer. das ist irgendein treffer aus der google-suche. :D

soLofox
2015-06-16, 15:06:57
Jedenfalls dürfte man sich einig sein, dass 4GB für eine Karte für diesen Preis viel zu wenig sind.


welcher preis? du weisst ihn schon? erzähl!!! lass uns nicht im dunkeln.

Sunrise
2015-06-16, 15:07:00
Ein Fijii mit GDDR5 wäre vermutlich schon 2014 zu launchen gewesen und dann auch großzügig mit 8 oder 16GB GDDR5, dann halt mit 30 Watt mehr Verbrauch.
Wen interessierts.
Der wäre dann aber nicht ansatzweise so schnell wie Fiji jetzt und du hättest zwar mehr RAM, der aber zu 90% nur brach liegt und einen Verbrauch, der ans Lächerliche grenzt, weil das GDDR5-Interface schon an der Kotzgrenze war. Mit Grenada hat man jetzt noch was rausgekitzelt, aber an der grundlegenden Effizienz ändert das nicht viel.

Mir sind solche radikalen Schritte lieber, als Notlösungen. Ich will auch einen gescheiten 14/16nm-Nachfolger und nicht nur einen simplen Shrink, das siehst du sicher ähnlich.

Wenn die 4GB für 95% der Fälle ausreichen und Fiji abgeht wie eine Sau, die du kaum bändigen kannst (mehr OC-Spielraum noch dazu), dann ist mir das lieber als eine deutlich über die Kotzgrenze geprügelte alte Architektur. Denn das wäre richtig fatal gewesen.

AMD hat fast alles richtig gemacht, leider sind eben viele geeicht auf verschwenderische RAM-Mengen, was AMD ja schonmal nach außen gegeben hat. Das muss man eben mit den entsprechenden Ergebnissen entkräften. Dann gibt es auch keine Probleme.

Wenn wir richtige Tests haben können wir uns da sicher nochmal drüber unterhalten, aber ich bin mir sehr sicher, dass Fiji richtig gut abgehen wird.

Kartenlehrling
2015-06-16, 15:10:10
Die Vram Debatte ist sowieso lächerlich,
es gibt genug Spiele die in 4k sehrgut aussehen mit unter 3gb,
das in den letzten 2 Jahre der Videospeicher explosionsartig angewachsen ist liegt oft nur an den Spielerentwickler,
die einfach nicht "Sparsam" mit dem Speicherraum umgehen ".... man hat ja genug davon".

Nvidia wirbt mit seiner gtx960-2gb für 4k Gaming.

ChaosTM
2015-06-16, 15:10:46
Wie auch immer - um wirklich interessant zu werden sollte sie min. 70% auf meine 290(x)er drauflegen in 4k und das wird nicht passieren.
Mit den 4GB könnte ich mich nur sehr schwer anfreunden.. aus Erfahrung mit AC, FC4 usw..

Schaffe89
2015-06-16, 15:10:51
welcher preis? du weisst ihn schon? erzähl!!! lass uns nicht im dunkeln.

Die Karte wird wohl in den Preisgefilden einer 980 Ti verkauft, wenn sie die Performance erreicht.
50 Euro hin oder her, spielt absolut keine Rolle.
Jedenfalls werd ich die Karte gegenüber einer 980 Ti nicht empfehlen können, mit nur 4GB V-ram.

Ist ein ähnliche Szenario wie damals mit ner 512mb 4870.
Ein halbes bis 1 Jahr noch ok, dann ging ihr der Saft aus.

Troyan
2015-06-16, 15:12:55
"Verschwenderische RAM-Angaben"?! Was?

Fiji hat nur 8x soviel Speicher wie eine 7800GTX-512 oder X1800XT von vor 10 Jahren.

Bandbreite und VRAM sind die am langsamsten wachsenen Faktoren der Grafikkarten. Dank HBM wird man beides im nächsten Jahr lösen.

Aber wenn du meinst, dass 4GB der Nabel der Welt sein müsste, kannst du erklären, wieso Hynix den Ausbau der Menge um den Faktor 8 erhöhen will...

Thunder99
2015-06-16, 15:12:58
Ich könnte über alle kotzen die nun rummaulen das es nur 4GB sind :mad:
Damals hat nvidia oftmals weniger VRAM gehabt (Fermie und Kepler) als AMD und es wurde dennoch gekauft. Hier ist es auf einmal ein riesen Problem.

Auch hier wie damals wird zuerst die Rechenleistung nicht langen bevor der VRAM nicht langt! Punkt! SLI/Crossfire ausgenommen.

Und 8GB wird es geben sobald es wirtschaftlich und technisch machbar ist (meine Spekulation)

HOT
2015-06-16, 15:13:58
Erst mal abwarten, wie die Speicherverbrauchsmessungen mit Omega2 ausfallen und dann wie die mit HBM im Speziellen ausfallen. Danach können wir evtl. zurecht meckern, dass 4GB doof sind. Aber das sollten wir abwarten.
Btw, ich finds auch zu wenig. Aber NV setzt ja auch flächendeckend bis 500€ auf 4GB, deshalb sollten hier einige den Ball etwas flacher halten.
Bisher war NV mit den Speichermengen oft im Nachteil, da hat auch keiner gemeckert, obwohl der GK104 teils unter seinen Möglichkeiten läuft deswegen.

Thunder99
2015-06-16, 15:14:27
Die Karte wird wohl in den Preisgefilden einer 980 Ti verkauft, wenn sie die Performance erreicht.
50 Euro hin oder her, spielt absolut keine Rolle.
Jedenfalls werd ich die Karte gegenüber einer 980 Ti nicht empfehlen können, mit nur 4GB V-ram.

Ist ein ähnliche Szenario wie damals mit ner 512mb 4870.
Ein halbes bis 1 Jahr noch ok, dann ging ihr der Saft aus.
Und wie argumentiert du mit GTX480, 580 680 und nun 780???

aufkrawall
2015-06-16, 15:15:38
Die 480 hatte 50% mehr VRAM als die 5870. Die 780 kam vor Hawaii.

Troyan
2015-06-16, 15:18:33
Und die Nachfolgeprodukte von nVidia haben alle 50%-100% mehr Speicher.
GTX680/780 -> GTX980
GTX780TI -> GTX980TI

Einzig die GTX960 machte hier die Ausnahme (wobei, da sind es auch bei voller Bandbreite 500MB mehr).

Fury X - auch wenn namentlich nicht als Nachfolger gedacht - hat die selbe Menge wie Hawaii und nur 33% mehr als die 7970 von vor 3 Jahren...

HOT
2015-06-16, 15:18:39
Die 480 kam aber auch 1/2 Jahr später, noch ein halbes Jahr später war AMD mit Cayman auf 2GB.

Troyan
Wie wir wissen, passiert das mit den 4GB jetzt ja auch nicht ohne Grund. Ist halt nicht ohne Not so.

Tesseract
2015-06-16, 15:19:27
hängt, wie gesagt, sehr vom preis ab. als ~800€-karte hat sie sehr wenig vram, als sub-600€-karte wär sie eine extrem schnelle 4GB-karte.

Schnoesel
2015-06-16, 15:20:13
Pff keine Ahnung was ihr habt. Ich freu mich auf Fiji auch mit 4GB und wenn der Preis stimmt schnappe ich Sie mir. Muss doch jeder selbst wissen was für Settings er fährt und ob das passt (wenns mir nicht passt kaufe ich mir die auch nicht so what). Immer diese Pauschalisierung ...

Thunder99
2015-06-16, 15:20:34
Die 480 kam deutlich später, AMD konterte dann mit der 6000er Serie mit bis zu 2GB VRAM wo nvidia nur bei 1,5GB geblieben ist bei der 580

Einige drehen echt die Welt sich so hin wie es gerade passt :rolleyes:

Kritik ist angebracht. Aber dann auf beiden Seiten! Nvidia war auch nicht immer aus der Sicht das Beste

Ailuros
2015-06-16, 15:22:01
Und wie argumentiert du mit GTX480, 580 680 und nun 780???

Ich wuerde gerne mal eine Statistik sehen wie VIELE der Inhaber einer heutigen high end GPU einen display mit >1080p haben. Ich weiss wie es klingt, aber ich hab irgendwie das bloede Gefuehl dass es doch nicht unbedingt die Mehrzahl sein sollte :rolleyes:

aufkrawall
2015-06-16, 15:22:16
Werd mal nicht polemisch. Was kann ich dafür, wenn du 480 schreibst, aber 580 meinst...

Troyan
2015-06-16, 15:22:43
Custom-Designs der GTX570 und GTX580 sind auch mit 2,5 bzw. 3GB verkauft worden.

Wobei ich kein Plan habe, ob es von Cayman welche mit 4GB gab.

Schaffe89
2015-06-16, 15:24:32
Ich könnte über alle kotzen die nun rummaulen das es nur 4GB sind :mad:

Wenn selbst die Performancekarten ala GTX 980 schon vor fast 1 Jahr und Hawai von fast vor 2 Jahren schon standardmäßig 4GB V-ram besaßen, dann dürfte klar sein, dass es Fälle geben wird, wo man mit der Leistung komplett eingeschränkt ist, langt ja schon 1440p mit etwas MSAA.

Damals hat nvidia oftmals weniger VRAM gehabt (Fermie und Kepler) als AMD und es wurde dennoch gekauft. Hier ist es auf einmal ein riesen Problem.

Die GTX 680 war zum Launch mit 2GB 2012! meiner Meinung nach noch besser gestellt wie ne 4GB Karte die ne Enthusiastenkarte ist.


Auch hier wie damals wird zuerst die Rechenleistung nicht langen bevor der VRAM nicht langt! Punkt! SLI/Crossfire ausgenommen.

Völliger Unsinn, siehe GTX 680, siehe 5870, siehe 4870 512mb.
Genauso wirds mit der Karte später aussehen, ein ausgemachter V-ram Krüppel und AMD hat keine Chance das bis nächstes Jahr zu korrigieren, während man auf den Hawai Refresh 8GB draufpackt, was für ein Marketingfail.

Für SLI oder CF gibts später noch die Chance, dass der Speicher gemeinsam genutzt wird.

reaperrr
2015-06-16, 15:24:42
Einer von AMD hat ja erwähnt, dass bei der Effizienz der Speichernutzung treiberseitig noch viel Luft nach oben ist, man hat es bloß bisher nie angegangen, weil es einfacher war die Speicherkapazitäten zu erhöhen und die Man-Power deshalb anderswo sinnvoller eingesetzt war.

Wir werden vermutlich bald sehen, wie viel da dran war/ist.

Thunder99
2015-06-16, 15:25:31
Ich habe darauf hin gewiesen das alle genannten nvidia Karten mit weniger VRAM kam als vergleichbare AMD Modelle. Erst mit Maxwell haben sie gleich gezogen bzw mehr verbaut. Einzige Ausnahme bei nvidia war die Titan mit 6GB. Dank der Menge hat sie heute immer noch genug Dampf bzw kann diese gut auf die Straße bringen

Sunrise
2015-06-16, 15:27:08
Pff keine Ahnung was ihr habt. Ich freu mich auf Fiji auch mit 4GB und wenn der Preis stimmt schnappe ich Sie mir. Muss doch jeder selbst wissen was für Settings er fährt und ob das passt (wenns mir nicht passt kaufe ich mir die auch nicht so what). Immer diese Pauschalisierung ...
Sehe ich ähnlich. Schade, dass es heute so spät wird, 3 Uhr nachts ist selbst als hartgesottener Gamer ein wenig beschissen gelegt.

soLofox
2015-06-16, 15:28:42
Sehe ich ähnlich. Schade, dass es heute so spät wird, 3 Uhr nachts ist selbst als hartgesottener Gamer ein wenig beschissen gelegt.

zumindest unter der woche :biggrin:

Schaffe89
2015-06-16, 15:29:39
Wobei das eigentlich vergebene Liebesmüh ist, vor allem wenn in einem halben Jahr mit HBM2 mehr Speicher verbaut werden kann.
Meine nächste Grafikkarte muss zwingend 8GB für 4K haben, insofern kann ich mich mit der Titan X zurücklehnen und mir den Shitstorm "leider" auf die Karte ansehen. :(

Dank der Menge hat sie heute immer noch genug Dampf bzw kann diese gut auf die Straße bringen

Ja was du nicht sagst, genau mein Kritikpunkt bei der Fury.

Thunder99
2015-06-16, 15:30:43
Wenn selbst die Performancekarten ala GTX 980 schon vor fast 1 Jahr und Hawai von fast vor 2 Jahren schon standardmäßig 4GB V-ram besaßen, dann dürfte klar sein, dass es Fälle geben wird, wo man mit der Leistung komplett eingeschränkt ist, langt ja schon 1440p mit etwas MSAA.



Die GTX 680 war zum Launch mit 2GB 2012! meiner Meinung nach noch besser gestellt wie ne 4GB Karte die ne Enthusiastenkarte ist.




Völliger Unsinn, siehe GTX 680, siehe 5870, siehe 4870 512mb.
Genauso wirds mit der Karte später aussehen, ein ausgemachter V-ram Krüppel und AMD hat keine Chance das bis nächstes Jahr zu korrigieren, während man auf den Hawai Refresh 8GB draufpackt, was für ein Marketingfail.

Für SLI oder CF gibts später noch die Chance, dass der Speicher gemeinsam genutzt wird.
Eine 680 wäre noch schnell genug. Aber ne sie hat per default nur 2GB
7970 war da besser ausgewogen wie man festgestellt hat.

Dann sind 12GB bei TX auch Marketingfail wo aber außerhalb der SLI Nutzer alle darauf reingefallen sind. Die 980Ti welche klar war das so eine kommt ist immer die bessere Alternative für den Preis.

Wenn man Fiji gleich mit 8GB bauen könnte würde das AMD auch tun

Schaffe89
2015-06-16, 15:32:34
Die 12Gb bei der Titan X sind sicher Overkill, keine Frage.
Ich würde aktuell eher 8GB als Optimum sehen, aber 4GB, sry, das ist erbärmlich.
Wer das anders sieht, von mir aus.

Für Full HD ok, was darüber hinausgeht, fail.

Ich hab vor ein paar Tagen mal den V-ram Verbrauch meiner 8GB TriX in 4K bei etwas reduzierten Details ( keine Texturen) gemessen, bei spielbaren Framerates ( >30 FPS)
GTA5:~4,8GB
Shadow of Mordor: 6,6GB
ARK: 4,3GB
Watchdogs: 5,6GB
The Witcher: 3,3

Das wird ne Bauchlandung.

Es lassen sich ohne Probleme mindestens 5 bis 6 Spiele finden wo der V-ram gnadenlos limitiert.
Ich hab meine Meinung bezüglich 4GB in letzter Zeit etwas geändert, da dies leider wirklich einfach zu wenig sind.

Thunder99
2015-06-16, 15:36:48
Und keine Sorge. Ich finde es auch kacke das es nur 4GB aber finde es aus der jetzigen Informationslage besser als nochmal ein viertel Jahr die Karte zu verschieben.

WENN die Karte für 699€ UVP gelistet wird könnte sie dennoch ein Verkaufsschlager werden

Botcruscher
2015-06-16, 15:39:46
Ich wuerde gerne mal eine Statistik sehen wie VIELE der Inhaber einer heutigen high end GPU einen display mit >1080p haben. Ich weiss wie es klingt, aber ich hab irgendwie das bloede Gefuehl dass es doch nicht unbedingt die Mehrzahl sein sollte :rolleyes:

Was juckt mich im 3DC die bemitleidenswerte Mehrzahl? Wer 600€+ für eine Karte investiert sollte auch das Geld für einen richtigen Moni haben. Das die Masse am falschen Ende spart ist eine eigene Geschichte. Die subobtimale Monitorauswahl kommt noch dazu. Nach der Mehrheit hätte es auch nie SLI geben dürfen.

WENN die Karte für 699€ UVP gelistet wird könnte sie dennoch ein Verkaufsschlager werden
Ironisch wie weit wir schon gekommen sind...
PS: Ich hab mich auch bei der 6XX, 7XX und 960 über den Speicher ausgelassen. Unter 4GB geht auch im Mainstream nichts mehr. Drüber sollten es 6GB+ sein.

Noebbie
2015-06-16, 15:40:04
Sehe ich ähnlich. Schade, dass es heute so spät wird, 3 Uhr nachts ist selbst als hartgesottener Gamer ein wenig beschissen gelegt.

Dann ists eben was fürs Frühstück! ;)

StefanV
2015-06-16, 15:40:17
Seltsam...

Bei AMDs High End Karte stören die 'nur' 4GiB VRAM.

Bei der 680 haben die 2GiB VRAM nicht gestört, bei der GTX 780 die 3GiB nicht.
Und bei der GTX 980 stören auch die 4GiB VRAM nicht.

Aber jetzt bei AMD sollen die 4GiB VRAM auf einmal stören?!
Sorry, aber ihr dreht euch auch die Welt so hin, wie es passt...

Hauptsache über AMD motzen...

Schaffe89
2015-06-16, 15:46:11
Seltsam...

Ich finde das absolut nicht seltsam.

Bei AMDs High End Karte stören die 'nur' 4GiB VRAM.

Bei der 680 haben die 2GiB VRAM nicht gestört, bei der GTX 780 die 3GiB nicht.

Also mich haben bei der 680 die 2GB definitiv gestört, die limitieren ja heute auch prima.:rolleyes:

Aber jetzt bei AMD sollen die 4GiB VRAM auf einmal stören?!

Ja die stören massiv, wenn jemand nicht in ner popeligen Full HD Auflösung spielt und auch mal Watchdogs, Shadow of Mordor spielen möchte.
Ich zahle doch nicht nen Haufen Geld, um mich dann massix limitieren zu lassen.
GTA5 läuft in 4K auf ner OC TitanX ganz gut, auf ner Fury kann man das wegen 4GB vergessen. Lächerlich!:P

Wenn ich Kritik an AMD äußere, dann weil sie berechtigt ist.
Und wenn du das Problem V-ram bei Fury nicht sehen, willst, von mir aus. Für mich persönlich ist das lachhaft.

dargo
2015-06-16, 15:47:01
Ab Pascal/Iceland (oder mit GM200 SLI / Fijii Crossfire) sollte 4K dann auch ziemlich kompromisslos nutzbar sein seitens der Performance.

Na... sei dir da mal nicht so sicher. Das ist der heutige Stand was Spiele angeht. Das große Fragezeichen ist wie weit pimpen die Entwickler die PC-Grafik im Vergleich zu den aktuellen Konsolen in 1+ Jahren?

w0mbat
2015-06-16, 15:47:46
Wartet doch mal ab. Ich hab lieber 2GB GDDR5 als 4GB GDDR3, vielleicht ist das ja ähnlich mit HBM.

HOT
2015-06-16, 15:49:38
Ich finde das absolut nicht seltsam.





Also mich haben bei der 680 die 2GB definitiv gestört, die limitieren ja heute auch prima.:rolleyes:



Ja die stören massiv, wenn jemand nicht in ner popeligen Full HD Auflösung spielt und auch mal Watchdogs, Shadow of Mordor spielen möchte.
Ich zahle doch nicht nen Haufen Geld, um mich dann massix limitieren zu lassen.
GTA5 läuft in 4K auf ner OC TitanX ganz gut, auf ner Fury kann man das wegen 4GB vergessen. Lächerlich!:P
Wie gesagt, sollte man vielleicht vorher abwarten, wass AMD mit Omega2 da gebastelt hat und dann sollte man abwarten, wie sich die Speicherbelegung mit HBM überhaupt gestaltet. Erst wenn beides nix ist, kannst du die Karte immer noch als Fail bezeichnen.

Bei einer 980 finde ich, dass die 4GB-Beschränkung ein viel größeres Fail ist, da die Beschränkung ja ohne Not geschah und die Karte bisher für >500€ wegging, ich fand das ziemlich dreist.

Schaffe89
2015-06-16, 15:50:49
Ach das kann man doch vergessen.
Dieser gezwungene Optimismus, ist doch albern.

Selbst wenn es AMD schafft den verbrauch um 100 bis 300mb zu senken, reicht der V-ram hinten und vorne nicht aus.

Erst wenn beides nix ist, kannst du die Karte immer noch als Fail bezeichnen.

Bestimmt ist die Karte selbst schmucke. Völlig unabhängig davon was AMD da angeblich noch zaubern will, kann man das Thema imho schon abhaken.

MilesEdgeworth
2015-06-16, 15:50:55
Das ist echt köstlich mit welcher Sicherheit sich hier über den vermeintlichen Speichermangel der Karte ausgelassen wird. Man wird ja in Benchmarks sehen, ob die 4GiB VRAM tatsächlich zu Problemen führen. Wenn ja, darf ja gern Kritik geäußert werden, aber ohne handfeste Informationen ist das einfach nur Kindergarten, sorry.

N0Thing
2015-06-16, 15:52:03
Ganz einfach, weil der Chip auch mit HBM2 läuft und man nicht noch einen neuen designen wollte.

Ist das eigentlich sicher, dass Fiji HBM2 nutzen könnte?

Thunder99
2015-06-16, 15:53:19
Zu GTA 5 auf Fury ist es von dir eine Vermutung. Wissen tust du es nicht, oder doch? ;) . Wird nicht durch modernes Texturstreaming die Menge ein wenig kompensiert?

fondness
2015-06-16, 15:56:22
Sehe ich ähnlich. Schade, dass es heute so spät wird, 3 Uhr nachts ist selbst als hartgesottener Gamer ein wenig beschissen gelegt.

Ich komme mit den ganzen Zeitzonen schon völlig durcheinander.
AMD spricht von 12:00 PM EDT (11:00 AM CDT/9:00 AM PDT): http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2057075

Das wäre doch in etwas über 2 Stunde, also um 18:00 Uhr unserer Zeit:
http://www.timeanddate.com/time/zones/edt
http://www.timeanddate.com/time/zones/cdt

Oder wie liegt mein Fehler?

Schaffe89
2015-06-16, 15:56:42
Das ist echt köstlich mit welcher Sicherheit sich hier über den vermeintlichen Speichermangel der Karte ausgelassen wird. Man wird ja in Benchmarks sehen, ob die 4GiB VRAM tatsächlich zu Problemen führen. Wenn ja, darf ja gern Kritik geäußert werden, aber ohne handfeste Informationen ist das einfach nur Kindergarten, sorry.

DAs Speichermanagement wird sich vom V-ram Bedarf ja kaum ändern, ansonsten hätte das AMD sicherlich schon angekündigt, um sich die 4GB schönzureden.:rolleyes:

Ailuros
2015-06-16, 15:57:57
Was juckt mich im 3DC die bemitleidenswerte Mehrzahl? Wer 600€+ für eine Karte investiert sollte auch das Geld für einen richtigen Moni haben. Das die Masse am falschen Ende spart ist eine eigene Geschichte. Die subobtimale Monitorauswahl kommt noch dazu. Nach der Mehrheit hätte es auch nie SLI geben dürfen.


Nur zwei Worte: tragische Ironie ;)

Schaffe89
2015-06-16, 15:59:07
AMD Fuy 4Gb FAIL!!!!!!;D

Pirx
2015-06-16, 15:59:41
..., kann man das Thema imho schon abhaken.
na dann mal tschüß

dargo
2015-06-16, 16:02:28
Könnte mal einer aus der Moderation der Heulsuse etwas Urlaub verschaffen? Das ist ja kaum auszuhalten hier.

Megatron
2015-06-16, 16:03:25
Ich würde die Fury mal als genau richtig für VR positioniert ansehen.

Die Displayauflösung der ersten Generation ist ja bei Oculus und Valve nur bei 2400x1080 Pixeln, das sollte auch Fiji mit 4GB bewältigt bekommen.

Wichtiger ist ja hier eher die Mehrleistung der GPU, um idealerweise die 90Hz sauber zu halten.

Na demnächst wissen wir mehr...

AtTheDriveIn
2015-06-16, 16:06:12
Könnte es theoretisch sein das FURY mit HBM und zusätzlichem GDDR5 kommt? Oder wegen verschiedener Interface reine Fantasie?

Schaffe89
2015-06-16, 16:07:23
Nein, die Karte wird die nächsten 8 Monate nur mit 4GB HBM erhältlich sein.

Thunder99
2015-06-16, 16:08:21
Absolut nicht. Nur HBM

derguru
2015-06-16, 16:08:41
wenn 4gb sicher ist verstehe ich die marketingabteilung nicht die mit 6k wirbt, wtf?

Schaffe89
2015-06-16, 16:09:42
Die sind halt völlig plem plem.
Ich hätte zumindest eine Hawai Refresh mit 4GB gebracht, später optional mit 8GB, dann wenn ein 8GB Fury langsam möglich ist.

Troyan
2015-06-16, 16:13:23
wenn 4gb sicher ist verstehe ich die marketingabteilung nicht die mit 6k wirbt, wtf?

Warum nicht? nVidia wirbt auch mit 12K. :freak:

raffa
2015-06-16, 16:13:53
Ich komme mit den ganzen Zeitzonen schon völlig durcheinander.
AMD spricht von 12:00 PM EDT (11:00 AM CDT/9:00 AM PDT): http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2057075

Das wäre doch in etwas über 2 Stunde, also um 18:00 Uhr unserer Zeit:
http://www.timeanddate.com/time/zones/edt
http://www.timeanddate.com/time/zones/cdt

Oder wie liegt mein Fehler?

Um 18:00 unserer Zeit gibts einen livecast von AMD: "AMD Presents: A New Era of PC Gaming @ The Belasco Theater in Los Angeles, CA"

Am 17.6, 3:00am unserer Zeit beginnt dann die Gaming Show.

Sunrise
2015-06-16, 16:14:13
Ich komme mit den ganzen Zeitzonen schon völlig durcheinander.
AMD spricht von 12:00 PM EDT (11:00 AM CDT/9:00 AM PDT): http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2057075

Das wäre doch in etwas über 2 Stunde, also um 18:00 Uhr unserer Zeit:
http://www.timeanddate.com/time/zones/edt
http://www.timeanddate.com/time/zones/cdt

Oder wie liegt mein Fehler?
Es scheint wohl zwei Events zu geben, wenn ich das richtig verstanden habe?

Am 16.06. um 18:00 Uhr einen Livecast zur R300-Serie und am 17.06. (also heute nachts) dann die PC Gaming Show zusätzlich.

HOT
2015-06-16, 16:17:33
Nein, die Karte wird die nächsten 8 Monate nur mit 4GB HBM erhältlich sein.
Deine Glaskugel möcht ich haben... ach neee, besser doch nicht :freak:

Ich mein, dass die Fury mit 4GB starten würde war doch sowieso klar, was machste denn jetzt so ne Fabrik daraus?

fondness
2015-06-16, 16:18:58
Also der Countdown auf der PC Gaming Show Seite läuft bei mir genau um Mitternacht ab. Woher kommen die 3 Uhr in der Früh?

Tamagothi
2015-06-16, 16:24:09
Also der Countdown auf der PC Gaming Show Seite läuft bei mir genau um Mitternacht ab. Woher kommen die 3 Uhr in der Früh?

Krass, du hast recht. Der Countdown ist anscheinend location based.:eek:

Bei FF ist Tracking aus, bzw. NoScript/Ghostery an, bei Chrome nicht. 2 Stunden Unterschied.

Verständlich erklärt ? :wink:

[dzp]Viper
2015-06-16, 16:27:43
wenn 4gb sicher ist verstehe ich die marketingabteilung nicht die mit 6k wirbt, wtf?
Weil man damit auch 6k nutzen kann. Nur eben nicht mit extrem hochauflösenden Texturen.
Wobei sich noch rausstellen muss wie sich die 4GB wirklich schlagen werden.
in 95% der Spiele reichen die 4 GB für 4k ohne Probleme aus. Es gibt nur eine Handvoll AAA-Spiele die mit den 4GB in 4K Probleme bekommen.

Natürlich könnte sich das in der Zukunft ändern. Da die aktuelle "Next Gen" Konsolengeneration aber jetzt schon am Limit läuft denke ich nicht, dass sich Textur und Speicherseitig da in den nächsten 2-3 Jahren groß was ändern wird. Für die meisten Spiele werden die 4GB locker ausreichen und pro Jahr gibt es dann 3-4 AAA-Spiele die mit den 4 GB Probleme bekommen.

Nix neues also ;)

Darlie
2015-06-16, 16:40:00
Könnte es theoretisch sein das FURY mit HBM und zusätzlichem GDDR5 kommt? Oder wegen verschiedener Interface reine Fantasie?
Hoffentlich nicht. Siehe GTX970.

The_Invisible
2015-06-16, 16:41:10
Seltsam...

Bei AMDs High End Karte stören die 'nur' 4GiB VRAM.

Bei der 680 haben die 2GiB VRAM nicht gestört, bei der GTX 780 die 3GiB nicht.
Und bei der GTX 980 stören auch die 4GiB VRAM nicht.

Aber jetzt bei AMD sollen die 4GiB VRAM auf einmal stören?!
Sorry, aber ihr dreht euch auch die Welt so hin, wie es passt...

Hauptsache über AMD motzen...

Die "nur" 4GiB auf der 980er stören schon, hat mich sogar davon abgehalten solch eine Karte zu kaufen, da man trotzdem >500eur zahlen durfte. Jetzt geht es ja, da es jetzt die wirklichen highend produkte 980ti und TX gibt (Preis ist halt leider so lala...). Wenn ich schon einen Premium Preis bezahle will ich auch Premium Speicher.

Deshalb finde ich es auch etwas suboptimal das bei AMD gerade beim Topmodel so wenig Speicher anbieten kann. Vor allem Highend GAmer die sich mehr mit der Materie beschäftigen wird gerade das ein Dorn im Auge sein. Man wird zwar in nächster Zeit auch mit 4GiB gut über die Runden kommen, aber will schon wegen dem Speicher Details zurückdrehen wenn die GPU noch mehr kann.

Raff
2015-06-16, 16:41:22
Die VSR-Eigenschaften entscheiden IMO darüber, ob die Karte Top oder Flop wird. Die 4 GiB Speicher könnten der VSR-Macht jedoch ein jähes Ende bereiten – irgendwie wirkt das nicht durchdacht. Oder doch: Wenn VSR nicht signifikant aufgeblasen wird, reichen 4 GiB fast immer. :ugly:

MfG,
Raff