PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 [41] 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Screemer
2015-06-17, 22:55:19
1080p ist doch nicht retro. Es stellt immer noch die größte Basis der Nutzer dar.

Menace
2015-06-17, 22:58:01
1080p ist doch nicht retro. Es stellt immer noch die größte Basis der Nutzer dar.

Etwas, was mich am meisten wundert.

AtTheDriveIn
2015-06-17, 22:59:04
Lese gerade das die Fury X angeblich bei 50 Grad und 32 dB rennt. Wollte meine 290er eigentlich noch etwas behalten, aber das Gesamtpaket klingt langsam einfach zu gut.

Knuddelbearli
2015-06-17, 23:00:40
Etwas, was mich am meisten wundert.

naja es gibt Zeiten wo ich den Umstieg von 1200p auf 1440p echt bereue. man wird fast "gezwungen" auch gleich viel mehr in die GPU zu investieren

Mit 1080p wäre ich mit meiner 970 im Land der sorglosen Performance. in 1440p muss ich immer wieder meine Ego zwingen Details zu reduzieren

Screemer
2015-06-17, 23:02:01
Etwas, was mich am meisten wundert.
monitore behält man halt bis sie nicht mehr funktionieren. zumindest der normale nutzer. ich denke sogar, dass noch genügend leute mit 1680*1050 unterwegs sind.

iuno
2015-06-17, 23:03:07
Weiß man denn nun eigentlich, wer den Interposer fertigt und die Stacks+GPU draufpackt?

davidzo
2015-06-17, 23:09:42
1080p ist doch nicht retro. Es stellt immer noch die größte Basis der Nutzer dar.


Genau, aber dann bist du wenn du dich für highendkarten interessierst wahrscheinlich exzessiver DSR Nutzer. Für 1080p kaufe ich mir keine 700€ GPU
Es geht bei Fiji schließlich um eine highend GPU, die koppel ich nicht mit einem lowcost Monitor oder einem 6 Jahre Gerät. Wenn ich aber doch noch 1080p Nutzer bin, aber eine GPU mit soviel Leistung suche, bin ich höchstwahrscheinlich DSR Junkie und das erzeugt einen sehr ähnlichen Leistungsbedarf wie echtes 4K.

btw, ich finde 4K schon standard. Mein handy hat 1080p auf 5,5" und das ist nichtmal viel heutzutage. Arbeitstechnisch nutze ich nen 1800p retina display plus 4K Monitor, das ist der Standard an dem ich aktuelle Geräte Messe.

btw, was mich aber am meisten nervt ist dass wir immer noch bei denselben lächerlichen 8bit pro Farbkanal hängen bleiben (zumindest treiber/softwareseitig, monitore können das teils schon). Was wäre ein 12bit Panel für eine Offenbarung bei der RAW Fotobearbeitung :) - wahrscheinlich ähnlich groß wie die eines 4K Displays bei dem ich plötzlich das Gefühl habe ich brauche dringend eine Kamera mit mehr Pixeln und bessere Objektive (nutze Lumix GX7 / 16MP).

1080p ist schon längst nicht mehr standard. Klar es gibt immer eine breite Masse die nicht mitzieht (und lass es die 1,5milliarden chinesen sein), sieht man ja an dem gewaltigen Anteil an GMA945nutzern in der Steamsurvey bis vor wenigen Jahren.
Es gab auch zur Einführung von 1080p noch Leute die lieber auf XGA gezockt haben oder gar auf Röhre, weil das spieletechnisch vielleicht sogar irgendwelche Vorteile brachte (was den competitiven teil angeht). Trotzdem hat sich 1080p eigentlich schon vor 6-8 Jahren als standard durchgesetzt.

Menace
2015-06-17, 23:14:50
monitore behält man halt bis sie nicht mehr funktionieren. zumindest der normale nutzer. ich denke sogar, dass noch genügend leute mit 1680*1050 unterwegs sind.

Ja, mache ich auch: für den Zweit-PC oder als Zweitmonitor. Allerdings habe ich meine Haupt-Monitor auch schon vor 6-7 Jahren gekauft und die sind 1200er IPS-Panele, kombiniert mit 1080iger Zweit-Bildschirmen. Liegt aber wohl auch daran, dass ich mit meinen PCs hauptsächlich arbeite.

Flusher
2015-06-17, 23:15:54
Etwas, was mich am meisten wundert.

Wieso wundert es dich, dass die meisten noch mit FHD unterwegs sind? Für 4K ist abseits der High-End Grafikkarten eigentlich momentan nichts ernsthaft nutzbar. Die Monitore sind auch doppelt so teuer und wenn man dann noch einen haben will der nicht den ganzen Schreibtisch zustellt und 120 Hz bringt, muss man noch tiefer in die Tasche greifen.

Ein durchweg 4K-fähiger PC kostet aktuell mit Monitor locker an die 1500 Steine. Die meisten Gamer nutzen aber Hardware im Wert von <800 €.

davidzo
2015-06-17, 23:17:51
Wieso wundert es dich, dass die meisten noch mit FHD unterwegs sind? Für 4K ist abseits der High-End Grafikkarten eigentlich momentan nichts ernsthaft nutzbar. Die Monitore sind auch doppelt so teuer und wenn man dann noch einen haben will der nicht den ganzen Schreibtisch zustellt und 120 Hz bringt, muss man noch tiefer in die Tasche greifen.

Ein durchweg 4K-fähiger PC kostet aktuell mit Monitor locker an die 1500 Steine. Die meisten Gamer nutzen aber Hardware im Wert von <800 €.

Oh, 150€ Für den Rest vom PC neben Fiji? Hm warte, das wird schwierig...

merfu
2015-06-17, 23:18:02
@ merfu

Ist die Frage wie genau du Rebrand definierst. Die GTX 770 zB kann man auch Rebrand nennen.

290X=390X, nur neuer Name. Das ist meine Definition von Rebrand. Vielleicht ein wenig Schwarz / Weiß :biggrin:.

Edit: (Takt mal außen vor gelassen)

Thunder99
2015-06-17, 23:18:55
Wer immer nur das neuste Zeug zoggt für den sind >1080p bis 4k ne Fein Sache inkl. nativen Monitor.

Aber für welche wo auch mal ältere Schinken zoggen möchten ist ein 4k Display einfach nur kacke wenn dann das UI winzig ist und nicht mitskaliert... siehe auch Civ5 oder Beoynd the Earth wo nicht einmale sehr alt sind... VSR/DSR sind da die richtigen Antworten bis in 2 Jahren alles sich auf 4k eingstellt hat und die Moni Technik soweit ist das runter schrauben der Quali auf 1080p keine sichtbaren Unterschiede mehr hat.

Menace
2015-06-17, 23:19:01
Was wäre ein 12bit Panel für eine Offenbarung bei der RAW Fotobearbeitung :) - wahrscheinlich ähnlich groß wie die eines 4K Displays bei dem ich plötzlich das Gefühl habe ich brauche dringend eine Kamera mit mehr Pixeln und bessere Objektive (nutze Lumix GX7 / 16MP).


Offtopic: 4K + RAW-Bearbeitung
Sind den 4K-Monitor jetzt als Grafik-Monitore zu gebrauchen (Farbneutralität, Colormanagment, ...)? Als ich mit zum letzten mal darüber informiert habe, war die Meinung, dass 4 K zwar eine bessere Auflösung hat, dafür andere Nachteile, so dass man es nicht für RAW-Bearbeitung nutzen sollte.

Flusher
2015-06-17, 23:22:20
Oh, 150€ Für den Rest vom PC neben Fiji? Hm warte, das wird schwierig...

Was willst du damit sagen? Der Durchschnittsgamer kauft kein Fiji, keine Titan, sondern eher was vom Schlage 960 GTX oder 285/380X. Eher drunter

Wenn man dann noch die ganzen Laptop-Gamer berücksichtigt...

davidzo
2015-06-17, 23:25:20
Nochmal zurück zu dem HBM = L4 cache Thema.

Hat jemand da Daten zu, wie sich HBM Latenztechnisch verhält?
Bei CPUs sind Latenzen ja weitaus wichtiger als die absolute Bandbreite.

Normalerweise ist das ja bei Speichertechnologien so:
Bandwith, Latency, Energy Efficiency - Pick any two

Latenzen skalieren in der Regel mit dem Takt, das heißt ein cl9 Speicher bei 1600mhz hat kürzere Latenzen als ein cl9 Speiche rbei 1333mhz.
Nun hat HBM ja einen sehr niedrigen Takt von nur 500mhz. Das heißt dass die Cas Latency um ein vielfaches kürzer sein muss als bei GDDR5 um dieselbe praktische Latenz zu ermöglichen. Und bereits GDDR5 ist suboptimal für CPUs, dafür ist eher DDR3 gedacht mit seinen kürzeren Latenzen.
Bisher hatte ich vermutet, dass HBM eben auch etwas Latenzzeiten - die bei GPUs irrelevant sind - aufgibt um dafür - die bei GPUs so relevante - höhere Bandbreite zu erhalten.

Ich kann mir nicht vorstellen dass HBM dann für irgendwas anderes Sinn macht als GPUs...

Was willst du damit sagen? Der Durchschnittsgamer kauft kein Fiji, keine Titan, sondern eher was vom Schlage 960 GTX oder 285/380X. Eher drunter

Wenn man dann noch die ganzen Laptop-Gamer berücksichtigt...
Dir ist aber schon aufgefallen dass das hier der Fiji Thread ist, oder?

Skysnake
2015-06-17, 23:26:22
wie funktioniert das eigentlich?

wenn die selbe "Datei" zugleich im Speicher als auch im Cache ist gibts doch 2 Szenarien. die im cache wird bearbeitete die im Speicher bleibt aber auf alten stand = Problem wenn eine andere darauf zugreift und man könnte sie gleichgut im Speicher löschen.
Datei wird bei Bearbeitung mit geändert = Transferrate und Latenz zum Speicher limitiert
Das Stichwort Cachekohärenz ist hier ja schon gefallen. Da gibt es z.B. MESI (https://de.wikipedia.org/wiki/MESI). Kannste dir ja mal durchlesen.

Ansonsten gibt es halt noch Raceconditions bezüglich read after write und solche "lustigen" Sachen, die mit Multicore/threading einhergehen.

Wobei gerade CUDA/OpenCL sehr stark relaxierte Anforderungen an die Speicherkonsistenz haben. Sobald Threads aus unterschiedlichen SMx/CUs schreibend auf den RAM zugreifen, kann da irgendwas drin stehen, was geschrieben wurde, du hast aber keinerlei Chance zu wissen was es am Ende ist.

Screemer
2015-06-17, 23:32:22
Ja, mache ich auch: für den Zweit-PC oder als Zweitmonitor. Allerdings habe ich meine Haupt-Monitor auch schon vor 6-7 Jahren gekauft und die sind 1200er IPS-Panele, kombiniert mit 1080iger Zweit-Bildschirmen. Liegt aber wohl auch daran, dass ich mit meinen PCs hauptsächlich arbeite.
ich nutze seit meiner 7950 einen wqhd (2560×1440) koreaner. power genug hat meine 290 immer noch nicht und wenn ich mir überlege, dass eine ~60% schnellere titan x dann 4k packen soll, dann bekomm ich schon schwierigkeiten das als nutzbar zu bezeichnen. somit find ich fiji für 4k jetzt auch net so hammer. naja mal schaun.

Thunder99
2015-06-17, 23:59:57
Bis vor ca einem halben Jahr war ich auf 1680x1050. Leider ist der Monitor defekt.

Bis sich 4k als Standard durchsetzt braucht es sehr viel mehr Angebote an Monitore. 1440p und co waren immer schon eine Randgruppe. Erst mit VSR/DSR bekommen größere Auflösungen mehr Bedeutung bei der Masse

aufkrawall
2015-06-18, 00:20:06
Bei mehr Leuten schon, aber "Masse" ist dieses Feature sicher nicht.
Oder kennst du irgendjemanden mit Komplett-PC oder Notebook, der das nutzt?

Thunder99
2015-06-18, 00:23:28
Nur die Freaks aus unserem Forum :ugly:

-/\-CruNcher-/\-
2015-06-18, 00:44:21
Blödsinn!!!

Ich habe schon gefühlt 100x gesagt, dass die Streaming Engine mit Ultra Texturen nicht klarkommt. Das gilt sowohl für Nvidia als auch AMD Karten. Wenn ihr WD schon testet dann max. mit High Texturen! Alles andere ist sinnlos bei dieser Software.


Nope das ist nicht mehr korrekt selbst auf meiner GTX 970 läuft es auf Ultra Textures inzwischen ohne Aussetzer beim Streaming auch Afterburner ist seit 4.1.1 mit dem neuen Pooling setting seines OSD nicht mehr so Agressiv und stört das MT nicht mehr so böhse ;)

Das Streaming von Watch_Dogs (Disrupt) sowie GTA V (Rage) ist absolut stabil auf der GTX 970 und meinem i5-2400

Die verbesserungen bei Watch_Dogs (Disrupt) kammen durch ein Treiber update von Nvidia + Worker Thread (Ubisoft)

GTA V Streaming lief schon seit Release absolut flawless.

Brillus
2015-06-18, 01:25:01
monitore behält man halt bis sie nicht mehr funktionieren. zumindest der normale nutzer. ich denke sogar, dass noch genügend leute mit 1680*1050 unterwegs sind.

*Meld*

Und ich bin super zufrieden mit ihm.

mczak
2015-06-18, 01:46:38
*Meld*

Und ich bin super zufrieden mit ihm.
Also mein Hauptmonitor will einfach nicht kaputtgehen, und der feiert demnächst das 10-Jahr-Jubiläum, Backlight hours mittlerweile über 30000 Stunden :-). Ist aber ein 1920x1200 24" SPVA-Display, war damals nicht ganz billig, und irgendwie halt zu schade zum Wegwerfen... So ein 27" QHD-IPS Modell für nicht mal den halben Preis was ich damals bezahlt habe ist allerdings langsam schon verlockend. Eigentlich müsste ich schon fast aus finanziellen Gründen aufrüsten, säuft der doch um die 60W und diese Edge-Lit WLED 27" QHD DInger liegen bloss bei der Hälfte...

Leonidas
2015-06-18, 04:50:15
@ merfu

Ist die Frage wie genau du Rebrand definierst. Die GTX 770 zB kann man auch Rebrand nennen.



Ist sie doch auch. Nur weil sie etwas schneller ist als die 680, kann dieses Urteil nicht anders ausfallen. Es wird mit der 7 am Anfang etwas neues suggeriert - und das gibt es nicht, es ist faktisch eine 680 Ultra.




Hm, auch keine schlechte Idee. Ist aber OT. So Langzeitvergleiche machen aber irgendwann keinen Sinn mehr. Glaube bei ihm ist die HD 5770 noch die 100%-Punkte-Marke.


... und der Rückwärtsvergleich bis zur Radeon HD 2900 XT ist intern schon getan und wartet nur auf seine Finalisierung.

dargo
2015-06-18, 06:35:37
Nope das ist nicht mehr korrekt selbst auf meiner GTX 970 läuft es auf Ultra Textures inzwischen ohne Aussetzer beim Streaming auch Afterburner ist seit 4.1.1 mit dem neuen Pooling setting seines OSD nicht mehr so Agressiv und stört das MT nicht mehr so böhse ;)

Das Streaming von Watch_Dogs (Disrupt) sowie GTA V (Rage) ist absolut stabil auf der GTX 970 und meinem i5-2400

Erzähl keine Märchen.


Die verbesserungen bei Watch_Dogs (Disrupt) kammen durch ein Treiber update von Nvidia + Worker Thread (Ubisoft)

Wieder Blödsinn! Der zusätzliche Workerthread ist schon ewig seit V1.6 drin. Der hat rein gar nichts gebracht im Vergleich zur V1.5 was Fluktuationen angeht. Und seit dem 347.09 hat sich auch nichts am Streaming in WD verändert.

Pirx
2015-06-18, 07:02:05
Genau, aber dann bist du wenn du dich für highendkarten interessierst wahrscheinlich exzessiver DSR Nutzer. Für 1080p kaufe ich mir keine 700€ GPU...
Warum nicht, die Anforderungen werden auch unabhängig von der Auflösung erstmal immer weiter steigen.
Dieser 4K-Wahn ist ja wieder mal "toll" um den Leuten das Geld aus der Tasche zu ziehen. Dabei ist nicht mal eine Titan X richtig 4K-"fähig".

horn 12
2015-06-18, 07:18:14
4K Nutzen dort wo es Performancetechnisch was bringt mit VSR 2.0 auf einer R9 290, oder vielleicht bald R9 Fury Karte.
Dann kann man immer noch in 2 Jahren umsatteln wenn die Leistung reicht für 4K Geräte.
Neue und kommende Games wird werder GT 980 TI noch Fury X stemmen können, ausser uns überrascht AMD wirklich noch!

r-or
2015-06-18, 07:40:35
Bisher hatte ich vermutet, dass HBM eben auch etwas Latenzzeiten - die bei GPUs irrelevant sind - aufgibt um dafür - die bei GPUs so relevante - höhere Bandbreite zu erhalten.

Ich kann mir nicht vorstellen dass HBM dann für irgendwas anderes Sinn macht als GPUs...



Da es noch immer DDR Ram ist, hat sich an den Latenzen nichts geändert. Die absoluten Latenzen (in ns) sollten ziemlich vergleichbar sein (zwischen DDR3, GDDR5, HBM), da die Taktung aber sehr unterschiedlich ist, ergeben sich entsprechend andere "Stalling" Werte (gemessen in Takten).

Wenn überhaupt, dann ist eher GDDR etwas schneller (in absoluter Latenz) als DDR3... hab das mal bei chips derselben Generation von Hynix verglichen. Ich glaube ich kam zu dem ERgebnis dass GDDR5 öfter refreshed wird und dadurch die Kapazitäten geringer sein können als bei DDR3, etwas in der Richtung. Natürlich bedeutet das einen höheren Energieverbrauch.

Botcruscher
2015-06-18, 08:16:15
Dieser 4K-Wahn ist ja wieder mal "toll" um den Leuten das Geld aus der Tasche zu ziehen. Dabei ist nicht mal eine Titan X richtig 4K-"fähig".

Dieser "Wahn" ist mit weitem Abstand der größte Schritt an Qualitätsgewinn des letzten Jahrzehnts. Der Optikgewinn beläuft sich locker auf zwei AA Stufen und super ultra Qualität. Alleine der Gewinn bei den Texturen ist einfach extrem. Selbst der normale Desktop wird zum Traum. Alleine bei den Texten...
Das ist vergleichbar mit dem Sprung von einer schlechten Festplatte zu einer SSD.

ChaosTM
2015-06-18, 08:19:52
Warum nicht, die Anforderungen werden auch unabhängig von der Auflösung erstmal immer weiter steigen.
Dieser 4K-Wahn ist ja wieder mal "toll" um den Leuten das Geld aus der Tasche zu ziehen. Dabei ist nicht mal eine Titan X richtig 4K-"fähig".

4K ist einfach eine pixelfreie Wohltat für die Augen, speziell am Desktop.

Und das beste daran.: dank der hohen Pixeldichte kann man in jeder beliebigen Auflösung spielen und es schaut immer noch gut aus.
Ein 5k Schirm ist natürlich noch besser. ;)

Spasstiger
2015-06-18, 08:23:57
HBM mit vier Stacks erlaubt mit seinen 4*8=32 Kanälen den Zugriff auf 32 verschiedene Speicherbereiche gleichzeitig, im Gegensatz zum nur 8-kanaligen Interface von Hawaii. Dies erlaubt mit einer gewissen Wahrscheinlichkeit, angeforderte Daten mit kürzerer Latenz bereit zu stellen, weil mehrfache Speicherzugriffe auf verschiedene Bereiche teilweise entfallen.

akuji13
2015-06-18, 08:39:45
Dieser "Wahn" ist mit weitem Abstand der größte Schritt an Qualitätsgewinn des letzten Jahrzehnts. Der Optikgewinn beläuft sich locker auf zwei AA Stufen und super ultra Qualität. Alleine der Gewinn bei den Texturen ist einfach extrem. Selbst der normale Desktop wird zum Traum. Alleine bei den Texten...
Das ist vergleichbar mit dem Sprung von einer schlechten Festplatte zu einer SSD.

Diese Begeisterung kann ich persönlich (trotz Philips BDM4065UC) nur eingeschränkt teilen.
Das Bild gefiel mir "früher" mit SSAA/RGSSAA besser als heute mit der Auflösungskeule, denn damit diese richtig greift ist 5K mMn schon das Minimum.
Erst ab 8K wirds richtig schick flimmerfrei.

Den SSD Vergleich hinkt, da diese wie der Monitor zwar auch eine bessere "Qualität" bringt, dieses aber bei gleichzeitig höherer performance.

Und das beste daran.: dank der hohen Pixeldichte kann man in jeder beliebigen Auflösung spielen und es schaut immer noch gut aus.

Das wiederrum verstehe ich gut, das war auch mein Wechselgrund. =)
Es entsteht ein ungewohnte Flexibilität.

@topic

Ich finde Fiji total interessant für kleine Gehäuse.

So eine Fury X kriegt man meistens gut untergebracht. =)

ChaosTM
2015-06-18, 08:49:27
HBM ist schon was feines punkto Größe der Platinen.
Die nächste Generation wird uns einen neuen Wettkampf bescheren.: wer baut die kompakteste High-End Karte - ich freue mich drauf.

Worüber ich mich momentan noch mehr freuen würde, wären ein paar echte Spielebenchmarks von F.

Botcruscher
2015-06-18, 08:51:51
Diese Begeisterung kann ich persönlich (trotz Philips BDM4065UC) nur eingeschränkt teilen.

Bei 39,5" und normalen dpi-Wert dürfte es auch ganz anders wirken. Es ist dann eben nur groß. Höhere dpi kommt halt auch beim Auge an.

PS: Ich kann die Begeisterung für die nano nicht verstehen. Sind eure Gehäuse über Nacht geschrumpft?

ChaosTM
2015-06-18, 09:02:34
Bei 39,5" und normalen dpi-Wert dürfte es auch ganz anders wirken. Es ist dann eben nur groß. Höhere dpi kommt halt auch beim Auge an.

PS: Ich kann die Begeisterung für die nano nicht verstehen. Sind eure Gehäuse über Nacht geschrumpft?

Nein, aber jetzt passen bis zu 4? Chips auf eine Platine, ohne dass das Ding Voodoo6 Dimensionen annimmt.
HBM eröffnet viele neue Möglichkeiten bez. der Bauform

Pirx
2015-06-18, 09:11:57
Vor so einem Riesen Monitor kann man doch auch nicht mehr richtig arbeiten/spielen. 30" ok, aber 40"??

Ich liebäugele ja auch eher mit der Fury X, aber die Nano ist eine richtig gute Ergänzung im Portfolio.

SamLombardo
2015-06-18, 09:12:55
Bei 39,5" und normalen dpi-Wert dürfte es auch ganz anders wirken. Es ist dann eben nur groß. Höhere dpi kommt halt auch beim Auge an.

39,5 Zoll 4K hat die selben PPI wie 1440p bei 27 Zoll. Mehr Details hast du aber trotzdem weil deutlich mehr Pixel. Ist halt nur nicht so brutal scharf wie 4k@24 Zoll, der Detailreichtum den die 4k Auflösung bringt ist aber da. Nur in größer:D

SamLombardo
2015-06-18, 09:18:37
Vor so einem Riesen Monitor kann man doch auch nicht mehr richtig arbeiten/spielen. 30" ok, aber 40"??

Ich liebäugele ja auch eher mit der Fury X, aber die Nano ist eine richtig gute Ergänzung im Portfolio.
Dooooch, das geht:biggrin:. Am Anfang denkt man erstmal Boooah:eek:, aber man gewöhnt sich ganz schnell dran. Kannst du glauben. Mein absoluter Favorit ist der Philips @37-38 Zoll 21:9 Custom Res (3840x1620 ). Das will ich nicht mehr missen.

Botcruscher
2015-06-18, 09:30:19
Nein, aber jetzt passen bis zu 4? Chips auf eine Platine, ohne dass das Ding Voodoo6 Dimensionen annimmt.
HBM eröffnet viele neue Möglichkeiten bez. der Bauform

Das wird aber nur interessant wenn multigpu ohne weiteres zutun funktioniert. Die große Sprung ist eigentlich der Interposer. Nebn dem HBM kann man ganze Chips zusammen kleben. Mit Hinblick auf die Fertigungsverfahren wird das extrem wichtig.

Ist halt nur nicht so brutal scharf wie 4k@24 Zoll, der Detailreichtum den die 4k Auflösung bringt ist aber da. Nur in größer:D
24" wäre mir dann zu krass. Bei 28" kann man wenigstens noch was ohne Skalierung lesen. Optimal sind vermutlich 32". Das Fiji HDMI 2.0 fehlt ist echt bitter.

Sunrise
2015-06-18, 09:50:41
...Das Fiji HDMI 2.0 fehlt ist echt bitter.
Was leider meine Befürchtungen dann auch bestätigen würde, dass Fiji nicht mit Carrizo-Video-IP gleichzusetzen ist. Lustigerweise wirbt man nämlich auch nirgends mit den Video-Features von Fiji, was nichts Gutes bedeutet.

Keine Ahnung, warum AMD auf einmal Video so stark vernachlässigt. Das ist aus meiner Sicht ein riesengroßer Minuspunkt, den man AMD in den Reviews ankreiden sollte, damit sich das schnellstmöglich wieder ändert. Da sollte konstruktive Kritik ausgeübt werden, ansonsten merkt das dort keiner.

Wie schonmal angemerkt, wäre das flächenmäßig vollkommen irrelevant für Fiji gewesen. Ob man nun 2-5mm² für alte Videofeatures oder neue fixed-function Videofeatures aufwendet ist schlichtweg nicht relevant für das Fiji-Silikon. Das sind reine Versäumnisse, die wahrscheinlich auf den Weggang gewisser Leute zurückzuführen sind. Da hat jemand bei AMD ganz kräftig gepennt. Man hinkt hier NV (und auch Intel) stark hinterher und gerade bei der Fiji nano ist dieses Versäumnis fatal. Gerade wenn man sein LineUp mit HBM so aufbaut, dass man eigentlich verdammt flexibel ist und von HTPC bis Dual-Karte alles bedienen kann. Dann _muss_ die Video-IP state-of-the-art sein und darf nicht von vorgestern sein. Mindestens HDMI 2.0 und HDCP 2.2 wäre Pflicht gewesen, HEVC kann man notfalls immernoch über die ALUs fahren, davon hat Fiji genug und die sind auch recht effizient (nicht wie fixed-function Einheiten, aber besser als nichts).

Ich bin mal auf die Reviews gespannt, bin aber sehr enttäuscht, dass AMD dieses Thema so vernachlässigt. Sogar Intel ist inzwischen weiter, was eigentlich ein Witz ist. AMD ist hier stark zurückgefallen.

Es zeigt mir persönlich auch, dass Fiji wirklich ungewöhnlich lange validiert werden musste und der TapeOut schon lange vorher stattfand, sonst wäre man zumindest auf Carrizo-Level.

akuji13
2015-06-18, 09:51:59
Bei 39,5" und normalen dpi-Wert dürfte es auch ganz anders wirken. Es ist dann eben nur groß. Höhere dpi kommt halt auch beim Auge an.

Ich habe auch schon den Dell 5K getestet, ändert nichts an meiner Meinung dazu.

Das geht mit entsprechendem content super (= Mafia 2), aber eben nicht mit allem...ein Crysis flimmert eben auch dort noch.

PS: Ich kann die Begeisterung für die nano nicht verstehen. Sind eure Gehäuse über Nacht geschrumpft?

Nö, aber ich habe ja nicht nur big tower. :wink:

Die MSI GTX960 in den Cooltek Coolcube Maxi zu kriegen war ein Krampf, dafür musste z. B. der Ein/Ausschalter demontiert werden.

Mit einer Fury X gäbs das Problem nicht bei deutlich mehr Leistung.

Die Nano wäre für mich nur interessant wenn sie ebenso leise die die MSI zu realisieren wäre ohne dann wieder auf ihre (Kühler)Ausmaße zu kommen.

Vor so einem Riesen Monitor kann man doch auch nicht mehr richtig arbeiten/spielen. 30" ok, aber 40"??

"Arbeiten" tue ich am Rechner sowieso nicht...das gibts nur auf der Arbeit.
Aber mehrere browser offen haben inkl. email und diversen Fenstern finde ich schon gut.

Und spielen ist grandios. :D

Dural
2015-06-18, 09:58:55
Also ich habe gestern Abend nach Gehäusen Ausschau gehalten. Ich habe hunderte angeschaut, aber irgend wie kein "richtiges" gefunden:

So klein wie möglich
240er Radi für CPU
120er Radi Fury (Nicht bei der ATX Blende! Oben oder vorne)
Am liebsten aus Alu
Ob ITX, ATX oder Micro ATX bin ich sogar recht offen.

In jedem Gehäuse das ich angeschaut habe passt auch eine normale Grafikkarte rein, also was um die 30cm lang. Ein Gehäuse das auf kurze Grafikkarten ausgelegt ist, aber die oberen Punkte einhält habe ich nicht gefunden.

Sunrise
2015-06-18, 10:04:47
@Dural:
Die Corsairs erfüllen alle Wünsche, jedoch sind die nicht aus Alu. Dafür gibt es dann Silverstone, aber die sind relativ teuer, je nachdem, was du da vorhast.

Gipsel
2015-06-18, 10:06:52
240er Radi für CPU
120er Radi Fury
400+W CPU? :freak:

fondness
2015-06-18, 10:10:14
Es zeigt mir persönlich auch, dass Fiji wirklich ungewöhnlich lange validiert werden musste und der TapeOut schon lange vorher stattfand, sonst wäre man zumindest auf Carrizo-Level.

Wie sicher ist HDMI2.0 bei Carrizo? Ich habe dazu keine offizielle AMD-Angabe gefunden, sondern nur Spekus vor dem Launch. Ansonsten würde ich Video-mäßig schon Carrizo-IP erwarten, gestern wurde ja im Grunde noch gar nichts gezeigt außer die Hardware selbst.

/Edit: Okay Carrizo hat definitiv HDMI2.0:

http://s17.postimg.org/c6773ao0v/amd_carrizo_pres_leak.jpg (http://postimage.org/)

Sunrise
2015-06-18, 10:15:38
Wie sicher ist HDMI2.0 bei Carrizo? Ich habe dazu keine offizielle AMD-Angabe gefunden, sondern nur Spekus vor dem Launch.
Kenne nur den Slide hier:
http://www.computerbase.de/2014-07/amd-carrizo-mit-hdmi-2.0-und-voller-hsa-unterstuetzung/

Dural
2015-06-18, 10:16:00
@Dural:
Die Corsairs erfüllen alle Wünsche, jedoch sind die nicht aus Alu. Dafür gibt es dann Silverstone, aber die sind relativ teuer, je nachdem, was du da vorhast.

Nein, die haben kein passendes Gehäuse im Sortiment.

Das einzige das halbwegs passt ist ein Lian Li, aber das ist mir immer noch etwas zu gross, sprich zu tief. Das Fury X so kurz ist, bringt aktuell mit meinen wünschen rein gar nichts. Mal schauen ob die Gehäuse Hersteller darauf regieren werden.

Sunrise
2015-06-18, 10:17:47
Nein, die haben kein passendes Gehäuse im Sortiment.

Das einzige das halbwegs passt ist ein Lian Li, aber das ist mir immer noch etwas zu gross, sprich zu tief.
Du hast sowohl vorne, hinten als auch oben Platz für nen Radi, wenn du min. das Corsair 750er nimmst. Vorausgesetzt du brauchst nicht alle SSD/HDD-Käfige vorne. Ich wüsste nicht wieso das nicht passend wäre.

fondness
2015-06-18, 10:18:47
Warum willst du ausgerechnet für die deutlich sparsamere CPU einen Dual-Radi wenn sogar Fury X mit einem Single-Radi auskommt?

Sunrise
2015-06-18, 10:23:32
Warum willst du ausgerechnet für die deutlich sparsamere CPU einen Dual-Radi wenn sogar Fury X mit einem Single-Radi auskommt?
Das wäre die nächste Frage.

Und wenn er wirklich alles aufs Maximum übertakten will, dann würde ich mir wohl sowieso eine gescheite Wakü bauen und dann sowohl CPU als auch Fiji integrieren. Werden sicher auch 3rd party Wakü-Kühler für Fiji kommen, da ja Referenz. Das wäre dann auch nochmal insgesamt leiser.

r3ptil3
2015-06-18, 10:30:58
Fury X in der Schweiz gelistet:

http://www.toppreise.ch/index.php?search=amd+fury&sRes=OK

Loeschzwerg
2015-06-18, 10:32:57
Fury X in der Schweiz gelistet:

http://www.toppreise.ch/index.php?search=amd+fury&sRes=OK

GDDR5 :freak:

tm0975
2015-06-18, 10:35:26
Fury X in der Schweiz gelistet:

http://www.toppreise.ch/index.php?search=amd+fury&sRes=OK

und die Preise ;D;D;D

r3ptil3
2015-06-18, 10:44:07
Ja, alles total falsch..
Aber hoffentlich auch wirklich verfügbar nächste Woche.

maximus_hertus
2015-06-18, 10:56:44
Die Lieferung wurde verschoben, aber es gibt aktualisierte Preise:

MSI 390X 8G Gaming 479,90
MSI 390 8G Gaming 374,90
MSI 380 4G Gaming 254,90
MSi 380 2G Gaming 224,90

Sapphire 390X Tri-X OC 8G 499,90
Sapphire 390 Nitro 384,90
Sapphire 380 Nitro Dual-X OC 4G 254,90
Sapphire 380 ITX Compact OC 2G 234,90
Sapphire 380 Dual-X OC 2G 229,90

Gigabyte 390X Gaming 8G 459,90
Gigabyte 390 Gaming 8G 354,90
Gigabyte 380 Gaming 4G 254,90
Gigabyte 380 Windforce 2x 2G 229,90

kuj0n
2015-06-18, 11:02:01
Nein, die haben kein passendes Gehäuse im Sortiment.

Das einzige das halbwegs passt ist ein Lian Li, aber das ist mir immer noch etwas zu gross, sprich zu tief. Das Fury X so kurz ist, bringt aktuell mit meinen wünschen rein gar nichts. Mal schauen ob die Gehäuse Hersteller darauf regieren werden.
https://www.ncases.com/

InsaneDruid
2015-06-18, 11:05:47
Also ich habe gestern Abend nach Gehäusen Ausschau gehalten. Ich habe hunderte angeschaut, aber irgend wie kein "richtiges" gefunden:

So klein wie möglich
240er Radi für CPU
120er Radi Fury (Nicht bei der ATX Blende! Oben oder vorne)
Am liebsten aus Alu
Ob ITX, ATX oder Micro ATX bin ich sogar recht offen.

In jedem Gehäuse das ich angeschaut habe passt auch eine normale Grafikkarte rein, also was um die 30cm lang. Ein Gehäuse das auf kurze Grafikkarten ausgelegt ist, aber die oberen Punkte einhält habe ich nicht gefunden.

Wenn man ein bissl vom "so klein wie möglich" Zug wegkommt: Fortress FT02

Da bekommst du einen 3*180mm Radi und noch einen 120er Radi rein.

Thunder99
2015-06-18, 11:08:08
Ich will meine ppi beim Smartphone 1080p auf 5" auch nicht mehr missen. Aber ich hab starke Bedenken wegen den Problemen der nicht skalieren der UI. Aktuell sogar StarWars! Man kann zwar das Interface die Symbole vergrößern aber alles händisch... :D

fondness
2015-06-18, 12:31:06
AMD hat bei der "neuen" 300er Serie wohl zumindest den µController überarbeitet, also keine reinen Rebrands:

The AMD Caribbean Islands Family: Not Just a Rebrand (..)

AMD has been hard at work over the past year-and-a-half optimizing and re-architecting the microcontrollers within the ASICs themselves. Combined with the improvements to their manufacturing process, AMD has been able to squeeze more performance out of each of their cards and increase performance while maintaining the same price tier as its predecessor.

The R9 390 and R9 390X replace the R9 290 and R9 290X and are both 300 GFLOPS faster than their predecessors (5,100 GFLOPS and 5,900 GFLOPS respectively) without increasing power in typical workloads.
The R9 380 also benefits from the maturing of the 28nm process technology and AMD’s optimizations. It gains roughly 200 GFLOPS in performance: from 3,290 GFLOPS to 3,480 GFLOPS in compute performance.
The R7 370’s compute capability of 2,000 GFLOPS is also faster by 200 GFLOPS than its predecessor’s (R7 265) 1,800 GFLOPS.
The R7 360 has a compute performance of 1,610 GFLOPS, slightly more than the 1,536 GFLOPS of the R7 260.


In all cases, AMD increased performance and also added many features that previous generations did not have. Some of those features are enabled through the driver and others are done in hardware. But all of the GPUs listed above will support DirectX 12, Vulkan, and Mantle graphics APIs.

http://www.moorinsightsstrategy.com/wp-content/uploads/2015/06/AMD-Brings-New-Value-to-Radeon-by-Moor-Insights-and-Strategy.pdf

dildo4u
2015-06-18, 12:38:08
Hatte die 290X nicht ein 250 TDP was wurde dann verbessert wenn die 390X 275 braucht?Wird langsamer Zeit das die Fanboy's die Optemierung's Theorie fallen lassen.

390X/390
http://abload.de/img/radeon_300_11-pcghyvuwf.png


290X
http://abload.de/img/cardspecs1ljue9.jpg

Dawn on Titan
2015-06-18, 12:40:31
Leider, ja.

fondness
2015-06-18, 12:47:21
Hatte die 290X nicht ein 250 TDP was wurde dann verbessert wenn die 390X 275 braucht?Wird langsamer Zeit das die Fanboy's die Optemierung's Theorie fallen lassen.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/R7-R9-300-Rebrands-Uebersicht-1162231/galerie/2390334/

Für Tonga wurde die TDP auch erhöt.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/R7-R9-300-Rebrands-Uebersicht-1162231/galerie/2390335/

Macht es dir wirklich so viel Spaß immer wieder derart offensichtlich schlicht Lügen zu verbreiten? Für Tonga wurde die TDP nicht erhöht trotz mehr Takt:

http://s8.postimg.org/siwl0tn8l/AMD_Radeon_R9_285_Specifications.jpg (http://postimage.org/)

Die 290X hatte im Quiet-Mode 250W, im Uber-Mode 300W. Die 275W-Angabe sagt also nichts, ohne zu wissen wie der Takt gehalten wird.

Mortalvision
2015-06-18, 12:49:08
Uff, der Aufpreis von den 180€ Modellen der 280 zur neuen 285/380 mit ca. 250€ ist echt happig. Sehe echt nicht, wie sich das für mich als otto-normal user lohnen wird.

N0Thing
2015-06-18, 12:50:14
Klingt für mich auch eher nach mehr Leistung durch höheren Takt. Dass der Stromverbrauch auf ähnlichem Niveau verbleibt würde ich eher der ausgereiften Fertigung und angepasster Kühlung zuschreiben, bis handfeste Daten eine Überarbeitung der Chips bestätigen.

fondness
2015-06-18, 12:50:20
Uff, der Aufpreis von den 180€ Modellen der 280 zur 285 mit ca. 250€ ist echt happig. Sehe echt nicht, wie sich das für mich als otto-normal user lohnen wird.

Das sind keine Straßenpreise. Die neuen Karten werden nicht teurer wie die alten.

Menace
2015-06-18, 12:50:38
Was ist das denn für eine käsige Meldung von pcgh? Entweder sie haben Karten, überprüften und wissen es und werden es in ein paar Stunden auch schon online stellen; dann kann man sich diese Meldung mit "scheinbar" sparen.

Oder sie wissen es nicht und dann wäre die Überschrift ("vor dem Test") wohl nicht exakt. Da braucht man sich doch nicht wundern, wenn man pcgh kritisiert. :P

Falls es reine Rebrandings sind, bleibt nur noch die Hoffnung auf nano, für mich!.

tm0975
2015-06-18, 12:57:16
Hatte die 290X nicht ein 250 TDP was wurde dann verbessert wenn die 390X 275 braucht?Wird langsamer Zeit das die Fanboy's die Optemierung's Theorie fallen lassen.

Meistens sind es genau jene höchst selbst, die dieses wort so gerne verwenden.

und wenn du dir die tdp-werte der 290er anschauen würdest anstelle vorab ohne messergebnise nur zu nörgeln, wäre dir aufgefallen, dass die amd-angabe 290 = 290X = 250 w eh quatsch ist und mit tatsächlichem verbrauch nur sehr wenig zu tun hat.

y33H@
2015-06-18, 12:58:38
@ Menace

Mit Link auf Golem und da sagte ich Hawaii, Tonga und Bonaire. Das war aber vor Test-NDA :biggrin:

Dural
2015-06-18, 13:00:24
bei uns sind schon 390 Karten gelistet:

390X G1 Gaming für 450.-
Satte 10MHz mehr Takt (1060) :freak:

Die Karten laufen wohl voll am Limit.

dildo4u
2015-06-18, 13:01:17
Meistens sind es genau jene höchst selbst, die dieses wort so gerne verwenden.

und wenn du dir die tdp-werte der 290er anschauen würdest anstelle vorab ohne messergebnise nur zu nörgeln, wäre dir aufgefallen, dass die amd-angabe 290 = 290X = 250 w eh quatsch ist und mit tatsächlichem verbrauch nur sehr wenig zu tun hat.
Kommt vermutlich drauf an wie schnell der Lüfter läuft mit Performance Bios kommt die 290X hier auf 231.

http://ht4u.net/reviews/2015/nvidia_geforce_gtx_980_ti_mit_sechs_gigabyte_hauptspeicher_im_test/index16.php

Ich vermute mal das die 390X ein besseren Kühler hat wenn nicht wär das langsam mega peinlich.

Sunrise
2015-06-18, 13:04:45
AMD hat bei der "neuen" 300er Serie wohl zumindest den µController überarbeitet, also keine reinen Rebrands:

http://www.moorinsightsstrategy.com/wp-content/uploads/2015/06/AMD-Brings-New-Value-to-Radeon-by-Moor-Insights-and-Strategy.pdf
Was ist mit dem Micro-Controller gemeint? Display Engine? Das klingt irgendwie nach Wischi-Waschi.

Also scheinbar ein Respin mit Metal-Fixes auf gereifterem Prozess.

Menace
2015-06-18, 13:05:21
@ Menace

Mit Link auf Golem und da sagte ich Hawaii, Tonga und Bonaire. Das war aber vor Test-NDA :biggrin:

:D Was mir nicht klar ist, was Du meinst mit "vor Test-NDA". Ihr habt erst gestern die Karten/NDA bekommen? :confused:

BlacKi
2015-06-18, 13:08:38
was unter fiji ungefähr rauskommt weiß doch eigentlich jeder, also kein diskussionsbedarf.

die details wird man so oder so erst in handfesten tests herausfinden.

einzig allein wo sich die preise finden wird interessant werden.

Menace
2015-06-18, 13:10:40
einzig allein wo sich die preise finden * wird interessant werden.

* ...und wie sich ein weiterer damit veröffentlichter Omega-Treiber sich bewährt...

Masmiseim
2015-06-18, 13:10:54
Erste Einträge in Onlineshops zur R9 390x:
http://www.heise.de/preisvergleich/club3d-radeon-r9-390x-royalqueen-cgax-r939x9-a1282308.html

Thunder99
2015-06-18, 13:13:43
ein leicht verbesserter Hawaii passt doch :confused:

Mehr braucht AMD nicht um die 28nm Zeit zu überbrücken und mehr können sie garnicht aus Ressourcen Gründen tun. Nvidia hat einfach mehr Geld das Lineup komplett zu erneuern und damit Chips auszutauschen, AMD wiederum nicht oder derzeit nicht!

Was aber stimmt wäre durchweg bessere Kühler für Hawaii anzubieten das er nicht mehr so laut ist im Vergleich zur Konkurrenz. Wie das geht sieht man u.a. bei Sapphire ;)

Käsetoast
2015-06-18, 13:16:10
Jetzt haben wir die absolut traurige 300er Serie also schwarz auf weiß. Keine Ahnung was AMD sich dabei gedacht hat. Der einzige Lichtblick bleibt die Fury - ansonsten wurden nur essentielle Lückenfüller (z.B. 7870 / R 270X) komplett gestrichen (warum auch immer) und stattdessen hier und da Modelle mit mehr Speicher (4GB Tonga plus 8GB Hawaii) eingestreut...

Und selbstverständlich wird die 300er Reihe erstmal teurer sein als die 200er Varianten. Keine Ahnung wer das kaufen soll, zumal sowohl 370 als auch 380 im Angesicht der alten Tahitis nicht besonders attraktiv sind...

BTW: Wie sieht es mit VSR bei den alten Pitcairns aus? Gibt's das inzwischen? Falls nein wäre das auch eine ziemlich schwache Leistung, da es bei der 370 ja plötzlich doch zu gehen scheint...

N0Thing
2015-06-18, 13:16:53
Was ist mit dem Micro-Controller gemeint? Display Engine? Das klingt irgendwie nach Wischi-Waschi.

Also scheinbar ein Respin mit Metal-Fixes auf gereifterem Prozess.

Das ganze PDF liest sich wie eine Marketingbroschüre von AMD, gewürzt mit externen Spekulationen. Allein die Beschreibung der 300er Serie suggeriert, dass mehr als ein neuer Chip und eine Speichertechnologie zum Einsatz kommen würde:

This report focuses on AMD’s new Radeon 300 series family. It is a combination of new ASICs (application-specific integrated circuits) and memory technologies as well as innovative new features that give new life to existing architectures.

Ich würde dem PDF nicht sonderlich viel Gewicht beimessen und auf vernüftige Reviews der deutschen Presse warten, PCGH, CB und HT4U werden einen schon nicht enttäuschen. :wink:

dildo4u
2015-06-18, 13:18:58
380 4Gb für 250€ selbes Preis Leistung's Verhältnis wie die 960.

https://geizhals.de/club3d-radeon-r9-380-royalqueen-cgax-r93858-a1282314.html?hloc=at&hloc=de&hloc=pl&hloc=uk

Thunder99
2015-06-18, 13:19:09
Jetzt haben wir die absolut traurige 300er Serie also schwarz auf weiß. Keine Ahnung was AMD sich dabei gedacht hat. Der einzige Lichtblick bleibt die Fury - ansonsten wurden nur essentielle Lückenfüller (z.B. 7870 / R 270X) komplett gestrichen (warum auch immer) und stattdessen hier und da Modelle mit mehr Speicher (4GB Tonga plus 8GB Hawaii) eingestreut...

Und selbstverständlich wird die 300er Reihe erstmal teurer sein als die 200er Varianten. Keine Ahnung wer das kaufen soll, zumal sowohl 370 als auch 380 im Angesicht der alten Tahitis nicht besonders attraktiv sind...

BTW: Wie sieht es mit VSR bei den alten Pitcairns aus? Gibt's das inzwischen? Falls nein wäre das auch eine ziemlich schwache Leistung, da es bei der 370 ja plötzlich doch zu gehen scheint...
Werden wir ab nächster Woche sehen wenn ein neuer Treiber erscheint

Lurtz
2015-06-18, 13:25:00
Sind heute eigentlich noch Reviews zu erwarten?

Menace
2015-06-18, 13:28:11
Sind heute eigentlich noch Reviews zu erwarten?

Dazu: Kann mir einmal einer den Sinn einer NDA der NDA erklären? :freak:

Screemer
2015-06-18, 13:29:42
BTW: Wie sieht es mit VSR bei den alten Pitcairns aus? Gibt's das inzwischen? Falls nein wäre das auch eine ziemlich schwache Leistung, da es bei der 370 ja plötzlich doch zu gehen scheint...
ganz sinnvoll auf so schwachen karten. ist doch mal ein richtig gutes argument. will ich unbedingt haben. downsampeln für alte spiele ist das killer feature für alle grafikkartenkäufer, die sich solche karten kaufen.

Sunrise
2015-06-18, 13:31:08
Jetzt haben wir die absolut traurige 300er Serie also schwarz auf weiß. Keine Ahnung was AMD sich dabei gedacht hat.
Das hatten wir schon. AMD musste auf die Kostenbremse treten. Und dafür sind die Dinger so schlecht nicht, weil Hawaii bzw. jetzt Grenada wohl sogar die DP-Leistung ggü. Hawaii noch gesteigert hat. So eine Grenada-basierende 32GB GDDR5 FirePro mit noch mehr DP klingt doch nicht schlecht.

Alles andere wird mit Fiji bedient und durch die aktuell noch teurere Fertigung kann AMD damit nicht ganz runter, daher brauchen sie noch die Überarbeitungen um das LineUp nach ganz unten vollständig zu machen.

Wird sich aber ändern, keine Angst. Man muss aber jetzt erstmal wieder etwas Geld verdienen. Rebranding ist ja nichts neues, das wird seit Jahren gemacht. Mal zusammen gezählt, wie oft GK104 rebrandet wurde? Und der wurde damals sogar als High-End verkauft...

Ätznatron
2015-06-18, 13:34:34
Ich würde dem PDF nicht sonderlich viel Gewicht beimessen und auf vernüftige Reviews der deutschen Presse warten, PCGH, CB und HT4U werden einen schon nicht enttäuschen. :wink:

Genau!

So wie bei der GTX 970 - fantastische Arbeit allerorten.

Besonders auf CB warte ich. Die werden meine Erwartungen bestimmt nicht enttäuschen. :D

fondness
2015-06-18, 13:36:44
EIn paar mehr Details zu Project Quantum:
http://wccftech.com/wipamd-project-quantum/

BlacKi
2015-06-18, 13:38:35
380 4Gb für 250€ selbes Preis Leistung's Verhältnis wie die 960.

https://geizhals.de/club3d-radeon-r9-380-royalqueen-cgax-r93858-a1282314.html?hloc=at&hloc=de&hloc=pl&hloc=uk

https://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GTX+960#xf_top

die muss noch weitere runter die 960 kostet keine 250€ mehr

die 960 kann hdmi 2.0 für 4k@60hz *big grin*

derF
2015-06-18, 13:39:07
@Ätznatron: Bei CB wäge ich immer ab ob ich ihnen den Klick gönne, nur um ein bisschen facepalmieren zu können. ;D

Dawn on Titan
2015-06-18, 13:39:35
https://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GTX+960#xf_top

die muss noch weitere runter die 960 kostet keine 250€ mehr

Warum. Sie ist schneller. sparsamer und neu.

foenfrisur
2015-06-18, 13:39:42
eines darf man aber nicht vergessen, "wenn" nv nun auch schon HBM genutzt hätte, dann wären die nochmals deutlich sparsamer, als fury & co.

dann kann man offenbar noch mal 50-80W von den aktuellen verbräuchen abziehen.

dennoch würde ich mir weiterhin keine nv-karte kaufen, wenn deren (produkt-)politik weiter so bescheiden bleibt.
ich mag sie einfach überhaupt nicht.
da jucken mich auch die verbräuche zum glück "null".
lieber greife ich da zu amd und unterstütze nicht diesen propietären mist.

mfg

dildo4u
2015-06-18, 13:46:31
Warum. Sie ist schneller. sparsamer und neu.
Wo sind 190 TDP weniger als 120?

http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-960/launch-analyse-nvidia-geforce-gtx-960-seite-2

Leistung wird mit dem neuen Takt vermutlich im Bereich der 960 Oc liegen.

http://www.computerbase.de/2015-05/17-grafikkarten-von-amd-und-nvidia-im-vergleich/2/#abschnitt_leistungsratings_spiele

Käsetoast
2015-06-18, 13:47:59
ganz sinnvoll auf so schwachen karten. ist doch mal ein richtig gutes argument. will ich unbedingt haben. downsampeln für alte spiele ist das killer feature für alle grafikkartenkäufer, die sich solche karten kaufen.
Gibt genug Spiele, wo man auch mit nem Pitcairn XT VSR reinhauen könnte. Gerade jetzt im Moment wo einem in Steam Sales nicht mehr ganz taufrische Titel hinterhergeworfen werden könnte man das gut gebrauchen. Sollte AMD das benutzen um ihre 300er Reihe mit irgendwas sinnvollem zu promoten fände ich das ziemlich dreist...

Das hatten wir schon. AMD musste auf die Kostenbremse treten.
Das ist ein schwaches Argument. Wenn wir von dieser Situation ausgehen hätte AMD auch einfach alles beim Alten belassen können und hätte eben die 4GB Tonga und 8GB Hawaii einfach so gebracht. Diese alter Wein in neuen Schläuchen Aktion dürfte im Endeffekt nur Geld kosten und die Käufe durch den neuen Namen auch nicht wirklich erhöhen, da die 300er Reihe blitzschnell einen miesen Ruf haben wird. Man hätte einfach nur die Fury bringen sollen und gut ist...

Thunder99
2015-06-18, 13:49:11
Wird kommen, was nvidia mit Maxwell gemacht hat kommt auch von AMD. Sonst werden sie auch in Zukunft kaum Konkurrenzfähig.

foenfrisur
2015-06-18, 14:00:24
ich finde es nicht falsch, forschungsgelder lieber in die neue fertigung/architektur zu stecken, statt noch groß in 28nm zu investieren.
so dramatisch sehe ich das auch nicht.

ich denke lisa su muss am großen ruder noch einiges der vorgänger rumreißen.
sie tut amd sicherlich gut, weil nicht alles kaufmännisch/betriebswirtschaftlich hinterfragt und dann dem sparwahn verfällt.

mfg

N0Thing
2015-06-18, 14:00:32
Genau!

So wie bei der GTX 970 - fantastische Arbeit allerorten.

Besonders auf CB warte ich. Die werden meine Erwartungen bestimmt nicht enttäuschen. :D
@Ätznatron: Bei CB wäge ich immer ab ob ich ihnen den Klick gönne, nur um ein bisschen facepalmieren zu können. ;D


Gibt es nen konkreten Grund für die Hetze gegen Computerbase den ich verpasst habe? Facebook-Gewinnspiel von der Konkurrenz?

Die Beschränkung bei der GTX 970 war nicht offensichtlich, hat sich sich zum Release in Benchmarks nicht bemerkbar gemacht, wurde von Nvidia verschwiegen und hat Wochen gebraucht, bis in den Foren aus Verdacht eine Tatsache wurde.
Dass seriöse Medien daraus nicht direkt - wie es in Foren üblich ist - Schlagzeilen wie Betrug oder Abzocke machen, sondern vorsichtiger Formulieren, empfinde ich als normal. Die anschließend veröffentlichten Artikel haben gezeigt in welchen Szenarios Probleme entstehen können und dass der Sonderweg bei der GTX 970 in Zukunft zu Problemen führen kann, an den Ergebnissen der ursprünglichen Benchmarks aber auch nichts ändert.

Es wäre zwar schön gewesen, wenn auf das Thema schneller eingegangen worden wäre, aber deshalb den Redaktionen generell die Kompetenz abzusprechen halte ich für lächerlich.

Und deshalb mache ich mir keine Sorgen, dass bei einem Thema, wie den angeblich verbesserten Rebrands, das schon vorab Fragen aufwirft, genauer hingeschaut wird.

fondness
2015-06-18, 14:07:45
Immerhin:

Bei der Unterstützung des neuen HEVC-Standards beziehungsweise H.265 wird offiziell eine hardwarebeschleunigte Decodierung geboten. Damit zieht der Fiji-Chip mit der APU Carrizo gleich, diese bietet diese Funktion als erste AMD-Lösung seit einigen Wochen.

http://www.computerbase.de/2015-06/amd-fiji-details-radeon-r9-fury-x-fury-nano/2/

Effe
2015-06-18, 14:09:15
Sind heute eigentlich noch Reviews zu erwarten?
Hier ist eins: http://www.overclock3d.net/reviews/gpu_displays/msi_r9_390x_gaming_8g_review/1
Allerdings sind die Benchmarks teilweise sehr eigenartig und nichtssagend. Die Karte(MSI 390X Gaming 8GB) wird aber als "amazing" bezeichnet. :freak:

Sunrise
2015-06-18, 14:10:57
Das ist ein schwaches Argument. Wenn wir von dieser Situation ausgehen hätte AMD auch einfach alles beim Alten belassen können und hätte eben die 4GB Tonga und 8GB Hawaii einfach so gebracht.
Das ist ein sehr gutes Argument, wenn du die Lage von AMD berücksichtigst. Sie haben mit den Respins schnellere Karten für identische oder niedrigere TDP auf besserer Fertigung bei absolut minimalem Kostenaufwand. Das ist allemal besser als garkein vollständiges neues LineUp zu päsentieren mit uralten Karten und neuen Karten die preislich erst deutlich >$450 anfangen. Zusätzlich brauchte AMD etwas gegen die 970/980, die Ihnen von untenrum Marktanteile abgräbt. Eine alte 290X mit 8GB gibt es schon ewig, die neue ist aber schneller und kommt deutlich näher ran. Ebenso werden hier neue Karten bewertet und Hawaii war leider eine ziemlich schlechte Vorstellung, auch wenn der Chip in vielerlei Hinsicht wirklich gut ist.

Diese alter Wein in neuen Schläuchen Aktion dürfte im Endeffekt nur Geld kosten und die Käufe durch den neuen Namen auch nicht wirklich erhöhen, da die 300er Reihe blitzschnell einen miesen Ruf haben wird. Man hätte einfach nur die Fury bringen sollen und gut ist...
Siehe oben. Die Karten wurden ja teilweise verbessert. Das kannst du nicht als gleiche Linie fortführen, sowas willst du auch wieder (Geld) zurückbekommen. Du musst die Kosten wieder reinbringen, und die Ausgangssituation is besser mit besseren Karten (wenn auch teilweise rebanded) als mit uralten Karten, die teilweise einen schlechten Ruf hatten.

Dass die Preise vielleicht etwas niedriger sein könnten, das ist eine andere Geschichte. AMD hat aber einfach nichts mehr zu verschenken. Als Lisa die Zahlen gesehen hat, dann hat sie sich wohl an den Kopf gefasst. AMD muss aus dieser Spirale raus, möglichst mit wenig Aufwand.

Dural
2015-06-18, 14:13:12
Nur Fanboys kritisieren irgend welche Test Seiten, ich ignoriere dies immer.

Schon nur die ständigen Kritiken über Verbrauchs Messungen sind sehr lästig.
Den der Verbrauch einer Grafikkarte beeinflussen so viele Faktoren mit, das jede Testseite auch was anderes Messen muss: GPU Qualität, GPU Temperatur, Spannungswandler, Raum-Temperatur, Netzteil, Software, Messmethode... etc. haben alles einen Einfluss auf den Verbrauch.

Und ich gehe auch stark davon aus das Testseiten auch schon mal "gute" sprich ausgesuchte Test Sample bekommen haben...

foenfrisur
2015-06-18, 14:17:22
390x review
http://www.guru3d.com/articles_pages/msi_radeon_r9_390x_gaming_8g_oc_review,16.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35726-amd-radeon-r9-390x-390-und-380-im-test.html

sieht doch gar nicht mal soooo schlecht aus....
aber auch keine wunder^^

mfg

Kartenlehrling
2015-06-18, 14:25:22
CB teste mit 2 Handesübliche Gehäuse, diese sie damals sogar zu Wahl ausgeschrieben haben.
Verbauchsmessung sind sowieso eine Sache, seit ich mal einen Test gesehen habe wie man nur durch ein zu groß dimensioniertes Netzteil, eine Messung vollkommen verzehren kann.
Netzteile muss auch so klein wie möglich sein, das kann sich aber kein Tester wirklich leisten.

yamo
2015-06-18, 14:25:44
Das Lineup der Rebrands haut mich nich grad um, war aber zu erwarten.
Die 390 mit 8Gb ist ja für ~370€ ziemlich sexy und dürfte dem Speicherkrüppel GTX 970 gefährlich werden. Die Fury X überrascht in 4k, müßte aber deutlich unter der 980ti eingepreist werden, um DAU´s zum Kauf zu bewegen (just my 2 cents).
Große Hoffnung hege ich in die richtige Fury X2: 2 GPU´s über Interposer verlötet á 8GB HBM2.
Kein MGPU Gefrickel mehr, volle Power.

derF
2015-06-18, 14:25:46
Es wäre zwar schön gewesen, wenn auf das Thema schneller eingegangen worden wäre, aber deshalb den Redaktionen generell die Kompetenz abzusprechen halte ich für lächerlich.
Es war bei einigen Redaktionen deutlich die Angst vor nVidia-Repressalien (wie Apple es auch macht: keine Review-Samples etc.) zu spüren und ist es auch immer noch (vielleicht auch Fanboyism in den Redaktionen, aber das wäre noch schlimmer). Heise war mit gutem Gegenbeispiel vorangegangen. Weder innerhalb von einer Woche oder überhaupt jemals kam eine angemessene Stellungnahme bei CB.

Pick
2015-06-18, 14:29:07
http://forums.overclockers.co.uk/showpost.php?p=28185835&postcount=249 :D

(del676)
2015-06-18, 14:31:10
Das Guru3D Review zeigt schoen, wie wenig eine 8GB 290x gegenueber einer 4GB 290x in 4K bringt.
Zumindest in den gebenchten Spielen.

Ätznatron
2015-06-18, 14:31:18
Gibt es nen konkreten Grund für die Hetze gegen Computerbase den ich verpasst habe?


Was denn?

Jetzt ist es schon Hetze, wenn man davon ausgeht, die eigenen Erwartungen erfüllt zu sehen?

Aber um konkret zu werden: Von CB erwarte ich mir so ein richtig schön pseudo-seriös daherkommendes einseitiges AMD-Gebashe, mit allem drum und dran.

Mehr nicht.

r3ptil3
2015-06-18, 14:32:43
Computerbase meint, dass man in Kürze mit einem Review der Fury X rechnen kann. Das klingt nicht gerade nach 24.06 sondern eher früher.

ChaosTM
2015-06-18, 14:37:32
1200/6600mhz bei Luft und erträglicher Lärmkulisse ist nicht schlecht. Bei der 290er geht das nur mit Accelero o.ä.

Die 8Gb dürften derzeit wirklich noch nichts bringen - außer man benched in 2160p und 4x AA ;)

SchinkenSpicker
2015-06-18, 14:38:29
http://forums.overclockers.co.uk/showpost.php?p=28185835&postcount=249 :D

Was stand da?

Leonidas
2015-06-18, 14:38:35
http://forums.overclockers.co.uk/showpost.php?p=28185835&postcount=249 :D


Ist schon wieder gelöscht. Der Google-Cache sagt folgendes:



is that confirming no hdmi2.0?
can you make it clear so people dont go nuts over it



Sure.
Q: Does the AMD Radeon R9 Fury X GPU have HDMI 2.0?
A: No. AMD recommends and uses DisplayPort 1.2a for 4K60 content.

Nuke
2015-06-18, 14:38:50
edit:
danke, Leo

N0Thing
2015-06-18, 14:42:18
Es war bei einigen Redaktionen deutlich die Angst vor nVidia-Repressalien (wie Apple es auch macht: keine Review-Samples etc.) zu spüren und ist es auch immer noch (vielleicht auch Fanboyism in den Redaktionen, aber das wäre noch schlimmer). Heise war mit gutem Gegenbeispiel vorangegangen. Weder innerhalb von einer Woche oder überhaupt jemals kam eine angemessene Stellungnahme bei CB.

Gerade Computerbase hatte doch einen sehr eindeutigen Artikel dazu verfasst: http://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/

Klar, da fehlt der Gerüch von brennenden Fackeln und das Blitzen der polierten Mistgabeln, aber ein fundierter Artikel ist mir tatsächlich lieber, als eine etwas reißerische Schlagzeile, die Heise rausgehauen hat, ohne weitere Daten zu liefern.

Was denn?

Jetzt ist es schon Hetze, wenn man davon ausgeht, die eigenen Erwartungen erfüllt zu sehen?

Aber um konkret zu werden: Von CB erwarte ich mir so ein richtig schön pseudo-seriös daherkommendes einseitiges AMD-Gebashe, mit allem drum und dran.

Mehr nicht.

Ja, genau das nenne ich Hetze.


Ihr könnt natürlich lesen was ihr wollt und eure Meinung vertreten, einen Beleg für schlechte Arbeit seitens Computerbase habe ich von euch aber noch nicht gesehen. Von daher: Genug OT von meiner Seite aus. :)

Sunrise
2015-06-18, 14:44:25
Computerbase meint, dass man in Kürze mit einem Review der Fury X rechnen kann. Das klingt nicht gerade nach 24.06 sondern eher früher.
Das ist eine Interpretation. Ich würde anhand dessen einfach nur sagen, dass sie jetzt bereits die Karten erhalten haben und sie schon am testen sind, was optimal wäre (genug Zeit).

Im Grunde steht da aber nur, dass in Kürze eben der 24.06. ist. ;)

yamo
2015-06-18, 14:45:12
Das Guru3D Review zeigt schoen, wie wenig eine 8GB 290x gegenueber einer 4GB 290x in 4K bringt.
Zumindest in den gebenchten Spielen.

Sorry ohne den Test gelesen zu haben, sind da CF Reviews anbei?

fondness
2015-06-18, 14:54:45
AMD Benchs zur Fury X:

http://s14.postimg.org/c3w01bvhd/AMD_Radeon_R9_Fury_X_vs_GTX_980_Ti_4_K_886x900.png (http://postimage.org/)

http://videocardz.com/56711/amd-radeon-r9-fury-x-official-benchmarks-leaked

Käsetoast
2015-06-18, 14:56:32
Das ist ein sehr gutes Argument, wenn du die Lage von AMD berücksichtigst. Sie haben mit den Respins schnellere Karten für identische oder niedrigere TDP auf besserer Fertigung bei absolut minimalem Kostenaufwand. Das ist allemal besser als garkein vollständiges neues LineUp zu päsentieren mit uralten Karten und neuen Karten die preislich erst deutlich >$450 anfangen.
Dann nennt man die Karte halt 275 und gut ist. Hat's doch alles schon gegeben - teilweise wurden doch sogar komplett neue Fertigungsprozesse in bestehende Serien eingebaut wie etwa bei der 4770. AMD schießt sich hier meiner Meinung nach gewaltig ins Bein was das Ansehen beim Kunden angeht. Wem will man denn erklären, dass eine 270X schneller ist als eine 370 bzw. wie will man erklären, dass es keine 370 X mehr gibt (was an sich ja schon extrem merkwürdig ist, denn warum verkauft man plötzlich nur noch Pitcairn Pro)? Letzeres ist ja auch ein großer Kritikpunkt: Die große Lücke zwischen 370 und 380 die völlig unnötigerweise besteht, da es entsprechende Chips die die Lücke füllen ja schon "ewig" gibt...

Minimaler Kostenaufwand ist halt was anderes - jetzt muss man erstmal Geld in die Hand nehmen um die neue Serie zu promoten, die dann auch noch von den Kritikern zerrissen wird. Weiterhin wird man dann die alte Serie abverkaufen wollen und verliert da im Endeffekt nochmal Geld, obwohl es ja an sich nichts Neues gibt das die 200er Serie altbacken macht...

ChaosTM
2015-06-18, 14:57:09
Sorry ohne den Test gelesen zu haben, sind da CF Reviews anbei?

Bisher ist mir noch kein CF Review untergekommen.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/

Hübie
2015-06-18, 14:58:20
390x review
http://www.guru3d.com/articles_pages/msi_radeon_r9_390x_gaming_8g_oc_review,16.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35726-amd-radeon-r9-390x-390-und-380-im-test.html

sieht doch gar nicht mal soooo schlecht aus....
aber auch keine wunder^^

mfg

OMG. Die Tests sind ja mal wieder voll für die Tonne. Custom R390X vs Referenzdesign 290X. Da ists doch wahrscheinlich dass die 290X den Takt oft nicht hält und daher ein doch recht großer Vorsprung suggeriert wird. Über HWL rede ich gar nicht erst. Ich müsste hart suchen um noch schlechtere Tests zu finden.
Also wie immer: warten auf die Profis is angesagt (techreport, ht4u, anandtech, pcper, thg...).

edit: Also doch metal spin. Hatte ich auch vermutet, denn was anderes macht keinen Sinn.

foenfrisur
2015-06-18, 15:03:02
mal sehen, wann tests mit taktgleichheit kommen.

mfg

Hübie
2015-06-18, 15:06:29
Es würde reichen nach 10 Minuten aufwärmen den Test zu starten und den Takt in Klammern hinter dem Modell zu setzen (wenn man schon so miese und oberflächliche Tests abliefert...).

horn 12
2015-06-18, 15:08:45
NICHT Schlecht der Specht unter 4K
Jetzt noch geringerer Ramverbrauch als GTX 980TI und die Karte ist geritzt
Sollte sich wie geschnitten Brot verkaufen :-) :-)

foenfrisur
2015-06-18, 15:09:04
bei pcgh sind es auch noch so teilweise alte/schrottige spiele...tztztz

btw. kann ich auch nicht nachvollziehen, das ihr 15.15 catalyst nicht mit einer 290x ging.
bei mir funktioniert er problemlos ;)

mfg

Michalito
2015-06-18, 15:10:12
Beste Verbrauchsmessung im Netz..

http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836.html

dildo4u
2015-06-18, 15:13:38
Beste Verbrauchsmessung im Netz..

http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836.html...

Beginnen wir erneut mit der größten Karte und betrachten wiederum alle Rails. Die doch recht hoch ausgefallenen knapp 294 Watt liegen fast 50 Watt über dem, was wir für die faktisch gleich schnelle R9 290X mit Hybridkühler gemessen haben! Das sind nicht nur Welten, sondern schon ein kleineres AMD-Universum.

Troyan
2015-06-18, 15:13:43
300W im Schnitt bei fast 500W in den Peaks. Das ist wirklich nicht schlecht...

derF
2015-06-18, 15:14:40
Hm ja, dass es keinen "gleichen" Treiber für die 300er und 200er gibt ist ziemlich sinnlos was ordentliche Vergleiche betrifft.

CB-Offtopic:
Gerade Computerbase hatte doch einen sehr eindeutigen Artikel dazu verfasst: http://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/
Und was in dem Artikel sollte nVidia davon abhalten, weiterhin Dinge zu verschweigen oder zu beschönigen? Da steht nur: die Grafikkarte ist immer noch gut. Nicht ein Wort bzgl. dieser scheinbar vorbildlichen Firmenpolitik.

Michalito
2015-06-18, 15:18:34
......

Da sieht man doch sehr deutlich was bei Amd mit Wasserkühlung geht.. Gilt auch
für 390X..


CB... wird nicht mehr angeklickt. Sachverstand ist vorhanden, aber auschließlich genutz um Hersteller A gegnüber B schlecht aussehen zu lassen.

Die sollten daraus eine e.V. Fanclubbase Blau Grün machen, das wäre ehrlich.

ChaosTM
2015-06-18, 15:23:18
Beste Verbrauchsmessung im Netz..

http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836.html

Das Karte läuft mit 1100/1550. da wirds bei Hawaii schön sehr teuer.. und warm

HOT
2015-06-18, 15:25:07
Beste Verbrauchsmessung im Netz..

http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836.html
Mag ja sein, aber die ganzen Tabellen muss wieder berühmte Praktikant gemacht haben, der schon bei AMD die Folien oft verbrochen hat :freak: da ist ja fast nix richtig...

Shaft
2015-06-18, 15:31:20
Mit der 300er Serie hat sich AMD und den Kunden kein gefallen getan.

Ob das gut geht?

Michalito
2015-06-18, 15:32:31
Mag ja sein, aber die ganzen Tabellen muss wieder berühmte Praktikant gemacht haben, der schon bei AMD die Folien oft verbrochen hat :freak: da ist ja fast nix richtig...

LOL, immer so bei THG.. wird dann im laufe des Tages gefixt..

OBrian
2015-06-18, 15:33:35
da stimmt wohl nur die Bezeichung oben nicht (soll offensichtlich keine 370X sondern 390X sein), der Rest schon (so ziemlich).

soLofox
2015-06-18, 15:34:10
Mit der 300er Serie hat sich AMD und den Kunden kein gefallen getan.

Ob das gut geht?

nein, AMD steht jetzt am abgrund und die 300er serie wird sie in die tiefe stürzen lassen. AMD ist so gut wie weg vom fenster, das war's dann. schade, aber wer so blöd ist.



:facepalm:


wartet endlich auf die tests und benchmarks.

OBrian
2015-06-18, 15:41:13
AMD sollte einfach aufhören, neue Codenamen zu benutzen, da stellen sich die Leute dann wieder sonstwas drunter vor.

Shaft
2015-06-18, 15:42:10
nein, AMD steht jetzt am abgrund und die 300er serie wird sie in die tiefe stürzen lassen. AMD ist so gut wie weg vom fenster, das war's dann. schade, aber wer so blöd ist.



:facepalm:


wartet endlich auf die tests und benchmarks.


Tests und Benchmarks sind schon da, lesen hilft. ;)

Findet man auf den letzten zwei Seiten.

Edit: Bezog mich auf einen anderen Thread. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564419&page=3)

AMD sollte einfach aufhören, neue Codenamen zu benutzen, da stellen sich die Leute dann wieder sonstwas drunter vor.

Ich sage wie ich es gern gesehen hätte, Fury hätte Hawaii ablösen sollen.

In den gehirnen bleib vorab schon bei vielen Rebrand und TDP hängen, das wird sich auch nicht bessern denke ich.

Edit 2: Und ich muss sagen, Verbrauch spielt bei mir auch eine Rolle.

dildo4u
2015-06-18, 15:42:12
AMD Benchs zur Fury X:

http://s14.postimg.org/c3w01bvhd/AMD_Radeon_R9_Fury_X_vs_GTX_980_Ti_4_K_886x900.png (http://postimage.org/)

http://videocardz.com/56711/amd-radeon-r9-fury-x-official-benchmarks-leaked
Die beiden Games die viel Vram wollen sind nahe beisammen bin auf Frametime Test gespannt.

Noebbie
2015-06-18, 15:46:15
Ich bin nachträglich überrascht wie gut "so alte Karten" (290 und 390) ggnü der neuen 980 von nVidia stehen. Wenn Fury da noch reinhaut, passt alles.

Meine 290X werde ich wohl noch eine Weile behalten. Die Grünen haben auch nicht viel besseres.

Troyan
2015-06-18, 15:47:24
Computerbase hat die Trix von Sapphire:
http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistungsaufnahme

Das sind locker 300W. Die Trix ist 3% schneller als 290X-OC.

Shaft
2015-06-18, 15:50:46
Computerbase hat die Trix von Sapphire:
http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistungsaufnahme

Das sind locker 300W. Die Trix ist 3% schneller als 290X-OC.


Tja, hätte gedacht das AMD den Verbrauch etwas senkt, viel wäre da auch nicht zu erwarten gewesen.

Aber das der Verbrauch nochmal angehoben wurde, ist nicht schön zu sehen

Sunrise
2015-06-18, 15:52:28
OMG. Die Tests sind ja mal wieder voll für die Tonne. Custom R390X vs Referenzdesign 290X. Da ists doch wahrscheinlich dass die 290X den Takt oft nicht hält und daher ein doch recht großer Vorsprung suggeriert wird. Über HWL rede ich gar nicht erst. Ich müsste hart suchen um noch schlechtere Tests zu finden.
Also wie immer: warten auf die Profis is angesagt (techreport, ht4u, anandtech, pcper, thg...).

edit: Also doch metal spin. Hatte ich auch vermutet, denn was anderes macht keinen Sinn.
Die Bildzeitungen kommen wie immer zuerst, muss ja Klicks generieren. Die von dir aufgezählten sind auch die ersten Anlaufstellen von mir.

mironicus
2015-06-18, 15:53:06
Ich hatte ja eigentlich vor, für meinen brandneuen 4K Curved UHD-Fernseher eine Fury XT in meinen Gaming-HTPC einzubauen.

Leider, leider hat mein Fernseher kein DISPLAYPORT, sondern nur HDMI 2.0... :frown:

-/\-CruNcher-/\-
2015-06-18, 15:55:01
Erzähl keine Märchen.


Wieder Blödsinn! Der zusätzliche Workerthread ist schon ewig seit V1.6 drin. Der hat rein gar nichts gebracht im Vergleich zur V1.5 was Fluktuationen angeht. Und seit dem 347.09 hat sich auch nichts am Streaming in WD verändert.

Dann seh ich hier wohl in Echtzeit eine Fatamorgana bei 30 fps ;)

Musst mir ja nicht glauben das bleibt dir überlassen es gibt keine größeren Aussetzer vielleicht meinen wir unterschiedliche dinge, die leute haben sich über Intervalartige Microruckler beim Fahren mit Ultra textures beschwert die habe ich jedenfalls seit diesen Verbesserungen nicht mehr und der Worker Thread trägt sehr wohl dazu bei ;)

So flüssig wie z.b Grid Autosport ist es natürlich bei weitem noch nicht ;)

tm0975
2015-06-18, 15:55:14
nein, AMD steht jetzt am abgrund und die 300er serie wird sie in die tiefe stürzen lassen. AMD ist so gut wie weg vom fenster, das war's dann. schade, aber wer so blöd ist.

hauptsache, sie bauen mir vorher noch eine nano. mir würde auch ein ES der nano in 14 nm reichen... für meine zbox ;D;D;D

ilibilly
2015-06-18, 16:02:42
Ich hatte ja eigentlich vor, für meinen brandneuen 4K Curved UHD-Fernseher eine Fury XT in meinen Gaming-HTPC einzubauen.

Leider, leider hat mein Fernseher kein DISPLAYPORT, sondern nur HDMI 2.0... :frown:

Ja bei mir dasselbe Problem ,dennoch bleibt die Hoffnung das die Nano zumindest 2.0 hat,sonst wär söhne kleine Karte fürs Wohnzimmer ein fehlkonstrukt.
Anderseits dürfte durch die super Performance der fury x die 980ti unter Druck geraten und die Preise <600 gehen.
Ich verstehs echt nicht ,seit 970/980 bietet ne 2.0 an aber Amd interessiert das nicht.
Kostenfaktor bei einer highendgpu dürfte keine Rolle spielen.

Dural
2015-06-18, 16:03:52
300Watt+ ich hab es ja gesagt ;)

Edit:
AMD ist ja voll der Cheater, einen neuer Treiber bringen der "Ausversehen" nur auf der 300 Serie läuft :freak::freak::freak:

aufkrawall
2015-06-18, 16:06:35
Ich auch. ;)
Wer etwas anderes behauptete, hatte einfach noch keinen Hawaii in den Fingern...

Troyan
2015-06-18, 16:13:39
Lustig, PCWorld spoilert viel mehr als die anderen Seiten:
http://www.pcworld.com/article/2937335/behold-the-beast-full-amd-radeon-r9-fury-x-tech-specs-and-design-details-revealed.html

Das OC-Ergebnis ist, äh, komisch?
100MHz wären eine 9% Übertaktung von 1050MHz. Ankommen tun nur 4-6%.
Und wenn 100MHz schon von AMD angegeben werden...

mironicus
2015-06-18, 16:13:58
Der neue Treiber beschleunigt Assassin's Creed Unity um 20%!
AMD hat also wirklich die Treiber für die Spiele optimiert, damit Fury X in den Benchmarkparkours die Titan schlagen kann... ^^

Hübie
2015-06-18, 16:16:16
Ich hatte ja eigentlich vor, für meinen brandneuen 4K Curved UHD-Fernseher eine Fury XT in meinen Gaming-HTPC einzubauen.

Leider, leider hat mein Fernseher kein DISPLAYPORT, sondern nur HDMI 2.0... :frown:

Falschen Fernseher gekauft :biggrin:

300Watt+ ich hab es ja gesagt ;)

Edit:
AMD ist ja voll der Cheater, einen neuer Treiber bringen der "Ausversehen" nur auf der 300 Serie läuft :freak::freak::freak:

foenfrisur hat den mit seiner R9 290X am laufen :P

-/\-CruNcher-/\-
2015-06-18, 16:23:38
Der neue Treiber beschleunigt Assassin's Creed Unity um 20%!
AMD hat also wirklich die Treiber für die Spiele optimiert, damit Fury X in den Benchmarkparkours die Titan schlagen kann... ^^

Wer auf solche Balkenspielerein einen Furz gibt ist selber Schuld egal ob bei Nvidia oder AMD ;)

HOT
2015-06-18, 16:25:32
Ich bin nachträglich überrascht wie gut "so alte Karten" (290 und 390) ggnü der neuen 980 von nVidia stehen. Wenn Fury da noch reinhaut, passt alles.

Meine 290X werde ich wohl noch eine Weile behalten. Die Grünen haben auch nicht viel besseres.
Ist der neue Omega Treiber, der da so reinhaut. Der bringt vor allem neueren Games teilweise erheblich mehr.
Zudem gibts ja endlich die CPU-Optimierung.

dildo4u
2015-06-18, 16:35:29
Zudem gibts ja endlich die CPU-Optimierung.
Nicht allgemein Watch_Dogs läuft immer noch total schlecht,das Game ist extrem CPU limitiert.

http://abload.de/img/watchdogs0dydk.png

mironicus
2015-06-18, 16:38:36
Was ist eigentlich mit Computerbase los? Kein Project Cars in den Benchmarklisten? Kein Witcher 3 mit Hairworx? Hat AMD euch mit einer Unterlassungsklage gedroht, wenn ihr das testet? :D

maguumo
2015-06-18, 16:48:33
Nicht allgemein Watch_Dogs läuft immer noch total schlecht,das Game ist extrem CPU limitiert.

http://abload.de/img/watchdogs0dydk.png

Wenn das Spiel wirklich extrem CPU limitiert ist sieht es in diesem Benchmark aber nicht so aus als ob der Nvidia Treiber da noch deutliche Vorteile beim Overhead hat, die 970 ist recht knapp vorne...

dildo4u
2015-06-18, 16:50:12
Wenn das Spiel wirklich extrem CPU limitiert ist sieht es in diesem Benchmark aber nicht so aus als ob der Nvidia Treiber da noch deutliche Vorteile beim Overhead hat, die 970 ist recht knapp vorne...
Die 390X ist im Schnitt deutlich vor der 970 nich dahinter.

http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistung

Sollte sie auch sein da die Custom Karten 450€ kosten,Custom 970 um 350.

https://geizhals.de/?cat=gra16_512&xf=132_4096~1440_R9+390X#xf_top

https://geizhals.de/?cat=gra16_512&asuch=&bpmax=&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&plz=&dist=&bl1_id=30&sort=p&xf=132_4096~1439_GTX+970

maguumo
2015-06-18, 16:56:11
Die 390X ist im Schnitt deutlich vor der 970 nich dahinter.

http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistung

Mag sein, aber die üblichen Schwankungen gibt es ja trotzdem. Wenn ich die ersten Watch Dogs Tests von pcgh richtig in Erinnerung habe lag dort die 970 ebenfalls vorne, und da wurde mit einer vernünftigen 290X getestet...

Wenn die Szene aus dem neuen Benchmark wirklich derart am CPU Limit rumschrammt würde ich dort jedenfalls keinen höheren CPU overhead als Ursache vermuten... Und wenn es doch genau daran liegen sollte ist die Differenz wohl kleiner geworden, ich hätte gedacht das Nvidias Treibervorteil da größer war...

Das sollte vielleicht nochmal mit mehr als einem Spiel durch getestet werden, wäre ganz interessant.

EDIT: Die Preise sollten aber schon noch fallen, oder? 100 tacken mehr als für eine 970 ist happig...

derguru
2015-06-18, 16:59:07
die 100 tacken sind alleine die 8gb wert gegenüber der 970 mit ihren 3,5gb.

y33H@
2015-06-18, 16:59:20
Lustig, PCWorld spoilert viel mehr als die anderen Seiten.Aus dem Reviewer's Guide der Fury X Infos zu zeigen ist ein wenig zu früh ...

dildo4u
2015-06-18, 17:00:21
EDIT: Die Preise sollten aber schon noch fallen, oder? 100 tacken mehr als für eine 970 ist happig...
Vermutlich nich die 390 ist der 970 Gegenspieler.


https://geizhals.de/?cat=gra16_512&xf=1440_R9+390~132_4096#xf_top

Menace
2015-06-18, 17:07:48
Wie wirkt sich folgendes mit anderen Karten der 3XX-Serie aus:

https://cms-images.idgesg.net/images/article/2015/06/amd-radeon-fury-x-frame-rate-limit-100592122-orig.png

http://www.pcworld.com/article/2937335/behold-the-beast-full-amd-radeon-r9-fury-x-tech-specs-and-design-details-revealed.html

Das ist für mich das interessante feature oder übersehe ich einen Nachteil. :confused:

Gimmick
2015-06-18, 17:09:29
Gibts irgendwo Mantle benchmarks? Mich würde mal interessieren was passiert wenn das Spiel nicht auf die neuen Karte angepasst wird.
Bei der 390X evtl. noch nicht soo spannend, aber bei der Fury dann :D

Troyan
2015-06-18, 17:09:42
Hat y33H@ im Review-Thread gepostet.

Ansonsten finde ich es amüsant ein Feature hervorzuheben, dass nVidia schon bei Kepler mit den selben Argumenten eingeführt hat - und keinem hat es eine Woche nach dem Launch noch interessiert. :lol:

y33H@
2015-06-18, 17:09:55
@ Menace

Ähnlich, weniger fps (zB auch Vsync) als die Karte rendern könnte, reduziert die Leistungsaufnahme und damit idR die Lautheit.

Die Idee ist uralt, gab früher sogar mal ein eigenes Frame Limiter Tool zu D3D9 (?) Zeiten.

dildo4u
2015-06-18, 17:11:36
Wie wirkt sich folgendes mit anderen Karten der 3XX-Serie aus:

https://cms-images.idgesg.net/images/article/2015/06/amd-radeon-fury-x-frame-rate-limit-100592122-orig.png

http://www.pcworld.com/article/2937335/behold-the-beast-full-amd-radeon-r9-fury-x-tech-specs-and-design-details-revealed.html

Das ist für mich das interessante feature oder übersehe ich einen Nachteil. :confused:

Das ist ne Software Lösung das kannste mit jeder Karte seit Jahren z.b mit dem MSI Afterburner nutzen.

ChaosTM
2015-06-18, 17:13:02
Wie wirkt sich folgendes mit anderen Karten der 3XX-Serie aus:

https://cms-images.idgesg.net/images/article/2015/06/amd-radeon-fury-x-frame-rate-limit-100592122-orig.png

http://www.pcworld.com/article/2937335/behold-the-beast-full-amd-radeon-r9-fury-x-tech-specs-and-design-details-revealed.html

Das ist für mich das interessante feature oder übersehe ich einen Nachteil. :confused:

Das bringt wirklich enorm viel. Momentan mache ich das mit dem Nachbrenner + Rivatuner

Grestorn
2015-06-18, 17:15:01
Hat die 290 auch die Vorteile durch den Treiber mitbekommen? Und ist das in den Benchmarks berücksichtigt, d.h. kommt der Vorsprung der 390x zur 290x nur durch den leicht höheren Core Takt und höheren VRAM-Takt?

mironicus
2015-06-18, 17:16:17
Aus dem Reviewer's Guide der Fury X Infos zu zeigen ist ein wenig zu früh ...

Natürlich dumm, wenn man sich an die Regeln hält. Bis zum Wochenende rechne ich mit komplett geleakten Tests. Bis das NDA fällt dürften wir bereits alles wissen, was uns interessiert und auf Basis der Informationen, die wir den freundlichen Leakern zu verdanken haben, weitere Diskussionen führen. :freak:

Menace
2015-06-18, 17:16:44
Ich danke allen, für die Aufklärung. Dass man das schon länger machen kann ist mir entgangen. Wie häufig man es nutzt liegt wohl auch daran, wie einfach die Ausführung ist. Kann man das jetzt beim Catalyst für alle Spiele setzen und alle Anwendungen setzen oder muss man das händisch Session für Session neu aktivieren?

reaperrr
2015-06-18, 17:18:56
Übrigens, beim durchstöbern von geizhals.de ist mir eine mögliche Erklärung für das Fehlen von 360X, 370X und 380X aufgefallen: AMD hat wahrscheinlich einfach zuerst die Karten rausgebracht, deren direkter Vorläufer im Abverkauf schon wesentlich weiter waren.

Beispiele:
Listungen 260: null(!)
Listungen 260X: 21
Listungen 265: 8
Listungen 270: 13
Listungen 270X: 35
Listungen 280: 13
Listungen 280X: 26

Und bei den 390ern ging es, weil es von der 290X nur 7 und der 290 gar keine Modelle mit 8GB gibt.

Jede Wette, dass AMD und seine Boardpartner schon längst keine 260X und 270X mehr herstellen (280X sowieso nicht, das sind Überbleibsel der bitcoin-Blase), und die fehlenden 300er X-Modelle kommen, sobald die Händler den Großteil der aktuellen Bestände an 2**X losgeworden sind.
Vielleicht zusammen mit der Nano im August/September.

dildo4u
2015-06-18, 17:19:16
Hat die 290 auch die Vorteile durch den Treiber mitbekommen? Und ist das in den Benchmarks berücksichtigt, d.h. kommt der Vorsprung der 390x zur 290x nur durch den leicht höheren Core Takt und höheren VRAM-Takt?
Nein der neue Treiber geht mit der 200 Serie nicht.

Eine wichtige Information vorab: Der neue Catalyst 15.15 Beta funktioniert nur mit den Karten der 300er-Generation. Wir können daher bisher nicht überprüfen, ob AMD eventuell ein wenig schummelt und der neue Treiber Optimierungen enthält, die dem bisher aktuellen Catalyst 15.5 Beta fehlen. Unsere Messwerte implizieren, dass genau das der Fall ist - Gewissheit dürfte erst der Catalyst 15.20 Beta bringen, dieser soll alle Karten unterstützen

http://www.golem.de/news/radeon-r9-390-im-test-amds-neue-alte-grafikkarten-bekommen-einen-nitro-boost-1506-114750-2.html

N0Thing
2015-06-18, 17:21:55
Hat die 290 auch die Vorteile durch den Treiber mitbekommen? Und ist das in den Benchmarks berücksichtigt, d.h. kommt der Vorsprung der 390x zur 290x nur durch den leicht höheren Core Takt und höheren VRAM-Takt?

Der neue Treiber 15.15 läuft nur mit den 300er Karten, die 200er werden mit dem 15.5 gemessen. Ist also recht wahrscheinlich, dass alle Verbesserungen die über Taktsteigerungen hinaus gehen, dem neueren Treiber zu verdanken sind.

Unicous
2015-06-18, 17:22:03
EDIT: Die Preise sollten aber schon noch fallen, oder? 100 tacken mehr als für eine 970 ist happig...

Hey, wenn dir Hundert Tacken für Speicherverdoppelung zu hoch sind, dann hol dir doch ne Titan X...oh, wait.

mironicus
2015-06-18, 17:22:48
Vielleicht helfen ein paar veränderte .ini-Einträge, damit der Treiber auf den alten Karten läuft.

AMD ist gar nicht mal so unklug den Treiber zu locken - somit ermöglicht man sich einen noch größeren Abstand zu den alten Karten. Auch andere Features wie der Frame Limiter sind softwareseitig gelockt bis es dann einige Wochen später für alle Karten freigeschaltet wird.

Grestorn
2015-06-18, 17:25:58
Hey, wenn dir Hundert Tacken für Speicherverdoppelung zu hoch sind, dann hol dir doch ne Titan X...oh, wait.

100€ für 4 GB Speicher mehr vs. 200€ für 6 GB Speicher mehr. So schlecht ist der Vergleich gar nicht.

Aber ohne Zweifel ist die Titan X überproportional teuer, bestreitet niemand. Gesetz des fallenden Grenzertrags bei immer höheren Kosten. Nichts neues und kein Grund sich darüber aufzuregen.

maguumo
2015-06-18, 17:26:23
Hey, wenn dir Hundert Tacken für Speicherverdoppelung zu hoch sind, dann hol dir doch ne Titan X...oh, wait.

Nicht das das besser wäre, aber die 8GB (bzw. mehr als 4) halte ich in dieser Performanceklasse für unnötig/einen Marketingstunt. Und CF/SLI mit der neuen gehobenen Mittelklasse macht auch keiner mehr freiwillig, da geht man eher auf GM 200/Fiji...

Also mir fällts schwer das zu rechtfertigen, da wäre man mit 4GB und niedrigerem Preis vermutlich besser aufgestellt

raffa
2015-06-18, 17:28:57
schon gesehen?

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Fury-X-Nano-Preise-Spezifikationen-Uebersicht-1162094/#a5

offizielle AMD Benchmarks FuryX gegen 980ti in 4k

Kartenlehrling
2015-06-18, 17:29:24
Nein der neue Treiber geht mit der 200 Serie nicht.



Ob jetzt die Schuld bei AMD oder der unflexible Presse ist weiss ich nicht, aber mit einem kleinen Gegentest mit dem win10 treiber wär das Problem gelöst.
Seit fast 2 wochen gibts es doch diesen Win10-patch treiber die sogar höheren DLL bieten als der 15.15

Sunrise
2015-06-18, 17:34:29
schon gesehen?

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Fury-X-Nano-Preise-Spezifikationen-Uebersicht-1162094/#a5

offizielle AMD Benchmarks FuryX gegen 980ti in 4k
Shadow of Mordor 4K mit 100% SSAA und 0xAF (wieso bitte 0xAF?!?!?) schneller als die 980 Ti.

ChaosTM
2015-06-18, 17:35:08
schon gesehen?

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Fury-X-Nano-Preise-Spezifikationen-Uebersicht-1162094/#a5

offizielle AMD Benchmarks FuryX gegen 980ti in 4k

Bei Unity wurde lt. der Tabelle nur Medium Preset gewählt.
Und Crysis nur Very High - das sind die Kandidaten, wo 4 eben knapp werden.. andererseits läuft Mordor auf Ultra?!

Pick
2015-06-18, 17:35:16
http://abload.de/img/watchdogs0dydk.png

R9 390X vs 970 Overclocked (OC) :D

mironicus
2015-06-18, 17:36:00
Wahrscheinlich perfekt eingestellte Settings für die Fury X. :)

tm0975
2015-06-18, 17:36:27
Der neue Treiber beschleunigt Assassin's Creed Unity um 20%!
AMD hat also wirklich die Treiber für die Spiele optimiert, damit Fury X in den Benchmarkparkours die Titan schlagen kann... ^^

willst du damit sagen, dass Fury gleichwertig ist oder dass nvidia leistung zurückhält aufgrund mangelnder treiber?

Unicous
2015-06-18, 17:37:19
@Grestorn

Wer regt sich denn darüber auf? HABE ICH ALL CAPS GESCHRIEBEN? Ist mir gar nicht aufgefallen.

Ich wollte das nur in Relation setzen. Ich weiß aber nicht wie du auf 200 Euro kommst (Ti -> Ti X etwas mehr als 300 Euro, jeweils günstigste Karte, 970 -> Ti ca. 370 Euro).

100€:4=25 Euro pro GB

300€:6=50 Euro pro GB

crux2005
2015-06-18, 17:37:58
Aus dem Reviewer's Guide der Fury X Infos zu zeigen ist ein wenig zu früh ...

Finde ich nicht. Eigentlich viel zu spät. ;)

Sunrise
2015-06-18, 17:38:07
Wahrscheinlich perfekt eingestellte Settings für die Fury X. :)
War das auf mich bezogen?

AF ist vor allem bandbreitenintensiv, da hat die Fury X mehr als genug. Ich kapiere vor allem diese Einstellung nicht.

Wer bitte spielt denn mit AF aus bei einer High-End-Karte?

dildo4u
2015-06-18, 17:40:12
Bei Unity wurde lt. der Tabelle nur Medium Preset gewählt.
Und Crysis nur Very High - das sind die Kandidaten, wo 4 eben knapp werden..
Diese Karten sind nich 4k tauglich bei modernen Game ist nix Neues da müssen sie Details reduzieren.

Thunder99
2015-06-18, 17:43:27
schon gesehen?

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Fury-X-Nano-Preise-Spezifikationen-Uebersicht-1162094/#a5

offizielle AMD Benchmarks FuryX gegen 980ti in 4k
AC:U... mir scheint die Settings wurden so gewählt damit der Speicher noch langt :frown:... aber ansonsten könnte es +/- knapp ausgehen gegen die TX und meistens vorne, wenn der Speicher nicht ausgeht, vor der 980Ti

mironicus
2015-06-18, 17:43:31
Wer bitte spielt denn mit AF aus bei einer High-End-Karte?

Jemand, der keine Ahnung hat von dem, was er tut. ;D

aufkrawall
2015-06-18, 17:43:38
Very high ist bei Crysis 3 das Maximum.

reaperrr
2015-06-18, 17:44:56
AF ist vor allem bandbreitenintensiv, da hat die Fury X mehr als genug. Ich kapiere vor allem diese Einstellung nicht.

Wer bitte spielt denn mit AF aus bei einer High-End-Karte?

Shadow of Mordor 4K mit 100% SSAA und 0xAF (wieso bitte 0xAF?!?!?) schneller als die 980 Ti.

Sämtliche AMD-Architekturen seit Beginn der DX11-Ära (also den 5000ern) brechen gerade be 16xAF deutlich stärker ein als alles, was Nvidia auffährt, selbst bei höherer TMU-Zahl. Liegt meiner Einschätzung nach an AMD's (Fehl-)Entscheidung, statt wie noch bei den 4000ern (und wie NV nach wie vor) dedizierte Textur-Sampler zu verbauen, deren Aufgaben von den ALUs übernehmen zu lassen.

ChaosTM
2015-06-18, 17:51:54
Very high ist bei Crysis 3 das Maximum.

Du hast recht. Dann ging bei mir nur High, bevor die Framerate völlig einbrach, was aber nicht unbedingt am Speicher liegen muss..

mczak
2015-06-18, 17:58:08
Sämtliche AMD-Architekturen seit Beginn der DX11-Ära (also den 5000ern) brechen gerade be 16xAF deutlich stärker ein als alles, was Nvidia auffährt, selbst bei höherer TMU-Zahl. Liegt meiner Einschätzung nach an AMD's (Fehl-)Entscheidung, statt wie noch bei den 4000ern (und wie NV nach wie vor) dedizierte Textur-Sampler zu verbauen, deren Aufgaben von den ALUs übernehmen zu lassen.
Erzähl doch keinen Unsinn. AMD hat ganz normale Sampler, die unterscheiden sich nicht gross von denen von nvidia. Ok es gibt ein paar Unterschiede, der grösste sichtabre davon ist wohl die Fullspeed-fp16 Filterung bei nvidia was amd (ausgenommen Fury - da habe ich keine Ahnung ob das noch so ist) nur mit halfspeed hinkriegt.
Ausserdem wer erzählt denn da den Quatsch dass AF Bandbreite verschlingt. AF braucht sehr wenig extra Speicherbandbreite, das ist extrem cache-friendly.
Und dass das sonderlich viel mehr Geschwindigkeit kostet bei AMD wäre mir auch total neu. Gut bei Kepler war das wohl etwas billiger, die haben auch exzessive Anzahl an TMUs (mit Ausnahme von gk208). So oder so hält sich aber die Performanceeinbusse meist im Rahmen (liegt natürlich auch daran dass man die extra-samples nur braucht wenn die Texturen verzerrt dargestellt werden).

BlacKi
2015-06-18, 18:01:21
toller satz:

"Die anliegenden Spannungen sind also im Mittel völlig identisch, was eine Verbesserung von Grenada XT im Vergleich zu Hawaii XT faktisch ausschließt."


http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-11.html

ChaosTM
2015-06-18, 18:02:50
toller satz:

"Die anliegenden Spannungen sind also im Mittel völlig identisch, was eine Verbesserung von Grenada XT im Vergleich zu Hawaii XT faktisch ausschließt."


http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-11.html

Gut, dann sollten die Treiberverbesserungen 1:1 bei der 290er ankommen..

Thunder99
2015-06-18, 18:04:39
Speicher anstatt 1,5xV nur noch 1,35V, auch eine nette Einsparung :)
Falscher Thread... :usad:

24. wird ein heißer Tag wenn die Fury X Benches erscheinen

aufkrawall
2015-06-18, 18:08:18
toller satz:

"Die anliegenden Spannungen sind also im Mittel völlig identisch, was eine Verbesserung von Grenada XT im Vergleich zu Hawaii XT faktisch ausschließt."


http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-11.html
Sonst hätte man einfach zu viele Chips aussortieren müssen, Hawaii mit DP/512 Bit braucht diese Spannungen einfach für Taktraten > 1Ghz.

Troyan
2015-06-18, 18:15:21
Shadow of Mordor 4K mit 100% SSAA und 0xAF (wieso bitte 0xAF?!?!?) schneller als die 980 Ti.

In Battlefield 4 hat man ohne Mantle verglichen. In Sniper Elite 3 ist es dagegen an.

Okay, das finde ich jetzt wirklich lustig. ;D

/edit: Zeigt auch, wieso lächerlich die Veranstaltung mit den 4K und 5K Aussagen war. Ich habe gestern mal spaßes halber die Szene in Tomb Raider in 4K nachgestellt. Meine auf 1485Mhz übertaktete GTX980TI kam auf 52 FPS mit allen Effekten ohne SSAA. 60FPS my Ass - dann wäre Fury X im Ultra-Speed Modus 80% schneller oder so.

Sieht man jetzt die Settings-Tabelle, dann hat man echt dreist gelogen...

Loeschzwerg
2015-06-18, 18:28:14
http://abload.de/thumb/amd_r9_fury_x_fiji_auhyug2.jpg (http://abload.de/image.php?img=amd_r9_fury_x_fiji_auhyug2.jpg)

Die komplette Fläche mit "Balls" genutzt :D

Edit: "No deeplinking" am Arsch!!! Gibt es halt nen Link zu einem Bilderhoster :D

Dawn on Titan
2015-06-18, 18:30:16
Shadow of Mordor 4K mit 100% SSAA und 0xAF (wieso bitte 0xAF?!?!?) schneller als die 980 Ti.

Sowieso extrem auffällig, dass man in jedem Spiel wo die 980ti nah dabei ist AF ausmacht.
Wobei mir bei Fury immer mehr unwohl wird. Wenn ich mir so den R3X0 Launch ansehe, die alten R2X0 Folien betrachte, dann auf die Fury Folien achte, den BIOS Switch sehe und bedenke dass auch bei der 290X AMD damals den Stromverbrauch für Quite-Mode und die FPS für Ueber-Mode angegeben hat...... und wenn ich mir dann die 400A Leistungsaufnahme und 375W mögliche Boardpower ansehe...

maguumo
2015-06-18, 18:37:46
http://www.pcgameshardware.de/screenshots/original/2015/06/AMD_R9_Fury_X_Fiji_Aufmacher_03-pcgh.jpg

Die komplette Fläche mit "Balls" genutzt :D
Heißt soweit ich weiß nicht so viel weil da auch Dummys bei sein können einfach um die Verbindung stabiler zu machen.

y33H@
2015-06-18, 18:46:23
War das unter NDA, ist es noch, wird es wieder sein? :usad:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html

Troyan
2015-06-18, 18:48:16
Dann lass mich weiter machen:
Laut Anandtech gibt es nur 1/16 DP mit Fury im Consumer-Markt: http://www.anandtech.com/show/9387/amd-radeon-300-series

/edit: Gleiche Verhältnis wie Tonga.

dildo4u
2015-06-18, 18:52:07
Fury X und 390X.

http://abload.de/img/390x_sizef9kmj.jpg

Loeschzwerg
2015-06-18, 18:53:10
Heißt soweit ich weiß nicht so viel weil da auch Dummys bei sein können einfach um die Verbindung stabiler zu machen.

"Dummys" bzw. Balls für Masse und Hitzeabfuhr sind nix neues, ich fand eher das gleichmäßige Pinout witzig, verglichen zu anderen GPUs :)

crux2005
2015-06-18, 18:54:05
War das unter NDA, ist es noch, wird es wieder sein? :usad:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html

uPissed? ;D

y33H@
2015-06-18, 18:55:13
/edit: Gleiche Verhältnis wie Tonga.Wie überraschend :cool:

uPissed?Ja, weil zu wenig Zeit.

Botcruscher
2015-06-18, 18:58:27
Ja, weil zu wenig Zeit.
Dann am nicht im 3dc spammen...:biggrin:

Hübie
2015-06-18, 18:58:45
War das unter NDA, ist es noch, wird es wieder sein? :usad:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html

:biggrin::freak: Die Angaben sind der burner! 100 mm, 750 mm etc ;D AMD is sooo geil :D Hahahaaaa.... ich kann nich mehr ;D

y33H@
2015-06-18, 19:00:20
Dann am nicht im 3dc spammen.Manchmal muss man 5min warten bis Tests durchgelaufen oder Karten sich aufheizen :P

maguumo
2015-06-18, 19:05:14
War das unter NDA, ist es noch, wird es wieder sein? :usad:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html

Kann mir mal kurz wer sagen wofür das C4 bei den "SnAg C4 uBumps" steht? Ich bin mir ziemlich sicher das es nicht für Kohlenstoff 4 steht...

mczak
2015-06-18, 19:11:05
War das unter NDA, ist es noch, wird es wieder sein? :usad:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html
Das klingt wirklich sehr kompliziert (und damit teuer), vor allem weil so viele verschiedene Schritte notwendig sind.

Hübie
2015-06-18, 19:11:33
SCNR!
http://abload.de/img/thisbigdiefike8.png (http://abload.de/image.php?img=thisbigdiefike8.png)

@maguumo: Guck ins PSE :P Sn=Zinn (Lot) Ag=Silber (guter eltektrischer Leiter)

Edit: Ach nur das C4? Kann eine Größeneinteilung sein:

http://abload.de/img/c4ubumpskqsck.png (http://abload.de/image.php?img=c4ubumpskqsck.png)

Loeschzwerg
2015-06-18, 19:16:09
Kann mir mal kurz wer sagen wofür das C4 bei den "SnAg C4 uBumps" steht? Ich bin mir ziemlich sicher das es nicht für Kohlenstoff 4 steht...

C4 = controlled collapse chip connection

@Hübie: ;D

Edit: Auch @Hübie: Ja, hat mit der Größe zu tun. BGAs sind z.B. C5 => Controlled Collapse Chip Carrier Connection

foenfrisur
2015-06-18, 19:16:56
ROFL.

ich frage mich auch, wieso die Schrift teilweise über kopf ist :freak:
das kann doch nur wieder der dusselige praktikant gewesen sein^^

mfg

Menace
2015-06-18, 19:19:17
Der Praktikant ist auf jeden Fall legendär.

Hübie
2015-06-18, 19:21:37
C4 = controlled collapse chip connection

@Hübie: ;D

Ah. Wusste ich gar nicht. Danke :up:

btw: Dein Bild oben->"No deeplinking please" :D

maguumo
2015-06-18, 19:22:10
C4 = controlled collapse chip connection


Danke, also einfach Flip Chip...

foenfrisur
2015-06-18, 19:23:54
aber grundsätzlich scheint die fertigung echt extrem aufwendig.

den weg geebnet, damit nvidia nicht stolpert... :ulol:

mfg

Loeschzwerg
2015-06-18, 19:25:14
Jup, Flip Chip :) Aber Kohlenstoff ist schon irgendwie gut, sollte dem Autor vielleicht jemand mitteilen :D

btw: Dein Bild oben->"No deeplinking please" :D

Jo, habe den Link eingefügt, bin jetzt zu faul das richtig zu machen ^^ Ok, jetzt passt es :)

Hübie
2015-06-18, 19:25:37
Deshalb auch die umgedrehte Schrift. ;)

@foen: Das glaubst doch selber nich...

foenfrisur
2015-06-18, 19:27:50
ja, vieles ist nur hilfsmittel zur herstellung und wird hinterher entfernt.

mfg

Hübie
2015-06-18, 19:29:54
Das hast du bei jedem Prozess zu genüge. Aufwändig ist halt das zusammenbringen der Komponenten. Ein Bump ohne Verbindung und du musst nacharbeiten. Vor allem die Validierung ist aufwändig und teuer.

foenfrisur
2015-06-18, 19:36:19
gelöscht....neue rechtschreibung lässt ja nun alles zu

Hübie
2015-06-18, 19:39:17
http://abload.de/img/this82sb8.png (http://abload.de/image.php?img=this82sb8.png)

OBrian
2015-06-18, 19:44:44
ürgetwann wirt es sich rechen, wenn man es mit der Rächtschreibung nicht so genau niehmd.

aufkrawall
2015-06-18, 19:45:58
"armselig" darf man übrigens nur mit einem e schreiben. Wie ich jetzt ausgerechnet darauf komme...

Hübie
2015-06-18, 19:49:28
Das Problem ist dass die meisten Sprache als ein starres Regelwerk verstehen und Probleme haben wenn die Mehrheit der Dummbolzen Pizzas sagen und es nach 7 Jahren dann auch im Duden auftaucht.
Also gewöhnt euch dran dass aufwändig mit ä geschrieben wird. :P Jetzt b2t please:

Anddill sagte vor ein paar Tagen ja dass man mit kleinen Anpassungen an der Stromversorgung schon knapp 10% bessere Effizienz erreichen könnte. Nun guckt mal den CB-Artikel (http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/) an ;D

foenfrisur
2015-06-18, 19:52:08
@obrian
:up::uroll::ulol::ulol::ulol::ulol::ulol::ulol4:

@aufkrawall
in den spiegel geschaut?

@huebie
was genau meinst du im cb-artikel?

die 390 mit dem geringeren verbrauch ggü. der 290?

mfg

joe kongo
2015-06-18, 19:52:20
http://abload.de/thumb/amd_r9_fury_x_fiji_auhyug2.jpg (http://abload.de/image.php?img=amd_r9_fury_x_fiji_auhyug2.jpg)

Die komplette Fläche mit "Balls" genutzt :D

Edit: "No deeplinking" am Arsch!!! Gibt es halt nen Link zu einem Bilderhoster :D

Pack ich nicht, die hätten Platz für zwei weitere Speicherchips gehabt !

Hübie
2015-06-18, 19:58:22
Als ob man nur den Platz für die Chips benötige...

@foen: schau dir an was geändert wurde ;)

OBrian
2015-06-18, 20:03:53
Leistungsaufnahme scheint mir ziemlich gleich zu sein, im Rahmen der üblichen Toleranzen zwischen Karten. Aber sind offenbar alle sehr leise, und damit an Nvidia vorbeigezogen. Wenigstens was.

Ich finde den Tonfall bei CB übrigens gar nicht so AMD-feindlich, wie hier einige vermutet hatten. Da hörte sich das bei THG wesentlich enttäuschter an.

Hübie
2015-06-18, 20:05:27
Ach das sind whiner die whinen when die Wahrheit auf den Tisch geknallt wird. Und vorbeigezogen ist man nur weil es kein Foendesign mehr gibt.

foenfrisur
2015-06-18, 20:07:16
muss ich auch sagen.
vor allem im ersteindruck schreiben sie eher noch positiv.

aber auch nicht so clever, wenn man hier eine hohe erwartungshaltung gehabt hätte.
gehofft ja, erwartet nein.

mfg

Troyan
2015-06-18, 20:08:14
Vorbeigezogen? Computerbase testet das Referenzmodell der GTX980.

Hier sind Vergleichskarten: http://www.computerbase.de/2014-11/geforce-gtx-980-test-vergleich-round-up/4/

Nicht das gleiche Testsystem, aber als Anfang schon okay.

Die Palit ist z.b. 10db leiser als die Trix...

Loeschzwerg
2015-06-18, 20:10:22
Und vorbeigezogen ist man nur weil es kein Foendesign mehr gibt.

Referenz Kühler einer 290X auf eine 390X packen und dann vergleichen :) Oder wenigstens gleiche Modelle (z.B. Tri-X vs Tri-X) vergleichen.

Die bisherigen Tests sind alle irgendwie...

foenfrisur
2015-06-18, 20:13:14
dabei frage ich mich, wo diese schicken schwarzen ref-designs aus den folien sind...

mfg

Loeschzwerg
2015-06-18, 20:15:15
Ich mich auch :) Aber selbst wenn es da nie was offizielles geben wird, ich finde schon eine ;)

OBrian
2015-06-18, 20:16:30
Für den Verbrauch warte ich jedenfalls auf HT4U. Bei den anderen Seiten kann man zwar das Testsystem ungefähr rausrechnen (z.B. bei CB ist eine 750Ti mit angegeben, also kann man exakt 60W runterrechnen und kriegt 111W für das Restsystem), aber so ganz gefällt mir das nicht, weil bei einer stärkeren Karte und damit mehr FPS ja evtl. auch die CPU stärker belastet wird. Oder weil das NT anders belastet wird und daher seine Effizienz ändert.

mironicus
2015-06-18, 20:18:06
Bringt NVidia jetzt wohl noch eine 980 Ti v2 mit vollem Ausbau und 1200 MHz Referenz-Takt um Fiji schlagen zu können?

maguumo
2015-06-18, 20:25:53
Für den Verbrauch warte ich jedenfalls auf HT4U. Bei den anderen Seiten kann man zwar das Testsystem ungefähr rausrechnen (z.B. bei CB ist eine 750Ti mit angegeben, also kann man exakt 60W runterrechnen und kriegt 111W für das Restsystem), aber so ganz gefällt mir das nicht, weil bei einer stärkeren Karte und damit mehr FPS ja evtl. auch die CPU stärker belastet wird. Oder weil das NT anders belastet wird und daher seine Effizienz ändert.

Tomshardware.de hat doch Verbrauchsmessungen... Die hatten letztens übrigens auch nen interessanten Artikel über die Leistungsaufnahme der CPU abhängig von der verwendeten Grafikkarte. Waren keine 5W unterschied zwischen High End und mid range Karten wenn ich das richtig in Erinnerung habe.

OBrian
2015-06-18, 20:29:22
achso, gut zu wissen.

captain_drink
2015-06-18, 20:29:49
THW hat insgesamt die besten Verbrauchsmessungen, auch wegen dem Equipment.
Gab dazu ja letztes Jahr auch mal einen Artikel, Stichwort Lastwechsel und Peaks.
Die Wärmebildaufnahmen sind ebenfalls ganz praktisch.

dildo4u
2015-06-18, 20:30:18
Bringt NVidia jetzt wohl noch eine 980 Ti v2 mit vollem Ausbau und 1200 MHz Referenz-Takt um Fiji schlagen zu können?
NV lässt sowas von den OEM zu da muss keine neue REv kommen die Monster sind schon am Markt.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_ti_g1_gaming_soc_review,15.html

dargo
2015-06-18, 20:32:40
Dann seh ich hier wohl in Echtzeit eine Fatamorgana bei 30 fps ;)

Musst mir ja nicht glauben das bleibt dir überlassen es gibt keine größeren Aussetzer vielleicht meinen wir unterschiedliche dinge, die leute haben sich über Intervalartige Microruckler beim Fahren mit Ultra textures beschwert die habe ich jedenfalls seit diesen Verbesserungen nicht mehr und der Worker Thread trägt sehr wohl dazu bei ;)

30fps... :facepalm:

Ich habe schon mal gesagt damit werden nur die Symptome überdeckt. Mit mickrigen 30fps ganz besonders! Zeig mir nochmal deine sauberen Frametimes mit einem Target von 16,66ms.

mironicus
2015-06-18, 20:33:34
Antialiasing scheint der Fiji zu liegen. Bei diesem Beispielen mit 8xAA ist die AMD-Karte bis zu 17% schneller. Und das sogar in Skyrim, was NVidia immer so gut lag. :)

Ob AMD wohl auch Werksübertaktung bei seinen Partnern erlaubt? Da könnten sie wohl gleich die Karte mit 1100/625 oder mehr bringen.... :D

aufkrawall
2015-06-18, 20:35:19
Gerade Skyrim mit 8xMSAA 1080p ist arg bandbreitenlimitiert.

Troyan
2015-06-18, 20:39:43
Also dieser Launch ist irgendwie göttlich:
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/amd-radeon-furyx-guide-benches-3-rs.png
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35794-amd-veroeffentlicht-eigene-benchmarks-zur-radeon-r9-fury-x.html

Und AMD leakt frühlich mit indem Sie diese Benchmarks aus dem Reviewguide twittern:
https://twitter.com/amd_roy/status/611586869055365122

mironicus
2015-06-18, 20:46:26
Was für ein Comeback... :)
Die sind halt in Feierlaune.

Schnoesel
2015-06-18, 20:49:20
Na erst haben sich die Leute beschwert dass es bei der E3 keine AMD Benches gab und jetzt ist es auch wieder nicht recht? Zumal die Benches offenbar sehr transparent sind wurden die Settings doch recht genau angegeben. Und auch die Balkenlänge nicht übertrebeen manipuliert wie sonst.

Effe
2015-06-18, 20:51:54
Na erst haben sich die Leute beschwert dass es bei der E3 keine AMD Benches gab und jetzt ist es auch wieder nicht recht?
Ich würde Propagandaminister Troyan ignorieren, da kommt nur Anti-AMD Geschreibsel.